划重点:
🚨 两位高管离职:openai的联合创始人兼首席科学家ilya sutskever和“超级对齐团队”负责人 辞职。
🔍 与安全担忧:leike对公司领导层在ai安全方面的重视程度表示失望,认为公司对(agi)的安全问题关注不足。
🛠️ 公司回应与:ceo和总裁回应称,公司已建立安全部署的基础设施,并持续改进ai模型行为和滥用监控。
站长之家(chinaz.com)5月20日 消息:openai近期面临重大人事变动,引发业界对其ai安全承诺的关注。上周,公司联合创始人兼首席科学家ilya sutskever宣布辞职,以追求其他项目。与此同时,“超级对齐团队”负责人jan leike也宣布离职,并在公开信中表达了对公司领导层的失望,特别是对ai安全重视不足的问题。
leike特别指出,公司在人工通用智能(agi)的安全问题上缺乏足够的重视。agi是一种尚未实现的ai形态,能够像人类一样思考和推理。他强调,我们迫切需要认真对待agi带来的影响,并呼吁openai成为一个以安全为先的agi公司。
对此,openai的ceo sam altman和总裁greg brockman在联合声明中回应称,他们对agi的风险和潜力有着清晰的认识。他们表示,公司一直在倡导国际agi标准,并在检查ai系统可能带来的灾难性威胁方面发挥了先锋作用。
此外,他们还提到,公司已经建立了安全部署越来越强大系统的基础设施,并以gpt-4的推出为例,展示了公司如何在安全方面做出了大量工作,并根据部署中学到的经验不断改进模型行为和滥用监控。
据彭博新闻报道,除了leike之外,“超级对齐团队”的其他成员也在近几个月离开了openai,这无疑给公司带来了更多挑战。为了应对这一变化,公司任命了专注于大型语言模型的联合创始人john schulman作为组织对齐工作的新科学负责人。
除了“超级对齐团队”,openai还有许多专门从事ai安全的员工分布在公司内的不同团队,以及一些专门致力于安全的独立团队。其中就包括一个准备团队,负责分析和减轻与ai系统相关的潜在灾难性风险。
sam altman在本月早些时候的“all-in”播客中表示,他支持创建一个国际机构来监管ai,以应对可能造成的“重大全球伤害”。这表明openai及其领导层对ai安全问题的认识和承诺仍然坚定,尽管公司内部的人事变动带来了一些不确定性。
chatgpt源码推荐: