据金融界报道,此前,美东时间5月14日,OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)官宣离职。同日,OpenAI超级对齐团队负责人之一的简·雷克(Jan Leike)也宣布离职。本周五,OpenAI也证实,由苏茨克沃和简·雷克共同领导的“超级智能对齐团队”已经解散。5月18日凌晨,简·雷克在社交平台X上连发13条推文,爆料离职的真正原因及更多内幕。总结来看,一是算力资源不够用,二是OpenAI对安全不够重视。 简·雷克表示,应该将更多资源和精力投入到为新一代AI模型做准备的工作中,但目前的发展路径无法顺利达成目标。他的团队在过去几个月面临巨大挑战,有时难以获取足够的计算资源。简·雷克还强调,创造超越人类智能的机器充满风险,OpenAI正在承担这一责任,但安全文化和流程在追求产品开发过程中被边缘化。OpenAI必须转型为一家将安全放在首位的AGI公司。 针对简·雷克的爆料信息,5月18日奥尔特曼也紧急发文回应:“我非常感激简·雷克对OpenAI在AI超级对齐研究和安全文化方面的贡献,对他离开公司感到非常遗憾。他指出了我们还有很多工作需要完成,我们对此表示认同,并致力于推进这些工作。在接下来的几天里,我会撰写一篇更详细的文章来讨论这个问题。”特斯拉首席执行官马斯克针对“超级对齐”团队解散这一消息评论称:“这显示安全并不是OpenAI的首要任务。”
此外,美国TechCrunch科技博客网站18日称,OpenAI放弃安全研究,转而推出像GPT-4o这样的新产品,最终导致“超级对齐”团队的两位负责人辞职。目前尚不清楚科技行业何时或是否会实现必要的突破,以创造出能够完成人类所能完成的任何任务的人工智能。但“超级对齐”团队的解散似乎证实了一件事:OpenAI的领导层——尤其是奥特曼——选择优先考虑产品而不是安全措施。在过去一年时间里,OpenAI让其聊天机器人商店充斥着垃圾邮件,并违反平台的服务条款从YouTube抓取数据……安全似乎在该公司处于次要地位——越来越多的安全研究人员得出这种结论,选择另谋高就。
5月19日,OpenAI首席执行官山姆·奥特曼(Sam Altman)在社交平台X上就此前“封嘴”离职条款传闻进行回应:公司从未追回过任何人的既得股权,即使有人没签署离职协议(或不同意非贬低协议),也不会采取上述做法。