2024年5月18日消息 —— 人工智能领域巨头OpenAI正面临前所未有的信任危机,该公司多名核心成员因对首席执行官Sam Altman的信任问题而选择离职。
这场信任危机始于去年11月,当时OpenAI董事会试图解雇Altman,但最终未能成功。自那以后,至少有5名关注人工智能安全的员工选择离开,其中包括公司超级协调团队的领导者Ilya Sutskever和Jan Leike。 “这是一个信任一点点崩溃的过程,就像多米诺骨牌一张一张倒下一样。”一位不愿透露姓名的公司内部人士表示。
离职的员工中,Daniel Kokotajlo曾是OpenAI治理团队的一员,他于上个月辞职。Kokotajlo曾满怀希望地加入OpenAI,希望引导其安全部署人工智能,但最终对公司领导层失去了信任。
Leike在社交媒体上公开表达了他的担忧:“我认为我们应该将更多的带宽花在为下一代模型做好准备上,包括安全、监控、准备、安全、对抗鲁棒性、(超级)一致性、保密性、社会影响和相关方面。”他指出,公司的安全文化和组织流程已让位于闪亮的产品。
随着安全团队的解散,OpenAI如何确保其工作的安全性成为了一个悬而未决的问题。公司联合创始人John Schulman被任命为新的超级对齐团队负责人,但团队已被掏空,Schulman能否带领团队继续前行,还有待观察。
OpenAI的信任危机给人工智能行业敲响了警钟。在追求技术突破的同时,如何平衡安全性和创新,确保技术的发展真正造福人类,是每一个从业者都需要深思的问题。随着核心团队成员的离职,OpenAI的未来走向和人工智能行业的安全问题,将继续成为公众关注的焦点。
|