不顾安全了? OpenAI无预警解散AI安全团队

不顾安全了? OpenAI无预警解散AI安全团队缩略图

人工智能(AI)创新企业OpenAI在其最新发布、迄今最拟人化的AI——GPT-4o问世之际,却意外地解散了专注于AI长期风险“超级对齐”(Superalignment)的团队,该团队成立仅一年时间,此举引起了业界的广泛关注。

Superalignment团队遭解散
据知情人士透露,Superalignment团队的成员目前正被重新调配至公司内的其他多个团队。OpenAI于2023年7月创立了Superalignment团队,由Ilya Sutskever和Jan Leike共同领导,该团队致力于降低AI风险,如“失控”的可能性。当时,OpenAI宣布将在四年内为该项目投入20%的运算能力。然而,就在领导人Ilya Sutskever和Jan Leike早些时候宣布辞职后的几天里,该团队却被解散了。

Sutskever的积极回应
对于这一变故,Sutskever表现出了积极的态度,并在他的帖子中表示,他“相信OpenAI在现任领导层的带领下,将打造出既安全又有益的通用人工智能(AGI)”,并补充说他“对即将发生的事情感到兴奋”,还提及了一个对他而言“具有非常个人意义的项目”,但并未对此进行详细说明。

Leike的不满表达
相比之下,另一位领导人Leike似乎对自己的离职并不满意,他甚至在社交媒体X上暗示自己是在不满中离职的,并批评了OpenAI放弃安全措施的决策,指责公司将“安全文化和流程让位于闪亮的产品”。OpenAI的首席执行官Sam Altman对此未发表评论,只是在X上表示,看到Leike离开他感到很难过,但公司还有更多的工作要做。

滚动至顶部