推荐使用国际直连GPT,立即访问: www.chatgp1.com
人工智能(AI)创新企业OpenAI的系统安全似乎并未如预期般坚不可摧。早在2023年初,一名黑客就成功渗透进了OpenAI的内部通讯系统,盗取了关于公司AI技术设计的敏感信息。据两位知情人士透露,黑客通过员工在线论坛获取了OpenAI最新技术的细节,但并未触及公司用于存储和构建AI的核心系统。值得注意的是,OpenAI并未将此事件对外公开。
OpenAI选择沉默
据报道,这两位知情人士称,OpenAI高层在2023年4月的一次全体会议上向员工通报了此事件,并告知了董事会。然而,由于未涉及客户或合作伙伴的信息泄露,且高层认为黑客仅为“一个与外国政府无关联的私人个体”,不构成国家安全威胁,公司决定不向外界披露此事,也未向FBI或其他执法机构报告。
内部担忧浮现
尽管如此,这一消息在OpenAI内部引发了对外国对手(如中国)可能窃取AI技术的担忧。尽管当前这些技术主要作为工作和研究工具,但它也引发了对OpenAI安全态度的质疑,并暴露了公司在AI风险认知上的内部分歧。此次安全漏洞后,OpenAI前技术项目经理Leopold Aschenbrenner曾向公司董事会发送备忘录,指出公司在防范中国政府和其他外国对手窃取机密方面“做得不够”,然而,他随后被公司解雇。
揭露者遭解雇
Aschenbrenner声称,公司因他泄露信息而在今年春季将其解雇。对此,OpenAI发言人Liz Bourgeois回应称:“我们感谢Leopold在OpenAI期间提出的担忧,但这并非他离职的原因。尽管我们与他一样致力于构建安全的通用人工智能(AGI),但我们对他的许多关于我们工作的声明持不同意见,包括他对我们安全措施的描述。特别是这次事件,我们在他加入公司之前就已经解决并与董事会分享。”
AI技术对国家安全的风险评估
值得注意的是,目前尚无确凿证据表明当前的AI技术会对国家安全构成重大风险。OpenAI、Anthropic等公司过去一年的研究表明,与搜索引擎相比,AI并未展现出显著的危险性。Anthropic联合创始人兼总裁Daniela Amodei表示,即使其最新的AI技术设计被窃取或自由分享,也不会对社会构成重大风险。
加强安全防护
包括OpenAI和Anthropic在内的多家公司已经开始加强其技术运营的安全性。OpenAI最近成立了一个安全委员会,以探讨如何应对未来技术挑战。委员会成员包括曾任美国陆军将领、领导过国家安全局和美国网络战司令部的Paul Nakasone,他还被任命为OpenAI董事会成员之一。