近期,有报告指出,专注于超级智能AI长期风险研究的OpenAI团队出现人员流失现象。据Fortune报道,OpenAI前治理研究员Daniel Kokotajlo透露,过去几个月,公司AGI安全团队成员已有近一半离职。
AGI安全研究人员的职责是确保未来AGI系统不构成对人类的威胁。但随着OpenAI更专注于产品和商业化,安全研究团队的缩减引起了外界的担忧。
Kokotajlo提到,自2024年起,OpenAI的AGI安全团队规模已从大约30人降至16人左右。他认为这不是有组织的离职,而是成员因逐渐失去信心而离开。
对此,OpenAI方面表示,公司自豪于能提供能力最强、最安全的AI系统,并相信自己有科学的解决方法来应对风险。
今年早些时候,OpenAI联合创始人兼首席科学家Ilya Sutskever宣布离职,其负责的安全问题团队“超级对齐”也被解散。
在AI技术迅速发展的当下,如何平衡创新与安全,确保技术进步不以牺牲人类福祉为代价,是整个行业需要深思的问题。OpenAI的这一变动,无疑给AI安全性研究敲响了警钟。
0条评论