据彭博社报道,OpenAI已组建了一个董事会委员会,专注于评估其人工智能模型的安全性。这一新步骤发生在公司解散内部安全团队和安全问题负责人离职仅数周后。前董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)在《经济学人》杂志发表文章,对OpenAI的治理方式提出质疑。新委员会将在90天内对OpenAI技术的保障措施进行评估,并提交报告。公司承诺在董事会全面审查后,将公开分享符合安全原则的建议。OpenAI还宣布,他们最近已开始训练最新的AI模型。
高管冲突与团队变动
去年秋天,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)与联合创始人兼首席科学家伊利亚·苏茨凯沃(Ilya Sutskever)在AI产品开发速度和风险控制上发生冲突,阿尔特曼一度被短暂罢免。
本月,苏茨凯沃和他的得力助手Jan Leike离开公司。这两位科学家曾领导超智能体对齐团队(superalignment team),专注于研究超人类AI的长期威胁。Leike离职后指出,其部门在公司内部争取计算资源时遇到困难。
团队解散与工作继续
苏茨凯沃离职后,OpenAI解散了他的团队。公司表示,这项工作将由研究部门和新任命的对齐科学负责人、联合创始人约翰·舒尔曼(John Schulman)继续进行。OpenAI取消了一项政策,该政策规定如果前员工批评公司,将取消其股票期权。
安全委员会构成
新成立的安全委员会由董事长布雷特·泰勒(Bret Taylor)、Quora首席执行官亚当·德安杰洛(Adam D’Angelo)、索尼娱乐公司前高管妮可·塞利格曼(Nicole Seligman)三位董事会成员,以及包括舒尔曼和阿尔特曼在内的六名员工组成。公司将继续咨询外部专家,包括国土安全部顾问罗布·乔伊斯(Rob Joyce)和前司法部官员约翰·卡林(John Carlin)。
0条评论