北京时间今日凌晨,Ilya Sutskever,原OpenAI联合创始人及首席科学家,在社交媒体上正式宣布了他的全新创业动向——成立“安全超级智能”(Safe Superintelligence,SSI)公司。SSI致力于打造一个专注且纯粹的安全超级智能系统,以此为核心目标与唯一产品,力求通过精干的研发团队实现该领域的革命性突破,并自称为全球首个直接聚焦于SSI研究的实验室。
此次创业,Sutskever携手前OpenAI同事Daniel Levy以及知名AI投资人兼企业家Daniel Gross,在美国共同开启了这一新篇章。Daniel Gross的投资版图广泛,涵盖了GitHub、Instacart以及多家前沿AI企业,如Perplexity.ai和Character.ai,为SSI的启动增添了深厚的行业资源与经验基础。
SSI明确表示,其全部精力将集中于开发超越人类认知范畴的安全超级智能,这是公司唯一的使命。三位创始人在联合声明中强调,公司结构设计旨在避免传统商业模式的干扰,确保研究方向始终锚定于安全、稳定及长远发展,不受短期商业考量的制约。
作为AI领域的顶尖学者,Ilya Sutskever对OpenAI早期在生成式AI领域的崛起贡献显著。而他在去年底的管理层变动风波后,最终支持Sam Altman回归CEO职位,体现了其对组织领导力的认可。今年5月,Sutskever在告别OpenAI之际,表达了对该公司在新领导团队下继续推进安全有益AGI(通用人工智能)愿景的信心。
SSI的成立,不仅是Sutskever个人职业生涯的崭新起点,也标志着AI安全领域迎来了一股强劲的创新力量,预示着向更加安全、可控的高级人工智能发展的全球探索迈出了重要一步。
0条评论