据路透社报道,由前 OpenAI 首席科学家 Ilya Sutskever 联合创立的安全超级智能(SSI, Safe Superintelligence)公司,已成功筹集到十亿美元资金,用于开发超越人类能力的安全人工智能系统。
目前仅有十名员工的 SSI 计划利用这笔资金增强计算能力,并在全球范围内招募顶级人才。该公司将在加州帕洛阿尔托和以色列特拉维夫设立研究中心,组建由值得高度信任的研究人员和工程师组成的团队。
尽管 SSI 未公开其估值,但知情人士透露,该公司的估值约为五十亿美元。此次融资表明,即便在普遍对长期无盈利公司兴趣减弱的情况下,仍有投资者愿意对专注于基础 AI 研究的团队进行大规模投资。
本轮投资者包括知名风险投资公司 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel。此外,由 Nat Friedman 和 SSI CEO Daniel Gross 领导的投资合伙企业 NFDG 也参与了此次投资。
“对我们而言,重要的是要吸引那些理解和支持我们使命的投资者,” Gross 在采访中表示,“我们的目标是在产品上市前投入多年时间进行研发,以直接实现安全的超级智能。”
AI 安全性一直是热门话题,人们担忧失控的 AI 可能违背人类利益甚至威胁生存。加州的一项旨在对公司实施安全法规的法案引发了行业内的分歧,受到了 OpenAI 和谷歌等公司的反对,但也得到了 Anthropic 和 Elon Musk 的 xAI 支持。
现年 37 岁的 Sutskever 是 AI 领域的重要人物。他与前苹果 AI 负责人 Gross 和前 OpenAI 研究员 Daniel Levy 于今年六月共同创立了 SSI。Sutskever 担任首席科学家,Levy 负责研究,而 Gross 则负责计算能力和筹资事务。
Sutskever 表示,他创立新公司的动机在于发现了与以往工作略有不同的目标。他曾是 OpenAI 非营利母公司的董事会成员,但因“沟通破裂”等问题,最终离开了 OpenAI。
SSI 目前专注于招聘能够融入其文化的人才,并强调候选人的品格和能力。公司计划与云服务提供商和芯片制造商合作,但尚未确定合作伙伴。Sutskever 也表达了对扩展理论的不同看法,认为在扩展过程中,选择正确的方向至关重要。
0条评论