OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。
这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。
“我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。
去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。Sutskever 于今年五月离开了 OpenAI,并暗示将启动一个新项目。Sutskever 离职后不久,AI 研究员 Jan Leike 宣布从 OpenAI 辞职,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。
随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。
🗒 标签: #OpenAI
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel