打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

6 月 19 日,Ilya Sutskever 正式宣布了最新项目——Safe Superintelligence Inc. (SSI)。SSI 旨在创建一个安全且强大的 AI 系统。

打开网易新闻 查看更多图片

作为一个纯粹的研究机构,SSI 在短期内没有出售 AI 产品或服务的打算。换句话说,Sutskever希望继续他的工作,而不被OpenAI、Google和Anthropic等竞争对手所面临的诸多干扰分心。

Sutskever 表示,SSI 特别之处在于,它的第一个产品将是安全的超级智能,在此之前不会做其他事情。它将完全隔离于外界的压力,不必应对复杂的产品或陷入竞争的激烈竞争中。

据悉,与 Sustskever 共同创办SSI的还有前 YC 合伙人 和前 OpenAI工程师 Daniel Levy。

打开网易新闻 查看更多图片

Gross 在 AI 创业投资方面有广泛的影响力,曾支持包括 Keen Technologies 在内的多家知名AI初创公司。而 Levy 则在 OpenAI 与 Sutskever 合作期间,因训练大型 AI 模型而声名鹊起。

他们的共同愿景是打造一个精干、专注的团队,致力于开发安全的超级智能。SSI 在加利福尼亚州的帕洛阿尔托和特拉维夫设有办公室,正在积极招聘技术人才。

Safe Superintelligence 在某种程度上回归了 OpenAI 最初的理念:一个研究组织,试图构建一种能够在多项任务上媲美甚至超越人类的 AGI 。

然而,随着对计算能力需求的增加,OpenAI 的结构发生了演变,这导致了与微软的紧密合作,并推动了其开发创收产品的努力。所有主要的AI公司都面临着类似的困境,需要为不断增长的计算需求支付费用。

尽管如此,Safe Superintelligence 在筹集资金方面可能不会遇到太大困难,考虑到其创始团队的背景和对该领域的强烈兴趣。Gross表示,在面临的所有问题中,筹集资金不会是其中之一。

几十年来,研究人员和知识分子一直在思考如何使 AI 系统更安全,但在这些问题上进行深入工程研究却寥寥无几。当前的技术状态是利用人类和AI共同引导软件朝着符合人类最佳利益的方向发展。然而,如何阻止AI系统失控仍然主要是哲学层面的讨论。

Sutskever 表示,他多年来一直在思考这些安全问题,并且已经有了一些解决方案。但目前 Safe Superintelligence 还不愿透露具体细节。

“在最基本的层面上,安全的超级智能应具有不会大规模伤害人类的特性;在此之后,我们可以说希望它成为一股积极的力量。我们希望它建立在一些关键价值观之上,例如自由、民主和自由等这些在过去几百年中对自由民主国家成功至关重要的价值观。”

Sutskever 表示,目前的系统,你与它对话,结束就是结束了,而他希望追求的系统将更通用和广泛。

Intel AI Summit 宁波

揭秘 AI 大模型的科技奥秘与产业实践

如何塑造行业新生态: 深入探讨AI大模型如何在工业智能、机器人、边缘计算等领域的应用。

与行业专家面对面: 机会难得,与英特尔、魔搭ModelScope、宁波工业互联网研究院、研扬科技、Xorbits、浙江人形机器人创新中心、亿琪软件、上海交通大学宁波人工智能研究院等行业专家与创始人交流。

活动时间: 2024年6月22日(周六)13:30– 17:30 (13:00开始签到)

欢迎感兴趣的项目创始人/开发者/同学,添加微信【jiangtian26】,备注【Intel】报名:

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片