Ilya Sutskever 谈人工智能将如何改变以及他的新初创公司 Safe Superintelligence - 路透社

2024-09-05 10:23:00 英文原文

<正文>

Ilya Sutskever 谈论人工智能将如何改变以及他的新初创公司 Safe Superintelligence

旧金山/纽约,9 月 5 日(路透社)——OpenAI 前首席科学家 Ilya Sutskever 成立了一家名为 Safe Superintelligence (SSI) 的新公司,旨在开发远远超越人类能力的安全人工智能系统。

他和他的联合创始人在本周接受路透社独家采访时概述了他们的初创公司计划。

Sutskever,37 岁,是人工智能领域最具影响力的技术专家之一,曾师从被誉为“人工智能教父”的杰弗里·辛顿 (Geoffrey Hinton)。Sutskever 是扩展的早期倡导者,即人工智能性能随着大量计算能力而提高的想法,这为 ChatGPT 等生成式人工智能的进步奠定了基础。他表示,SSI 的扩展方式将与 OpenAI 不同。

广告滚动继续

以下是采访要点。

创立 SSI 的理由

“我们已经确定了一座与我正在研究的山有点不同的山......一旦你爬到这座山的山顶,范式就会改变......我们所知道的关于人工智能的一切都将改变一次到那时,最重要的超级智能安全工作将会发生。”

“我们的第一个产品将是安全的超级智能。”

您会发布与人类一样聪明的人工智能吗?

“我认为问题是:它安全吗?它是世界上一股向善的力量吗?我认为,当我们走到这一步时,世界将会发生巨大的变化,因此我们需要向您提供我们的最终计划。要做起来是相当困难的。

广告滚动继续

我可以告诉你,世界将会变得非常不同。更广阔的世界中每个人思考人工智能正在发生的事情的方式都会以难以理解的方式截然不同。这将是一场更加激烈的对话。这可能不仅仅取决于我们的决定。”

SSI 将如何决定什么构成安全人工智能?

“要回答您的问题,很大一部分需要我们进行一些重要的研究。特别是如果您和我们有同样的观点,事情将会发生很大的变化……有很多伟大的想法被发现。

很多人都在思考,AI如何变得更强大,需要做什么步骤和测试?事情变得有点棘手。还有很多研究要做。我不想说现在已经有了明确的答案。但这是我们要解决的问题之一。”

关于扩展假设和人工智能安全

“每个人都只是说‘缩放假设’。每个人都忽略了问,我们在缩放什么?过去十年深度学习的伟大突破是缩放假设的特定公式。但它会改变......并且随着它发生变化,系统的能力将会增强,安全问题将变得最严重,这就是我们需要解决的问题。”

关于开源 SSIS 研究

“目前,所有人工智能公司都没有开源他们的主要工作。我们也是如此。但我认为,希望根据某些因素,会有很多机会开源相关的超级智能安全也许不是全部,但肯定是一些。”

关于其他人工智能公司的安全研究工作

“实际上,我对这个行业有很高的评价。我认为,随着人们不断取得进步,所有不同的公司都会在略有不同的时间意识到他们所面临的挑战的本质。所以,而不是说我们认为没有人能做到,我们说我们认为我们可以做出贡献。

通过时事通讯 On the Campaign Trail 获取有关美国选举及其对世界的重要性的每周新闻和分析。在这里注册。

Kenrick Cai、Anna Tong 和 Krystal Hu 的报道;彼得·亨德森和埃德温娜·吉布斯编辑

我们的标准:汤森路透信任原则。

摘要

Ilya Sutskever 谈人工智能将如何改变以及他的新初创公司 Safe Superintelligence旧金山/纽约,9 月 5 日(路透社)——OpenAI 前首席科学家 Ilya Sutskever 成立了一家名为 Safe Superintelligence (SSI) 的新公司,旨在开发远远超越人类能力的安全人工智能系统。他表示,SSI 的扩展方式将与 OpenAI 不同。创立 SSI 的理由“我们已经确定了一座与我正在研究的山有点不同的山……一旦你爬到这座山的山顶,范式就会改变……我们所知道的关于人工智能的一切都将再次改变。所以我们不是说我们认为没有人能做到这一点,而是说我们认为我们可以做出贡献(作者:Kenrick Cai、Anna Tong 和 Krystal Hu)编辑:Peter Henderson 和 Edwina Gibbs;我们的标准:汤森路透信任原则。