英语轻松读发新版了,欢迎下载、更新

“我们有这个魔法,而不是魔法”:研究人员的 p(厄运)量表记录了人工智能终结人类的可能性为 99.999999%,但萨姆·奥尔特曼声称人工智能将足够聪明,足以阻止人工智能造成存在的厄运

2024-12-06 08:57:23 英文原文

作者:Kevin OkemwaSocial Links NavigationContributor

In this photo illustration OpenAI icon is displayed on a mobile phone screen in Ankara, Turkiye on August 13, 2024.
安卡拉手机屏幕上显示 OpenAI 图标 (图片来源:Getty Images | 阿纳多卢)

你需要知道什么

  • 山姆·奥尔特曼声称人工智能将足够聪明,能够解决自然环境快速发展带来的后果,包括人类的毁灭。
  • 这位首席执行官希望研究人员找出如何防止人工智能毁灭人类的方法。
  • 奥特曼表示,通用人工智能可能会比预期更早实现,并进一步指出,所表达的安全担忧不会在那时显现出来,因为它会以“令人惊讶的小”社会影响迅速过去。

除了围绕快速发展的安全和隐私问题生成式人工智能,景观进一步发展的可能性仍然是一个主要风险。包括微软、谷歌、Anthropic 和 OpenAI 在内的顶级科技公司在这一领域投入了大量资金,但缺乏管理其发展的政策令人高度关注,因为如果/当人工智能偏离护栏并螺旋式发展时,可能很难建立控制的控制。

当被问及他是否相信有人会找到一种方法来绕过超级智能人工智能系统所构成的生存威胁时纽约时报 Dealbook 峰会,OpenAI 首席执行官 Sam Altman 表示:

——我相信研究人员会想办法避免这种情况。我认为世界上最聪明的人将致力于解决一系列技术问题。而且,你知道,我本质上有点过于乐观,但我认为他们会解决这个问题。”

这位高管进一步暗示,到那时,人工智能可能已经变得足够聪明,能够自行解决危机。

我们有这种魔法,但不是魔法。我们拥有一门令人难以置信的科学,称为深度学习,它可以帮助我们解决这些非常困难的问题。

OpenAI 首席执行官萨姆·奥尔特曼

也许更令人担忧的是,一份单独的报告建议根据 p(doom),人工智能有 99.999999% 的概率终结人类。就上下文而言,p(doom) 指的是生成式人工智能接管人类,甚至更糟——结束人类。这项研究背后的人工智能安全研究员 Roman Yampolskiy 进一步表示,一旦我们达到超级智能基准,几乎不可能控制人工智能。Yampolskiy 表示,解决这个问题的唯一方法就是首先不要构建人工智能。

然而,OpenAI 似乎有望将 AGI 基准从其愿望清单中删除。萨姆·奥尔特曼最近表示令人垂涎的基准可能会比预期更早到来。与普遍看法相反,执行官声称该基准将快速通过,但社会影响“小得惊人”

与此同时,萨姆·奥尔特曼最近写了一篇文章,暗示超级智能可能只是“还剩几千天”然而,首席执行官表示,所表达的安全担忧并不是在 AGI 时刻出现的。

为 Windows 和 Xbox 顽固分子提供的所有最新新闻、评论和指南。

迈向 AGI 可能是一项艰巨的任务

A photo taken on February 26, 2024 shows the logo of the ChatGPT application developed by US artificial intelligence research organization OpenAI on a smartphone screen.

美国人工智能研究组织OpenAI在智能手机屏幕上开发的ChatGPT应用程序(图片来源:Getty Images | KIRILL KUDRYAVTSEV)

OpenAI最近濒临破产预计未来几个月内将亏损 50 亿美元。包括微软和 NVIDIA 在内的多家投资者通过一轮融资延长了其生命线,筹集 66 亿美元,最终将其市值推至 1570 亿美元。

然而,本轮融资遇到了一些瓶颈,包括两年内转型为营利性企业的压力或风险退还投资者筹集的资金。这可能会让 ChatGPT 制造商面临以下问题:外部干扰和恶意收购来自微软等公司,分析师预测可能未来3年收购OpenAI

有关的:萨姆·奥尔特曼因荒谬的人工智能愿景而被称为“播客兄弟”

OpenAI 可能会在办公室度过漫长的一天,试图说服利益相关者支持这一变革。前 OpenAI 联合创始人、特斯拉首席执行官埃隆·马斯克 (Elon Musk) 对 OpenAI 和萨姆·奥尔特曼 (Sam Altman) 提起两起诉讼,称其公然背叛了其创始使命并涉嫌参与敲诈勒索活动。

市场分析师和专家预测投资者的兴趣人工智能泡沫正在破灭。因此,他们最终可能会撤回投资并将其转移到其他地方。一份单独的报告证实了这一理论并指出到2025年,30%的人工智能主题项目将被放弃概念验证后。

还有人声称,包括 OpenAI 在内的顶级人工智能实验室努力构建先进的人工智能模型由于缺乏高质量的训练数据。OpenAI 首席执行官 Sam Altman 驳斥了这一说法,表示“没有墙“以达到人工智能发展的新高度和进步。谷歌前首席执行官埃里克·施密特重申了奥特曼的观点,表明“没有证据表明缩放法律已经开始停止。”

Kevin Okemwa 是一位驻肯尼亚内罗毕的经验丰富的科技记者,在报道 Windows Central 行业的最新趋势和发展方面拥有丰富的经验。凭借对创新的热情和对细节的敏锐洞察力,他为 OnMSFT、MakeUseOf 和 Windows Report 等领先出版物撰写文章,提供有关 Microsoft 生态系统的一切内容的富有洞察力的分析和突发新闻。您还会发现他偶尔会在 iMore 上发表有关苹果和人工智能的文章。虽然 AFK 并不忙于追随不断出现的科技趋势,但你可以发现他在探索世界或听音乐。

关于《“我们有这个魔法,而不是魔法”:研究人员的 p(厄运)量表记录了人工智能终结人类的可能性为 99.999999%,但萨姆·奥尔特曼声称人工智能将足够聪明,足以阻止人工智能造成存在的厄运》的评论


暂无评论

发表评论

摘要

OpenAI 首席执行官山姆·奥尔特曼 (Sam Altman) 相信,尽管人们担心先进人工智能系统会带来生存威胁,但人工智能将变得足够聪明,能够减轻自身风险。他表示,研究人员正在研究技术问题以确保安全,并对在重大社会影响发生之前解决这些问题表示乐观。该公司面临着潜在的盈利转型以及与前联合创始人埃隆·马斯克的法律纠纷等挑战。尽管得到了微软等大型科技公司的资助,但人们越来越担心人工智能开发中缺乏治理政策。一项研究表明,一旦人工智能达到超级智能水平,它很可能会终结人类,这凸显了安全措施的迫切需要。