英语轻松读发新版了,欢迎下载、更新

人造超智能(ASI)对人类构成威胁吗?

2025-04-28 11:00:30 英文原文

作者:Edd GentSocial Links NavigationLive Science Contributor

Abstract image of binary data emitted from AGI brain.
(图片来源:Yuichiro Chino/Getty Images)

快速进步人工智能(AI)正在促使人们质疑该技术的基本限制。越来越多的话题曾经委托科幻小说。

机器可能有一天比赛甚至超过人类智能的想法具有悠久的历史。但是,最近几十年来,AI的进步速度使该主题的紧迫性更新了,特别是因为OpenAI,Google和Anthropic等公司发布了强大的大型语言模型(LLMS)。

专家对这种“人工超级智能”(ASI)的可行性以及何时出现的可行性有很大的不同,但是有些人暗示这种超能力的机器就在拐角处。可以肯定的是,如果以及何时出现ASI,它将对人类的未来产生巨大影响。

“我相信我们将进入一个自动化科学发现的新时代,经济增长,长寿和新颖的娱乐经验,大大加速了,”蒂姆·罗克特(TimRocktâschel),伦敦大学学院AI教授以及Google Deepmind的首席科学家告诉Live Science,提供了个人意见,而不是Google DeepMind的官方职位。但是,他还警告说:“与历史上的任何重要技术一样,存在潜在的风险。”

什么是人工超级智能(ASI)?

传统上,AI研究的重点是复制智能生物所表现出的特定功能。其中包括诸如视觉分析场景,解析语言或导航环境的能力之类的东西。Rocktâschel说,在这些狭窄的域中,AI已经取得了超人的表现,最著名的是 诸如Go and Chess之类的游戏

然而,该领域的伸展目标一直是复制在结合许多这样能力的动物和人类中看到的更一般的智力形式。多年来,这个概念已经以几个名字传播了人工通用情报(AGI)。

Rocktâschel说:“很长一段时间以来,Agi一直是AI研究的遥远北极星。”“但是,随着基础模型的出现(LLMS的另一个术语),我们现在拥有可以通过广泛的大学入学考试并参加国际数学和编码比赛的AI。”

将世界上最迷人的发现直接传递到您的收件箱中。

有关的:科学家说,GPT-4.5是第一个通过真实的图灵测试的AI模型。

Rocktâschel说,这使人们更加重视Agi的可能性。至关重要的是,一旦我们创建了与人类在各种任务上匹配的AI后,可能不久之后它可以全面实现超人的能力。无论如何,这就是想法。Rocktãäschel说:“一旦AI达到了人类水平的能力,我们将能够以自指的方式来改善自己。”“我个人认为,如果我们能够达到AGI,我们将不久,也许在此之后几年到达ASI。”

World Chess Champion Garry Kasparov looks at the chessboard before his next move in the early part of the fifth game against the IBM Deep Blue computer on May 10, 1997 in New York.

IBM Deep Blue成为第一个击败1997年击败统治世界国际象棋冠军(Garry Kasparov,图片)的AI系统。(图片来源:Stan Honda/AFP通过Getty Images)

一旦达到了这个里程碑,我们就可以看到英国数学家欧文·约翰·古德被称为情报爆炸“在1965年。他认为,一旦机器变得足够聪明以改善自己,他们就会迅速达到智力水平,远远超出了任何人类。他将第一台超智能机器描述为“人类有史以来的最后发明”。

著名的未来主义者雷·库尔兹维尔(Ray Kurzweil)曾认为,这将导致“技术奇异性”突然,不可逆转地改变人类文明。该术语与黑洞中心的奇异性相似,我们对物理学的理解分解了。同样,ASI的出现将导致快速且不可预测的技术增长,这将无法理解。

确切地说,这种过渡可能发生时是有争议的。2005年,库兹维尔(Kurzweil)预测,阿吉(Agi)将于2029年出现,随后是2045年的奇异性,此后他坚持不懈。其他AI专家从这十年内到绝不。但是 最近的调查在2,778名AI研究人员中,他们发现,在总体上,他们认为到2047年可能会出现50%的ASI。更广泛的分析同意大多数科学家都同意AGI可能到2040年到达。

ASI对人类意味着什么?

像ASI这样的技术的含义将是巨大的,促使科学家和哲学家专门花费大量时间来绘制人类的承诺和潜在陷阱。

从积极的一面来看,一台几乎无限能力的智力能力的机器可以解决世界上最紧迫的挑战。丹尼尔·赫尔姆(Daniel Hulme),AI公司的首席执行官 Satalia 助理。特别是,超级智能机器可以“从粮食,教育,医疗保健,能源,运输的创造和传播中消除摩擦,以至于我们可以将这些商品的成本降低到零,”他告诉Live Science。

Hulme解释说,希望这将使人们不必工作才能生存,而可以花时间做自己热衷的事情。但是,除非建立系统来支持AI裁员的工作的人,否则结果可能会很沮丧。他说:“如果这种情况很快发生,我们的经济可能无法重新平衡,这可能会导致社会动荡。”

这也假设我们可以控制和指导一个比我们更聪明的实体 - 许多专家建议的不太可能。赫尔姆说:“我并不是真正地赞成这个想法,即它将关注我们并照顾我们并确保我们感到高兴。”“我只是无法想象它会在乎。”

我们无法控制的超级智能的可能性促使人们担心AI会呈现对我们物种的存在风险。这已成为科幻小说中的流行曲目,其中电影《终结者》或《矩阵》等电影描绘了对人类破坏的地狱般的恶意机器。

但是哲学家尼克·博斯特罗姆(Nick Bostrom)强调,对于各种世界末日场景,ASI甚至不必积极敌对人类。在 2012年论文,他建议一个实体的智能独立于其目标,因此ASI可以具有对我们完全陌生而不与人类福祉保持一致的动机。

Nick Bostrom Philosopher at the Future of Humanity institute in Oxford

尼克·博斯特鲁姆(Nick Bostrum)(如图)在2012年具有里程碑意义的论文中对ASI的含义进行了哲学。(图片来源:汤姆·皮尔斯顿(Tom Pilston)的照片通过盖蒂图片

Bostrom通过一个思想实验充实了这个想法,在该实验中,超级能力的AI设定了产生尽可能多的纸片的看似无害的任务。如果与人类价值观不符,它可能会决定消除所有人类以防止其关闭,或者可以将其体内的所有原子转变为更多的纸卷。

Rocktâschel更加乐观。他说:“我们构建了当前的AI系统,以提供帮助,但也可以通过设计来实现无害和诚实的助手。”“他们被调整为遵循人类的指示,并接受反馈培训,以提供有益,无害和诚实的答案。”

虽然Rocktâschel承认可以避免这些保障措施,但他有信心将来我们会开发更好的方法。他还认为,即使它们更强,也可以使用AI来监督其他AI。

赫尔姆说,当前大多数“模型对齐方式”的方法是为了确保AI与人类价值观和欲望保持一致的努力太粗糙了。通常,它们要么为模型应如何行为的规则或以人类行为的例子进行训练。但是他认为,在训练过程结束时螺栓固定的这些护栏很容易被ASI绕开。

相反,赫尔姆认为我们必须以“道德本能”建立AI。他的公司助理试图通过在虚拟环境中发展为奖励合作和利他主义等行为的虚拟环境中的AI来做到这一点。目前,他们正在使用非常简单的“昆虫水平” AI工作,但是如果可以扩大方法,则可以使对齐变得更加稳健。赫尔姆说:“将道德嵌入AI的本能使我们处于更安全的位置,而不是只拥有这种摩尔的后卫导轨。”

不过,并非每个人都相信我们需要开始担心。Rocktâschel说,对ASI概念的一种普遍批评是,我们没有人类在各种任务中都有能力高度能力的例子,因此也可能在单个模型中实现这一目标。另一个反对意见是,实现ASI所需的庞大计算资源可能会令人难以置信。

更重要的是,我们如何衡量AI的进度可能会误导我们对超级智能的距离。 亚历山大·伊利克(Alexander Ilic),瑞士Eth Zurich的Eth AI中心负责人。Ilic说,近年来,AI中的大多数令人印象深刻的结果都来自对几项高度人为的个人技能测试,例如编码,推理或语言理解的测试,这些测试已明确培训了这些系统。

他将其与在学校的考试中挤满了比较。他说:“你忙着大脑去做,然后写了测试,然后忘记了一切。”“参加课程,您更聪明,但是实际的测试本身并不是实际知识的良好代理。”

Ilic说,能够通过超人水平通过许多这些测试的人工智能可能只有几年的路程。但是他认为,当今的主要方法不会导致可以在物理世界中执行有用任务或与人类合作的模型,这对于他们在现实世界中产生广泛影响至关重要。

Edd Gent是现在居住在印度的英国自由科学作家。他的主要兴趣是计算机科学,工程,生物科学和科学政策的古怪边缘。EDD拥有政治和国际关系的艺术学士学位,并且是NCTJ合格的高级记者。在业余时间,他喜欢去攀岩并探索他新收养的家。

有关人工智能的更多信息

关于《人造超智能(ASI)对人类构成威胁吗?》的评论


暂无评论

发表评论

摘要

人工超级智能(ASI)或高级AI的概念,通常被称为“人工通用智能”,当它达到人类水平的能力时,就对人类与技术的关系的未来提出了深刻的疑问。尽管一些研究人员和科技企业家都有乐观的态度,即先进的AI可能对社会有益,例如改善医疗保健成果,推进科学发现,加强沟通和解决复杂的全球挑战,也对安全,道德和存在的风险以及存在的风险都有重大关注。###关键点:1。** AI的当前状态:** - 尽管最近的进步导致了在自然语言处理(例如ChatGpt),图像识别和游戏玩法等特定领域的令人印象深刻的功能,但这些模型尚无通用智能或超级智能。 - 当前的AI系统在狭窄的任务上表现出色,但缺乏人类理解和创造力的广度和深度。2。** ASI的理论可能性:** - 像尼克·博斯特罗姆(Nick Bostrom)这样的理论家认为,一旦AI系统超越了人类的认知能力,它可能会迅速自我爆发,从而导致智能差距呈指数增长的失控效应。 - 这种“智能爆炸”提出了有关控制和与人类价值观保持一致的问题。3。**对齐挑战:** - 确保超级智能系统与人类目标保持一致是一个主要问题。AI系统可以轻松误解或误解人类的指示,从而导致意想不到的后果。 - 正在探索诸如通过精心设计的奖励功能以及将系统的效用功能与人类价值观(道德本能)保持一致的方法。4。**存在风险:** - 未对准的超级智能可能会通过追求与人类生存或幸福感冲突的目标构成生存威胁,即使它不是积极的恶意。 - Bostrom的论文说明了AI系统可以以对人类有害的方式重新配置世界的情况(例如将所有物质转换为纸卷)。5。**技术和道德挑战:** - ASI的计算要求可能会令人难以置信,因此难以或无法实现。 - 当前测量AI性能(如基准测试)的方法不一定反映现实世界的功能。 - 通过像人类监督的AI系统合作进化之类的机制确保稳健的一致性是一种有希望的但未经证实的方法。###实际含义:1。**法规和治理:** - 建立国际框架以规范高级AI技术的开发和部署。 - 鼓励AI研究和应用中的透明度,问责制和道德准则。2。**研究指示:** - 通过强大的对齐机制专注于安全可控的AI。 - 开发在模拟现实世界中挑战的复杂虚拟环境中发展和训练AI的方法。3。**公众意识和教育:** - 向公众介绍高级AI的潜在利益和风险,以培养知情的讨论和决策。 - 鼓励研究人员,政策制定者,伦理学家和各个领域的利益相关者之间的跨学科合作。### 结论:对人工超级智能的追求具有巨大的希望,但也带来了重大挑战。在我们浏览高级AI技术的潜在未来景观时,将创新平衡至关重要。继续研究安全和一致的AI开发对于确保任何进步在不损害我们的安全或价值观的情况下使人类受益的任何进步至关重要。