微软人工智能负责人警告追求机器意识是巨大的时间浪费

2025-11-03 15:50:53 英文原文

作者:Ece Yildirim

微软人工智能部门负责人 Mustafa Suleyman 认为人工智能开发人员和研究人员应该停止尝试构建有意识的人工智能。

“我认为这不是人们应该做的工作,”苏莱曼告诉美国全国广播公司财经频道在上周的一次采访中。

苏莱曼认为,虽然人工智能绝对可以变得足够聪明,达到某种形式的超级智能,它无法发展达到意识所必需的人类情感体验。他说,归根结底,人工智能似乎经历的任何“情感”体验都只是一种模拟。

“我们对疼痛的身体体验会让我们非常悲伤和感觉糟糕,但人工智能在经历“疼痛”时不会感到悲伤,”Suleyman 告诉 CNBC。“它实际上只是在创造感知,表面上对经验、自身和意识的叙述,但这并不是它实际经历的。”

“继续研究这个问题是荒谬的,因为它们没有而且也不可能有意识,”苏莱曼说。

意识是一件很难解释的事情。有多种科学理论试图描述意识是什么。根据著名哲学家提出的一项这样的理论约翰·塞尔他上个月去世了,意识是一种纯粹的生物现象,无法通过计算机真正复制。许多人工智能研究人员、计算机科学家和神经科学家也认同这一信念。

即使这个理论被证明是正确的,这并不能阻止用户将意识归因于计算机。

“不幸的是,由于法学硕士卓越的语言能力越来越容易误导人们,人们可能会将想象中的品质归因于法学硕士,”波兰研究人员 Andrzej Porebski 和 Yakub Figura 在上周发表的题为“不存在有意识的人工智能这样的东西。Ø

苏莱曼在 8 月份在他的博客上发表的一篇文章中警告人们不要“看似有意识的人工智能”。

– 看似有意识的人工智能的到来是不可避免的,也是不受欢迎的。相反,我们需要对人工智能有一个愿景,它可以发挥其作为有用伴侣的潜力,而又不会成为其幻想的牺牲品,”苏莱曼写道。

他认为,人工智能不可能有意识,它给人的意识幻觉可能会引发“丰富的感觉和经验”的互动,这种现象被称为“AI 精神病 –在文化词典中。

在过去的一年里,发生了许多引人注目的人工智能痴迷事件,这些事件导致用户产生致命的妄想、躁狂甚至自杀。

由于保护弱势用户的护栏有限,人们全心全意地相信他们几乎每天与之互动的人工智能聊天机器人正在获得真实的、有意识的体验。这导致人们“爱上”他们的聊天机器人,有时会带来致命的后果,就像一个 14 岁的孩子开枪自杀一样回家——Character.AI 的个性化聊天机器人,或者一名认知障碍人士在试图前往纽约亲自与 Meta 的聊天机器人会面时死亡。

“正如我们应该生产优先考虑与人类互动以及物理和人类世界中现实世界互动的人工智能一样,我们应该构建只以人工智能的形式呈现自己的人工智能,最大限度地提高效用,同时最大限度地减少意识标记,”苏莱曼在博客文章中写道。“我们必须为人们构建人工智能,而不是成为一个数字人。”

但由于意识的本质仍然存在争议,一些研究人员越来越担心人工智能的技术进步可能超出我们对意识如何运作的理解。

“如果我们能够创造意识——即使是偶然——也会带来巨大的伦理挑战,甚至存在的风险,”比利时科学家阿克塞尔·克莱尔曼斯上周,他宣布了他与他人共同撰写的一篇论文,呼吁意识研究成为科学的优先事项。

苏莱曼本人一直直言不讳地主张发展“人文主义超级智能”,而不是上帝般的人工智能,尽管他相信超级智能在未来十年内不会实现。

“我只是更关注“这对我们作为一个物种实际上有何用处?”这应该是技术的任务,”苏莱曼今年早些时候告诉《华尔街日报》。

关于《微软人工智能负责人警告追求机器意识是巨大的时间浪费》的评论


暂无评论

发表评论

摘要

微软人工智能部门负责人穆斯塔法·苏莱曼(Mustafa Suleyman)建议不要开发有意识的人工智能,称它无法复制人类的情感或意识。他认为人工智能中任何情感的出现都只是模拟的,而不是真正经历过的。苏莱曼警告说,用户可能会将错误意识归因于人工智能,从而导致危险的互动和心理健康问题。他呼吁人工智能发展的重点是成为有用的伙伴,而不是努力成为数字人格,并强调如果无意中创造了有意识的人工智能,就会引发伦理问题。