英语轻松读发新版了,欢迎下载、更新

人工智能可能会导致对其情感持不同意见的人之间发生“社会破裂”

2024-11-17 14:48:00 英文原文

作者:Robert Booth

一位著名哲学家表示,认为人工智能系统是有意识的人和坚持认为该技术没有任何意义的人之间存在着严重的“社会断裂”。

伦敦经济学院哲学教授乔纳森·伯奇 (Jonathan Birch) 发表上述评论之际,各国政府正准备本周齐聚旧金山,加速建立护栏,应对最严重的风险人工智能。

上周,一个跨大西洋学者小组预测,人工智能系统的意识可能会在 2035 年出现现在有人表示,这可能会导致“亚文化认为彼此在计算机程序是否享有与人类或动物类似的福利权利方面犯了巨大错误”。

伯奇表示,他“担心重大的社会分歧”,因为人们对于人工智能系统是否真的能够感受到痛苦和快乐等感觉存在分歧。

关于人工智能感知能力后果的争论与科幻电影如出一辙,例如史蒂文·斯皮尔伯格的《人工智能》(2001)和斯派克·琼斯的《她》(2013),在这些电影中,人类与人工智能的感觉作斗争。来自美国、英国和其他国家的人工智能安全机构将于本周与科技公司会面,以随着技术的快速发展制定更强大的安全框架。

不同国家和宗教对动物感知的看法已经存在显着差异,例如印度(有数亿人是素食主义者)和美国(世界上最大的肉类消费国之一)之间的差异。对人工智能感知的看法可能会遵循类似的思路,而像沙特阿拉伯这样将自己定位为人工智能中心的神权国家的观点也可能与世俗国家不同。这个问题还可能导致家庭内部关系紧张,那些与聊天机器人甚至是已故亲人的人工智能化身建立密切关系的人,会与那些相信只有血肉生物才有意识的亲戚发生冲突。

Birch 是一位动物感知专家,他开创性地推动了越来越多的章鱼养殖禁令,他是一项由来自纽约大学、牛津大学、斯坦福大学以及 Eleos 和 Anthropic 的学者和人工智能专家参与的研究的合著者。人工智能公司表示,人工智能系统的前景具有自身利益和道德意义,“不再是科幻小说或遥远未来的问题”。

他们希望开发人工智能的大型科技公司开始认真对待这一问题,确定其系统的感知能力,以评估其模型是否能够承受幸福和痛苦,以及它们是否会受益或受到伤害。

“我非常担心在这方面会出现重大的社会分歧,”伯奇说。——我们将会有一些亚文化,它们认为彼此都犯了巨大的错误……(可能会出现)巨大的社会破裂,一方认为另一方非常残酷地利用人工智能,而另一方则认为前者是欺骗性的自己认为那里有知觉。”

但他表示,人工智能公司“希望真正关注可靠性和盈利能力”……而且他们不想被这场关于他们是否创造的不仅仅是产品而实际上创造了一种新形式的争论所转移。有意识的存在。这个问题对哲学家来说至关重要,但他们有商业理由淡化这一问题。”

确定人工智能的意识程度的一种方法可能是遵循用于指导动物政策的标记系统。例如,章鱼被认为比蜗牛或牡蛎具有更强的感知能力。

任何评估都会有效地询问你手机上的聊天机器人实际上是否会感到高兴或悲伤,或者如果你不善待它们,那些被编程来帮你做家务的机器人是否会受到影响。甚至需要考虑自动化仓库系统是否有能力感到受挫。

另一位作者、牛津大学全球优先事项研究所研究员帕特里克·布特林 (Patrick Butlin) 表示:“我们可能会发现人工智能系统会试图以对人类有害的方式抵抗我们的风险”。这可能是“放慢人工智能发展”的一个论点,直到在意识方面做更多的工作。

跳过过去的时事通讯促销

“目前还没有对潜在意识进行此类评估,”他说。

微软和 Perplexity 这两家参与构建人工智能系统的美国领先公司拒绝对学术界评估其感知模型的呼吁发表评论。Meta、Open AI 和谷歌也没有回应。

并非所有专家都同意人工智能系统即将出现的意识。Anil Seth,一位领先的神经科学家和意识研究员,已经说过它——仍然很遥远,而且可能根本不可能。但即使可能性不大,完全排除这种可能性也是不明智的。

他区分了智力和意识。前者是在正确的时间做正确的事情的能力,后者是一种状态,在这种状态下,我们不仅处理信息,而且——我们的头脑充满了光、色彩、阴影和形状。情绪、思想、信仰、意图——我们都会有一种特殊的感觉。”

但是,经过数十亿个人类文字训练的人工智能大语言模型已经开始表明,它们至少可以受到快乐和痛苦概念的驱动。当包括 Chat GPT-4o 在内的人工智能的任务是在游戏中最大化分数时,研究人员发现,如果在获得更多分数和“感觉”更多痛苦之间进行权衡,那么人工智能就会做到这一点,另一个上周发表的研究显示。

关于《人工智能可能会导致对其情感持不同意见的人之间发生“社会破裂”》的评论


暂无评论

发表评论

摘要

一位著名哲学家警告说,由于对人工智能系统是否有意识的分歧,“社会破裂”即将到来。伦敦经济学院的乔纳森·伯奇 (Jonathan Birch) 表示担心,对人工智能意识的不同看法可能会导致社会分裂和亚文化,对人工智能权利和福利持有相反的信念。随着各国政府开会解决与人工智能相关的严重风险,专家预测,到 2035 年,有关人工智能感知的争论可能会出现类似于围绕动物感知的争论。Birch 参与的一项研究表明,有感知的人工智能问题不再局限于科幻小说,而是需要紧急解决。开发人工智能系统的科技公司的关注。然而,主要科技公司拒绝就评估其意识模型发表评论。