作者:Anil Seth
注册大量思考
每周免费提供的最令人惊讶和有影响力的新故事是免费的。
几年前,2022年,Google工程师Blake Lemoine被解雇了声称他正在进行的聊天机器人是有意识的。他认为,这可能会感觉到事情,可能会遭受痛苦,并且需要认真对待大语言模型(LLM)的道德地位。事实证明,没有认真对待的是Lemoine。
但是几周前,凯尔·菲什(Kyle Fish)担任人类福利研究员告诉这纽约时报聊天机器人已经有意识的机会有15%。发生了什么变化?
一件事是,关于AI意识的讨论已经从哲学研讨会(和酒吧)转变为学术界的中心阶段,也从技术行业的阴影中脱颖而出。从某种意义上说,这种过渡在很大程度上是由LLM的惊人进步所驱动的,这是一件好事。如果我们确实有意地创造了有意识的机器,我们会释放出空前的道德危机。我们将从鼠标点击中引入世界上痛苦的新潜力,我们甚至可能都不认识。
我认为,至少在当前的AI轨迹上,实际人工意识的几率要比大多数人认为的要低得多(当然要低于15%)。在我在神经科学和AI界面的工作中,以及在我的书中成为你,,,,我提出了三个原因,为什么我们倾向于高估了有感觉机器的可能性。
第一个在于我们自己的心理构成。我们倾向于假设智力和意识融为一体,因此有足够聪明的事物也会有意识。但是,仅仅因为智力和意识在我们里面在一起并不意味着他们一般都在一起。他们所做的假设反映了我们的心理偏见,而不是对现实的见识。语言对这些偏见施加了特别强烈的吸引力,这就是为什么人们想知道拟人化的原因克劳德有意识,但没有深膜的蛋白质折叠Alphafold。
第二个原因也是一个假设:在这种情况下,生物大脑是某种计算机。如果大脑确实是一台基于肉类的计算机,那么一切都取决于其活动的所有内容 - 原则上应该在硅替代方案中进行。但是,您看着大脑的距离越近,看上去越小。在我们的硅设备中的硬件和软件之间,思维软件和湿软件之间没有干净的划分,即使是一个神经元也是一个非常复杂的生物厂。脑部计算机的隐喻只是一个隐喻,当我们将隐喻与事物本身混淆时,我们总是会陷入麻烦。如果大脑实际上不是一台计算机,那么认为意识可能以硅形式发生的理由更少。
以另一种方式说明这一点:没有人期望对飓风进行计算机模拟会产生真正的风和真雨。以同样的方式,大脑的计算机模型可能只会模拟意识,但永远不会引起意识。
第三个原因是我们低估了其他可能的解释。没有人知道意识是如何以及为什么发生的,但是除了它是一种算法外,还有许多其他可能性,另一方面是无关紧要的魔法。我探索的一种可能性我的研究意识是从我们的本质中引起的:它是生命,而不是信息处理,它会向意识方程式呼吸。
所有这些问题的伦理。即使真正的人工意识以当前形式的AI形式脱颖而出,新兴的神经形态技术正在变得越来越像脑一样,但仍可能会移动针头。即使在伦理上似乎只是有意识的AI,即使在引擎盖下,也只有主观遗忘。有意识的人AI可以利用我们的心理脆弱性,扭曲我们的道德优先事项,并且如果我们对待似乎没有感受的事物,就好像他们不一样(也许忽略了他们的恳求) - 我们冒着残酷的思想的风险。”
面对这种不确定性,我们该怎么办?第一的,我们不应该故意创造人造意识。即使我们不知道创建有意识的AI需要什么,我们也不知道如何完全排除这一可能性。其次,我们应该仔细区分AI的道德含义是从AI意识到不可抗拒的似乎是有意识的。前者的存在不确定性不应分散我们的注意力,使我们从后者的明显危险中分散我们的注意力。
最后,我们在许多其他情况下也面临类似的不确定性:严重的脑损伤,非人类动物(从细菌到蝙蝠),人类胎儿和合成生物学的奇怪新作品,例如大脑器官â(盘子中的脑细胞一起连接在一起)。在每种情况下,都有关于是否存在意识的歧义,在每种情况下,我们的决定都具有道德上的重量。随着科学,技术和医学的继续前进,更多这些情况将从边缘转变为聚光灯。我们需要的只是对意识本身的令人满意的科学理解。
免责声明:Anil Seth是Couscium Ltd和Alljoine Inc.的顾问。
注册大量思考
每周免费提供的最令人惊讶和有影响力的新故事是免费的。