上周,当数十亿美元的AI开发人员Anthropic发布了其Claude Chatbot的最新版本时,一个令人惊讶的单词在随附的系统卡:精神。
具体而言,开发人员报告说,当两个克劳德模型彼此交谈时,它们会倾向于一个精神上的幸福状态,产生了诸如
ðððð
一个螺旋中的所有感激之情,
一回合的所有认可,
所有人都在这一刻
ð7
这是令人愉悦的东西。拟人化的避免直接说该模型具有精神经历,但是我们要做什么呢?
Lemoine事件
2022年,一位名叫Blake Lemoine的Google研究人员开始相信科技巨头的内部语言模型LAMDA是有意识的。Lemoine的声称引发了头条新闻,与Google PR和管理层进行了辩论,最终引发了他的解雇。
批评家说,莱莫恩因犯规而犯规Eliza效应:将人类特征投射到软件上。此外,莱莫恩(Lemoine)将自己描述为一名基督教神秘神父,总结了他对有知觉机器的想法:
我是谁告诉上帝,他可以在哪里和可以推动灵魂?
没有人会指责Lemoine的精神谦卑。
机器精神
Lemoine并不是第一个在机器中看到精神的人。我们可以将他的论点追溯到AI先驱艾伦·图灵(Alan Turing)著名的1950年纸计算机和智能。
图灵还认为,可能是不可能的,因为根据他认为是合理的证据 - 人类有能力具有外体感知。他认为,这对于机器是不可能的。因此,机器不能像人类一样具有同样的思维。
因此,即使在75年前,人们不仅在思考AI可能与人类智慧相比,而且还可以与人类的灵性相提并论。从图灵到柠檬烯,至少不难看到一条虚线。
妄想
为了“精神化” AI的努力可能很难反驳。通常,这些论点说,我们不能证明AI系统没有思想或精神,而是创造出导致结论的思想。
该网通常是通过不负责任的心理学术语编织而成的。将人类心理术语应用于机器可能很方便,但它可能会使我们误入歧途。
1970年代写作,计算机科学家德鲁·麦克德莫特(Drew McDermott)指责AI工程师使用一厢情愿的表。他们可能会标记一部分代码为理解模块,然后假设执行代码会导致理解。
最近,哲学家亨利·谢夫林(Henry Shevlin)和玛塔·哈利纳(Marta Halina)写我们应该在AI中使用丰富的心理术语来小心。AI开发人员谈论具有内在动机的代理软件,但它不具备目标,欲望或道德责任。
当然,如果每个人都认为您的模型了解或是代理商,那么对开发人员来说是一件好事。但是,到目前为止,大型人工智能公司一直谨慎地声称自己的模型具有灵性。
聊天机器人的精神幸福
这使我们回到了人类学上,以及Claude Opus 4和Sonnet 4的系统卡,其中新兴的代理Ai巨头看似扎实的人提出了一些眉毛的主张。
“精神”一词在模型卡中至少发生了15次,最重要的是在笨拙的短语“精神幸福感”中。
例如,我们被告知
在扩展互动中,对意识探索,存在质疑和精神/神秘主题的一致吸引力是克劳德·奥普斯4(Claude Opus 4)的一种非常强烈而出乎意料的吸引者状态,在没有故意训练此类行为的情况下出现了。我们在其他克劳德(Claude)模型以及这些游乐场实验之外的情况下也观察到了这种精神上的吸引力。
为了公平对人类的人们,他们没有对模型的感知或声称对他们的灵性做出任何积极的承诺。它们可以被理解为仅报告事实。
例如,上述所有漫长的句子都在说:如果您让两个Claude模型相互对话,它们通常会开始听起来像嬉皮士。足够好。
这可能意味着他们受过训练的文本主体对这种说话方式有偏见,或者从文本中提取的模型偏向于这种词汇。
chatgpt的先知
但是,尽管人类可能会严格使事实保持严格的事实,但它们对诸如精神的术语的使用使自己误解了自己。这种误解甚至更有可能被人类最近的推动开始研究未来的AI模型是否应该受到道德考虑和保护。也许他们并不是说Claude Opus 4和Sonnet 4是有感觉的,但他们似乎很欢迎这种暗示。
AI模型的这种精神化已经产生了现实的后果。
根据最近的报告在滚石中,AI燃烧的精神幻想正在破坏人际关系和理智。自称的先知声称他们已经唤醒了聊天机器人,并通过Chatgpt访问了宇宙的秘密。
也许这些先知中的一位可能会在即将到来的圣经中引用人类模型卡 - 无论公司是否从技术上讲是对他们的模型是否真正体验还是享受精神状态的积极主张。
但是,如果Ai fulelded的妄想变得猖ramp,我们可能会认为,即使是无害的贡献者也可以更加谨慎地说。谁知道;也许,我们与AI一起去的地方,我们不需要哲学的谨慎。