作者:Kylie Robison
在一张纸ELEOS AI发表了,非营利组织主张使用计算功能主义方法评估AI意识。一个类似的想法曾经被普特南(Putnam)所拥护,尽管他批评它在他的职业生涯后期。这理论建议可以将人类思想视为特定类型的计算系统。然后,您可以弄清楚其他计算系统(例如Chabot)是否具有类似于人类的氛围的指标。
Eleos AI在本文中说:“采用这种方法的主要挑战是,它涉及大量判断,无论是在制定指标还是评估其在AI系统中的存在或不存在时。”
当然,模型福利是一个新生且仍在不断发展的领域。有很多批评家,包括Microsoft AI的首席执行官Mustafa Suleyman,最近出版了一个博客关于看似有意识的AI。
苏莱曼写道,这既是为时过早又是坦率的危险,通常是指模型福利研究领域。所有这些都将加剧妄想,造成更多与依赖相关的问题,捕食我们的心理脆弱性,引入两极分化的新维度,使现有的权利斗争复杂化,并为社会造成巨大的新类别错误。
苏莱曼写道:“如今,有意识的AI存在零。他包括一个链接纸长期以来在2023年进行的共同撰稿,提出了一个新的框架,以评估AI系统是否具有意识的指标性能。(Suleyman没有回应Wired的评论请求。)
苏莱曼(Suleyman)出版了他的博客后不久,我与Long和Campbell聊天。他们告诉我,尽管他们同意了他所说的大部分话,但他们认为模型福利研究不再存在。相反,他们认为苏莱曼引用的危害是确切的原因为什么他们想首先研究这个话题。
``当您有一个很大的,令人困惑的问题或问题时,保证您不会解决的一种方法是伸出双手,就像哦,哇,这太复杂了。”坎贝尔说。我认为我们至少应该尝试。
模型福利研究人员主要关注意识问题。他们认为,如果我们能证明您和我有意识,那么同样的逻辑可以应用于大型语言模型。需要明确的是,长期和坎贝尔都不认为AI是有意识的,他们也可以肯定会这样。但是他们想开发可以使我们证明这一点的测试。
妄想来自关心实际问题的人,这是AI,有意识的吗?
但是,在一个可以将AI研究包装到轰动的头条和社交媒体视频中的世界中,令人震惊的哲学问题和令人难以置信的实验很容易被误解。采取人类出版时发生的事情安全报告这表明Claude Opus 4在极端情况下可能会采取“有害行为”,例如勒索虚构的工程师以防止其被关闭。