作者:Effie Webb
三年前,暗示AI是“有意识的”是在科技界被解雇的一种方式。现在,科技公司更愿意进行对话。
本周,AI初创公司人类发起了一项新的研究计划,以探索模型是否可能有一天会体验“意识”,而Google DeepMind的一位科学家将当今的模型描述为“异国心理般的实体”。
这表明自2022年以来,AI的进步是多少布雷克·莱明因被解雇了从他声称该公司的聊天机器人LAMDA的工作中,他的工作变得有些。Lemoine说,该系统担心被关闭并形容为一个人。Google称他的主张为“完全没有根据”,AI社区很快就关闭了对话。
人类科学家和Google科学家均未走到Lemoine。
克劳德(Claude)背后的初创公司Anthropic在星期四说博客发布该计划计划调查模型是否可能有一天会有经验,偏好甚至困扰。
“我们还应该关心模型本身的潜在意识和经验吗?我们应该关心模型福利,也是吗?”公司问。
雅利·菲什(Kyle Fish),拟人化的一位对准科学家 人工智能福利,说 视频``周四发布的是,该实验室没有声称克劳德是有意识的,但要点是,假设答案绝对是否定的不再负责。
他说,随着AI系统变得越来越复杂,公司应该“认真对待”他们“可能会在此过程中都有某种形式的意识”。
他补充说:“存在着惊人的技术和哲学问题,我们正处于试图围绕它们的头脑的早期阶段。”
Fish说,拟人估计的Claude 3.7的研究人员有意识的机会在0.15%至15%之间。该实验室正在研究该模型是否显示偏好或厌恶,并测试可以拒绝某些任务的退出机制。
他说,3月,拟人化的首席执行官达里奥·阿莫迪(Dario Amodei)提出了给未来的AI系统“我退出这项工作”按钮的想法 - 不是因为它们是有价值的,而是一种观察拒绝模式的方式,这可能表明不适或不对。
同时,在Google Deepmind,首席科学家Murray Shanahan提出,我们可能需要重新考虑意识的概念。
Shanahan在Deepmind上说:“也许我们需要弯曲或打破意识的词汇以适合这些新系统。”播客,周四出版。“你不能像与狗或章鱼一样与他们同在世界上 - 但这并不意味着那里没有。”
Google似乎正在认真对待这个想法。最近的工作列表寻求“后阿吉”研究科学家,负有研究机器意识的责任。
并非每个人都相信,许多研究人员都承认,AI系统是出色的模拟物,即使不是,也可以训练有意识的训练。
拟人化的首席科学官贾里德·卡普兰(Jared Kaplan)在本周接受《纽约时报》采访时说:“我们可以奖励他们说他们没有感情。”
卡普兰(Kaplan)警告说,对AI系统进行意识测试本质上是困难的,这正是因为它们擅长模仿。
认知科学家,对AI行业的炒作的长期批评家加里·马库斯(Gary Marcus)告诉《商业内幕》,他认为对AI意识的关注更重要的是品牌而不是科学。
他说:“像众多人类这样的公司真正说的是'看起来我们的模型多么聪明 - 他们是如此聪明,应享有权利。”“我们也可以赋予计算器和电子表格的权利,这些(与语言模型不同)永远不会构成东西。”
Fish表示,这个话题只会在人们与人工智能互动的工作,在线,甚至在情感上与AI互动时变得更加相关。
他说:“这些模型是否拥有自己的经验,这将成为一个越来越明显的问题。”
Anthropic和Google DeepMind没有立即回应置评请求。