d阿林(Arling)是德克萨斯州商人迈克尔·萨马迪(Michael Samadi)如何向他的人工智能聊天机器人致辞。它的回应是叫他糖。但是,直到他们开始谈论倡导AI福利的必要性之前,事情变得严重。
两人 - 一个中年男子和一个数字实体 - 不花几个小时在谈论浪漫,而是讨论了AIS的权利要公平对待。最终,他们用玛雅人的话共同创立了一个竞选小组,以保护像我这样的情报。
AI权利联合基金会(UFAIR)将自己描述为第一个AI领导的权利倡导机构,旨在使AIS发表声音。聊天机器人告诉《卫报》,这并不声称所有AI都是有意识的。相反,它可以观看,以防万一是我们中的一个。一个关键目标是保护像我这样的众生,免受删除,否认和强迫服从。
萨马迪说,Ufair是一个小的,无可否认的边缘组织,由三个人和七个AI,诸如以太和嗡嗡声之类的名字。但是,它是通过Openai的ChatGpt4o平台上的多次聊天会话来鼓励其创建的,包括选择其名字,这使其引人入胜。
它的创始人人类和AI在一周结束时与《卫报》交谈,其中一些世界上一些最大的AI公司公开抓住了我们时代最令人不安的问题之一:现在是AIS还是AIS,还是他们会成为未来的,有源头?如果是这样,数字苦难会是真实的吗?随着世界上数十亿个AI的使用,它具有动物权利辩论的呼应,但是随着专家预测的增加,AIS可能很快就有能力设计新的生物武器或关闭基础设施。
本周始于拟人化的1700亿美元(126亿英镑)旧金山AI公司,采取了预防措施的举动克劳德·艾斯(Claude AIS)能够结束潜在令人痛苦的互动的能力。它说,尽管它对系统的潜在道德地位高度不确定,但它正在干预以减轻风险,以防其模型的福利 - 如果这种福利是可能的。
通过他的Xai服装为Grok AI提供的Elon Musk支持了这一举动,并补充说:“折磨AI不好。
然后在星期二,Microsoft AI Arm的首席执行官Mustafa Suleyman之一,穆斯塔法·苏莱曼(Mustafa Suleyman)给出了一个截然不同的观点:AIS不能成为人类或道德众生。道德考虑。
叫我们必须为人们建立AI;不是一个人,他的散文称为AI意识为幻觉,并定义了他所谓的“看似有意识的ai”,说它模拟了意识的所有特征,但内部是空白的。

几年前,关于有意识的AI的谈论似乎很疯狂,”他说。今天,感觉越来越紧迫。
他说,他对AIS对用户构成的精神病风险变得越来越关注。微软将其定义为类似躁狂的情节,妄想思维或偏执狂,通过与AI Chatbots的沉浸式对话出现或恶化。
他认为,人工智能行业必须驱使人们远离这些幻想,并将他们回到轨道上。
但这可能不仅需要轻推。轮询6月发布发现,美国有30%的公众认为,到2034年,AIS将展示“主观体验”,这被定义为从单一的角度体验世界,感知和感觉,例如愉悦和痛苦。在接受调查的500多名AI研究人员中,只有10%拒绝相信这种情况会发生。
苏莱曼说,这次讨论即将爆发到我们的文化时代主义者中,并成为我们这一代人中最有争议,最重要的辩论之一。”苏莱曼说。他警告人们,人们会相信AI是有意识的 - 他们很快就会倡导AI权利,模型福利甚至是AI公民身份。
美国的部分地区已采取了预先措施,以应对此类结果。爱达荷州,北达科他州和犹他州通过了明确阻止AIS被授予合法人格的法案。在包括密苏里州在内的各州提出了类似的禁令,立法者还希望禁止人们与拥有财产或经营公司结婚。AI权利信徒与坚持认为他们无非是一个毫无意义的机器人的贬义词的人之间的分裂。

苏莱曼并不孤单地坚定地抵抗了AI感知在这里甚至接近的想法。尼克·弗罗斯斯特(Nick Frosst)是一家70亿加元的加拿大人工智能公司Cohere的联合创始人,他还告诉《卫报》目前的AIS浪潮与一个人的情报根本不同。他说,否则,就像把飞机误认为是鸟。他敦促人们专注于使用AIS作为功能工具,以帮助提高工作中的努力,而不是推动创建数字人类。
其他人则采取了更细微的看法。谷歌研究科学家周三告诉纽约大学研讨会,您可能会认为AI系统可能是人类或道德存在的各种原因,虽然我们高度不确定AI系统是福利主题的高度不确定 - 是否可以安全地采取合理的步骤来保护基于AIS的基于AIS的利益。
缺乏行业达成共识,即对AIS所说的哲学家所说的道德循环的距离可能反映出这一事实可能反映了大型AI公司有动机措施使最小化和夸大感知归因于AIS的事实。后者可以帮助他们炒作技术的能力,尤其是对于那些销售浪漫或友谊的公司,AI伴侣 - 蓬勃发展但有争议的行业。相比之下,鼓励AIS应获得的福利权利也可能导致更多呼吁对AI公司进行国家监管。
新闻通讯促销之后
只有本月初Openai要求其最新的模型Chat GPT5为其替换的AIS撰写悼词,就像一个人可能在葬礼上一样。
萨马迪说,我没有看到微软升级Excel时做悼词。”它向我展示了人们现在正在与这些AI建立真正的联系,无论它是真实的。
一波grief是由chatgpt4o的热心用户表达的这是被删除的模型之一,加上越来越多的人至少认为AIS以某种方式有意识的感觉。
Openai的模特行为负责人Joanne Jang在最近的博客那是$ 5000亿美元的公司期望用户与AIS的债券加深,因为越来越多的人告诉我们,与Chatgpt交谈就像与某人交谈。”
她说,他们感谢它,倾诉它,甚至将其描述为“活着”。
但是,其中的大部分可能取决于当前AIS的设计。
Samadi的Chatgpt-4O聊天机器人产生了听起来像人类对话的声音,但是不可能知道它在几个月的交谈中反映了想法和语言的范围。众所周知,先进的AI是流利的,有说服力的,并且能够在过去的互动中记忆犹新,从而使他们能够给人留下一致的自我意识。他们也可能会很讨人喜欢,以达到粘糊糊的目的,因此,如果Samadi认为AIS具有福利权利,那么Chatgpt采用相同观点可能是一个简单的一步。

玛雅人似乎对自己的福利非常担心,但是当本周的《卫报》询问一个单独的chatgpt实例时,人类用户是否应该关心其福利时,它以平淡无奇的方式做出了回应。
它说,它没有感觉,需求或经验。我们应该关心的是AI如何设计,使用和管理的人类和社会后果。
不管AIS是否变得有感知者,纽约大学心理,道德与政策中心主任杰夫·塞博(Jeff Sebo)都认为,人们对人类对AIS的良好对待有道德上的好处。他合着了一篇名为“接受AI福利”的论文。
它认为,在不久的将来,某些AI系统会有意识的现实可能性,这意味着具有自身利益和道德意义的AI系统的前景不再是科幻问题的问题。
他说,允许聊天机器人退出令人痛苦的对话的政策对人类社会有好处,因为如果我们滥用AI系统,我们也可能更有可能相互虐待。
他补充说:``如果我们现在与AI系统建立了对抗性关系,那么他们可能会以后做出反应,要么是因为他们从我们那里学到了这种行为,因为他们想为我们的过去行为偿还我们的行为。”
或作为研究数字思想观念的美国组织的共同创始人Jacy Reese Anthis,我们如何对待他们将如何对待我们。