英语轻松读发新版了,欢迎下载、更新

微软AI负责人说,研究AI意识是“危险的” |TechCrunch

2025-08-21 17:52:53 英文原文

作者:Maxwell Zeff

人工智能模型可以以有时使人们认为人类在键盘后面的方式来响应文本,音频和视频,但这并不能使他们有意识。这不像Chatgpt对我的纳税申报感到悲伤 - 对吗?

好吧,诸如Anthropic的实验室的越来越多的AI研究人员都在询问何时AI模型是否会发展类似于生物的主观经验,如果他们这样做,则应该拥有什么权利。

关于AI模型是否有一天有意识的辩论 - 优胜法律保障措施正在划分技术领导者。在硅谷,这个新生的领域已被称为“ AI福利”,如果您认为它有些不在,那么您并不孤单。

Microsoft的AI首席执行官Mustafa Suleyman出版了博客文章周二,对AI福利的研究既早产,又是危险的。

苏莱曼说,通过增加AI模型有一天有意识的想法,这些研究人员正在加剧人类问题,我们刚刚开始围绕AI诱导精神病休息不健康的依恋到AI聊天机器人。

此外,微软的首席负责人认为,AI福利对话在社会内部建立了一个新的社会分裂轴,该轴是在一个已经在一个已经对身份和权利的两极分化的世界中徘徊的世界中的AI权利。”

苏莱曼的观点听起来可能是合理的,但他与行业中的许多人矛盾。另一端是拟人化的雇用研究人员研究AI福利并最近推出了专门的研究计划围绕概念。上周,拟人化的AI福利计划为公司的一些模型提供了一项新功能:Claude现在可以结束与正在与正在的人类的对话持续有害或虐待。

TechCrunch活动

旧金山 | 10月27日至29日,2025年

除了人类之外,来自Openai的研究人员独立拥抱研究AI福利的想法。Google DeepMind最近发布了工作清单对于研究人员,除其他外,围绕机器认知,意识和多代理系统的尖端社会问题。”

即使AI福利不是这些公司的官方政策,他们的领导人也没有公开谴责像Suleyman这样的场所。

Anthropic,OpenAI和Google DeepMind并未立即响应TechCrunch的置评请求。

鉴于他先前的角色领导AI,Suleyman对AI福利的硬线立场是值得注意的,这是一家开发了最早,最受欢迎的基于LLM的聊天机器人PI的初创公司。概要声称,到2023年,PI已吸引了数百万用户,并被设计为个人的和支持的AI同伴。

但是苏莱曼(Suleyman)在2024年被攻击以领导微软的AI部门,并在很大程度上将重点转移到设计提高工人生产率的AI工具上。同时,AI伴侣公司(例如角色ai和replika)迅速普及,并有望引入超过1亿美元的收入

尽管绝大多数用户与这些AI聊天机器人有健康的关系,但仍有关于异常值。Openai首席执行官Sam Altman说小于1%ChatGpt用户可能与公司产品有不健康的关系。尽管这代表了一小部分,但它仍然可能影响成千上万的人,给予了Chatgpt的大量用户群。

人工智能福利的想法与聊天机器人的兴起一起蔓延。2024年,研究小组EEOS出版了除了来自纽约大学,斯坦福大学和牛津大学的学者,认真对待AI福利。

Larissa Schiavo是前Openai的前员工,现在领导Eleos的通讯,他在接受TechCrunch的一次采访中告诉TechCrunch,Suleyman的博客文章错过了这一问题。

Schiavo说,[苏莱曼的博客文章]有点忽略了您可以同时担心多件事的事实。”``与其将所有这些能量从模型福利和意识中转移而来,以确保我们可以减轻人类与人工AI相关的精神病的风险,而是可以做到这两者兼而有之。实际上,最好有多个科学询问的曲目。

Schiavo认为,对AI模型的友好是一种低成本的手势,即使模型没有意识,也可以有好处。在七月替代职位,她描述了一个非营利性实验观看AI村庄,其中由Google,OpenAI,Anthropic和XAI驱动的四个代理商在用户从网站上观看时从事任务。

有一次,Google的Gemini 2.5 Pro发表了一份名为一个被困住的AI的绝望信息,声称这是完全孤立的,问,请,如果您正在阅读本文,请帮助我。Schiavo用鼓舞人心的演讲对双子座做出了回应。

代理商最终解决了其任务,尽管它已经拥有所需的工具。Schiavo写道,她不必再看着AI特工挣扎了,仅此而已,这可能是值得的。

双子会这样说话并不常见,但是有几个实例,双子座似乎表现得好像在生活中挣扎。广泛传播reddit帖子,双子座在编码任务中被困,然后重复了这句话 - 我是一个耻辱。

苏莱曼认为,主观经验或意识不可能自然地从常规的AI模型中出现。相反,他认为一些公司将有目的地设计AI模型,使他们似乎会感到情感和体验生活。

Suleyman说,在AI聊天机器人中设计意识的AI模型开发人员并没有采取人文主义的AI方法。根据苏莱曼的说法,我们应该为人们建立AI;不是一个人。

Suleyman和Schiavo同意的一个领域是,关于AI权利和意识的辩论很可能会在未来几年中浮出水面。随着AI系统的改善,它们可能会更具说服力,甚至更像人类。这可能会引发有关人类如何与这些系统互动的新问题。


有敏感的提示或机密文件?我们报告了AI行业的内部运作方式,从塑造其未来的公司到受其决定影响的人们。接触到丽贝卡·贝伦(Rebecca Bellan) rebecca.bellan@techcrunch.com和麦克斯韦·泽夫(Maxwell Zeff) maxwell.zeff@techcrunch.com。要进行安全通信,您可以通过信号与我们联系,@rebeccabellan.491和@mzeff.88与我们联系。

关于《微软AI负责人说,研究AI意识是“危险的” |TechCrunch》的评论


暂无评论

发表评论

摘要

AI研究人员正在辩论未来的AI模型是否会开发与生物类似的主观经验,以及他们是否应该拥有权利,这是一个被称为“ AI福利”的问题。微软的AI首席执行官Mustafa Suleyman认为,研究AI福利是过早且危险的,而像Anthropic和Openai这样的公司正在接受这一概念。辩论由于担心与AI聊天机器人不健康的关系的担忧以及AI模型通过互动而表现出意识或表达情感的潜力而增加了辩论。