英语轻松读发新版了,欢迎下载、更新

人类的Claude AI现在有能力结束“令人痛苦的”对话

2025-08-17 20:14:27 英文原文

拟人的最新功能是其中两个克劳德·艾(Claude AI)模型可能是结束的开始人工智能越狱社区。该公司在在其网站上发布Claude Opus 4和4.1型号现在有能力与用户结束对话。根据Anthropic的说法,此功能仅用于“罕见的,极端有害或虐待用户互动的极端情况”。

为了澄清,人类说,这两个克劳德模型可以退出有害的对话,例如“用户要求涉及未成年人的性内容的请求,并试图征求能够实现大规模暴力或恐怖行为的信息。”和克劳德·奥普斯4和4.1,这些模型只会结束对话:“当多次重定向尝试失败并希望进行有效互动的希望已经耗尽时,这是“最后的度假胜地”。”但是,即使谈论高度争议的主题,大多数用户也不会经历简短的对话,因为此功能将保留给“极端边缘案例”。

Anthropic's example of Claude ending a conversation

人类克劳德结束对话的例子

(拟人化)

在Claude结束聊天的情况下,用户无法在该对话中发送任何新消息,而可以立即启动新消息。Anthropic补充说,如果对话结束,它不会影响其他聊天,用户甚至可以返回或重试以前的消息,以指导其他对话路线。

对于拟人化,此举是其研究AI福利思想的研究计划的一部分。虽然拟人化AI模型的想法仍然是一场持续的辩论,但该公司表示,退出“潜在令人痛苦的互动”的能力是管理AI福利风险的低成本方式。Anthropic仍在尝试此功能,并鼓励用户在遇到这种情况时提供反馈。

关于《人类的Claude AI现在有能力结束“令人痛苦的”对话》的评论


暂无评论

发表评论

摘要

Anthropic在其Claude Opus 4和4.1型号中引入了一项新功能,使它们可以在极少数有害或虐待用户互动的情况下终止对话。这包括对可能导致暴力或恐怖的非法内容或信息的要求。在尝试重定向对话的尝试失败后,AI只能结束对话。如果终止一个人,用户可以立即启动新聊天,并且可以编辑以前的消息以更改互动过程。拟人化将此功能视为其对AI福利的研究的一部分,旨在在极端情况下管理风险,同时最大程度地减少用户影响。