维基百科志愿者花了数年时间对人工智能讲述的内容进行编目。现在有一个插件可以避免它们。
为了解决这些规则,Humanizer 技能告诉 Claude 用简单的事实替换夸大的语言,并提供了以下示例转换:
之前:– 加泰罗尼亚统计局于 1989 年正式成立,标志着西班牙区域统计发展的关键时刻。 –
之后:– 加泰罗尼亚统计局成立于 1989 年,负责收集和发布地区统计数据。 –
克劳德将阅读该内容,并尽最大努力作为模式匹配机器来创建与当前对话或任务的上下文相匹配的输出。
AI 书写检测失败的示例
即使维基百科编辑制定了如此一套自信的规则,我们仍然以前写过为什么人工智能写作检测器不能可靠地工作:人类写作没有任何本质上独特的地方可以可靠地将其与法学硕士写作区分开来。
原因之一是,尽管大多数人工智能语言模型倾向于某些类型的语言,但它们也会被提示避免使用这些语言,就像 Humanizer 技能一样。(尽管有时这非常困难,正如 OpenAI 在其研究中发现的那样多年的奋斗反对破折号。)
此外,人类可以以类似聊天机器人的方式进行写作。例如,这篇文章可能包含一些“人工智能编写的特征”,即使它是由专业作家撰写的,也会触发人工智能检测器,特别是如果我们使用一个破折号,因为大多数法学硕士都是从网络上抓取的专业写作示例中学习写作技巧的。
沿着这些思路,维基百科指南有一个值得注意的警告:虽然该列表指出了一些明显的说明,例如未改变的 ChatGPT 用法,但它仍然由观察组成,而不是铁定的规则。2025 年预印本引用该页面发现,大型语言模型的重度用户大约 90% 的时间都能正确识别人工智能生成的文章。这听起来不错,直到您意识到 10% 是误报,这足以可能会导致一些高质量的写作在检测 AI 过失时被丢弃。
退一步来说,这可能意味着人工智能检测工作可能需要比标记特定措辞和深入研究更深入(请参阅我在那里做了什么?)更多地了解作品本身的实质性事实内容。