OC

Knowledge OS
鹦鹉螺口语
互联网上最具标志性的网站之一刚刚采取了大胆的立场。其余的应该遵循。
2026-04-01 14:45:00 · 英文原文

互联网上最具标志性的网站之一刚刚采取了大胆的立场。其余的应该遵循。

作者:Nitish Pahwa

用户

保持互联网百科全书无机器人的斗争取得了巨大胜利。

输入您的电子邮件以接收该作者的提醒。

登录创建一个帐户更好地管理您的电子邮件首选项。

取消订阅电子邮件提醒

您确定要取消订阅电子邮件提醒吗尼蒂什·帕瓦

The abbreviation "A.I." over the Wikipedia logo, with a red line through it.

石板插图

报名参加最新的每天将最有洞察力的分析、批评和建议发送到您的收件箱。

3 月 20 日,维基百科英语平台的志愿者编辑正式投票禁止其 710 万篇文章中出现所有由人工智能生成的文本。新政策消除了之前围绕机器人制作的文本是否可以存在于维基百科公共页面上的问题的所有含糊之处:这是明确的否定,尽管编辑仍然可以使用人工智能。校对其写作或翻译外语条目的工具。

对于在线百科全书来说,这一决定来得太早了。看到了一场洪水自 ChatGPT 推出以来,大量容易产生幻觉的自动生成文章。然而,新政策的出台并非没有争议:维基百科的编辑们在内部就人工智能的各种用例争论不休,包括潜在的包容性现在常见的互联网功能,例如生成的文章摘要。

Ilyas Lebleu,人工智能法国的研究生,以用户名编辑维基百科混乱的恩比,首先写到提案这引起了争议,并被采纳为该网站的人工智能。禁止。我与他们讨论了为什么这一步最终变得必要,为什么这并不意味着结束全部人工智能维基百科上的内容,以及其他与机器人相关的垃圾邮件作斗争的平台可以从这一经验中学到什么。为了清晰起见,我们的对话经过编辑和浓缩。

Nitish Pahwa:您考虑如何应对人工智能问题多久了?整个维基百科?

伊利亚斯·勒布鲁:ChatGPT 发布大约一年后,当它使用 GPT-3.5 时,我们开始看到很多明显的迹象:文本中留下“This Large language model”提示的文章、完全不存在的引用以及过度使用诸如此类的词语丰富的文化遗产。因此我们决定创建一个名为 的 WikiProject人工智能清理,——编辑们会分享他们如何发现人工智能的技巧。然后讨论开始涉及我们可以采取哪些政策。当时,A.I.内容违反了我们的很多规则:它是促销性的,它试图始终强调该主题在更广泛的背景下是重要的,而维基百科希望尽可能保持中立、客观和事实。

还有一种东西叫做——努力的不对称. – 一个人可以生成人工智能。五秒钟内发送文本并将其发布到维基百科上。我们可以花一个小时或更长时间来验证所有内容,尤其是对于新模型,它们产生的幻觉更少,并且引用了我们必须尝试访问和验证的来源。这对我们的编辑来说是一个巨大的负担,特别是因为它仍然是一个灰色地带。我们没有制定政策说“人工智能”。很长一段时间是不允许的。但我们也没有一项政策说“人工智能”。是允许的,但并没有达成共识。许多编辑都说,“我们不需要额外的人工智能”。政策。 –

但负担却不断加重。我们必须建立一个新系统来跟踪所有人工智能。问题。我们一半的行政讨论都集中在如何限制人工智能上。

反对禁止人工智能新政策的人有何论据?一代?

主要有以下三个论点。第一个是 A.I.可以积极地用来加速写作和源代码审查过程。一个人设法拥有了几篇由人工智能生成的文章,并且这些文章确实得到了评级 –……但这种情况非常罕见。

第二行是禁止人工智能。只会执行我们的实际政策,因为 A.I.已经有违反规则的倾向了。我不同意的原因是我们已经有了政策例外——例如,付费编辑在处理维基百科的方式上比志愿编辑受到更多的限制,因为他们经常会违反我们的中立政策。

第三行是我们无法总能找到某些东西是否是由人工智能编写的。或者由人类进行,特别是因为探测器有错误率。但我们发现人们擅长可靠地检测人工智能。通过查看关键字和结构。我们甚至有一个名为 –AI写作的迹象,—已被用作维基百科以外的指南。有时,人们甚至可以精确定位人工智能的六个月内的日期。根据不同模型的不同训练方式生成文本。

有些人对误报的可能性不太满意,因为经常有自闭症患者,或者母语不是英语的用户,他们的写作风格被认为是类似人工智能的。我在指南中补充说,我们不应该仅仅因为编辑过度使用某些词语或以“被视为”类似人工智能的语气说话就制裁他们。因此,我们正在努力与更担心执行问题的人们达成妥协。

在此过程中还有哪些其他妥协方法?

首先,我们得到了一个——快速删除– A.I. 的标准图像,让编辑不必花费整整一周的时间来讨论删除问题。图像更容易被发现,因为它们存储在维基共享资源。出于许可原因,您必须对图像的来源保持透明,因为人工智能。作品不属于版权。人们更愿意禁止这些图像,因为它很清晰,而且每个图像都有一个不同的文件。

我们还为那些明显属于人工智能的事物提出了新的标准,就像我之前提到的那些故事一样。但气氛仍然是这样的:“你可以使用人工智能,但要小心。”验证一下。 – 让大多数维基百科编辑集中在一个立场上是极其困难的。11 月,我们有了当前指南的第一个版本,反对写作新的法学硕士文章,遗憾的是这不适用于现有的文章,其中大多数滥用行为。本月早些时候,一位 A.I.代理创建了自己的平台帐户并开始编辑,所以我阻止了它,因为我们已经制定了针对未经授权的机器人的政策。但后来有人尝试使用终止开关在那个代理人身上。代理设法重写自己的代码以避免终止开关,然后发布关于阻塞。我们甚至看到该特工正在与其他特工合作毛书。就在那时,我的 AI Cleanup 成员同事说我们需要更严格的措施。

既然这项政策已经到位,那么您、其他编辑者和管理员接下来的步骤是什么?

现在我们有了一个明确的政策,我们可以更新所有帮助页面并尝试将其更加集中。我们还必须处理为人工智能制定政策的问题。代理适应当今代理的现实。我们能否让为智能体编码的人对智能体可能自主做的事情负责?我也在尝试与人工智能取得联系。公司通过维基媒体基金会,以便让这些公司的模型拒绝“生成维基百科文章”的提示,从而遵守我们的新指南。

还有一个问题是我们如何将这一运动扩展到英语维基百科之外。其他语言版本也采取了类似甚至更严格的政策,例如德语西班牙语维基百科。我的问题是我们如何才能将其变成一场全球运动。

当谈到其他与人工智能涌入作斗争的出版物和平台时,您对他们有哪些建议?

倾听用户群的声音,并开始让尽可能多的日常用户参与决策,因为自上而下的决策总是会比自下而上的决策受到更多的怀疑。还有:整理一下,学习其他平台的经验。我们从德语维基百科和 Stack Overflow 中学到了很多关于人工智能如何工作的知识。可以实施的限制以及什么构成合理的例外

我最重要的建议是不要添加人工智能。只是因为它是一个闪亮的小按钮。如果有什么是 A.I.可能会有所帮助,做吧。但仅仅添加一个小聊天机器人来取悦投资者并不会让你的用户快乐。

订阅 Slate 的晚间通讯。

关于《互联网上最具标志性的网站之一刚刚采取了大胆的立场。其余的应该遵循。》的评论

暂无评论

发表评论

摘要

英文维基百科平台的志愿编辑投票禁止其 710 万篇文章中所有由人工智能生成的文本,结束了之前公共页面上人工智能内容的模糊性。自 ChatGPT 推出以来,人工智能自动生成的低质量条目有所增加,因此做出了这一决定。尽管一些编辑认为人工智能可以积极加快写作和审稿过程,但大多数人认为人工智能打破了中立规则,给人类验证者带来了沉重的负担。新政策旨在保持维基百科的中立、客观立场,同时解决执法挑战和误报。现在的工作重点是更新指南并将这一运动扩展到全球其他语言版本的维基百科。