AI生成的内容如何增加了维基百科编辑的工作量 | TechCrunch

2024-10-11 11:26:34 英文原文

作者:Natasha Lomas

随着像OpenAI的GPT这样的大型语言模型(LLM)的兴起,由于AI生成的低质量内容越来越多地占据了用户生成的互联网空间,想想维基百科编辑们吧。除了他们通常的工作,即剔除不良的人类编辑之外,他们还不得不花费越来越多的时间来过滤掉AI填充的内容。

404 媒体与维基百科编辑伊利亚斯·勒布朗交谈,他是“创立者之一。维基项目AI清理该项目组正在努力提出最佳实践以检测机器生成的贡献。(而且答案是否定的,在你询问之前,AI对此毫无用处。)

在这种情况下,AI生成的内容的一个特定问题是几乎总是来源不当。大型语言模型能够瞬间生成大量听起来可信的文本,这甚至导致了整个虚假条目被上传,企图将骗局蒙混过维基百科的人类专家。

关于《AI生成的内容如何增加了维基百科编辑的工作量 | TechCrunch》
暂无评论

摘要

随着大型语言模型(如OpenAI的GPT)的崛起,越来越多的用户生成互联网被AI生成的内容所占据,在这种情况下,请为维基百科编辑们想想。404 Media 曾采访过维基百科的编辑伊利亚斯·勒布尔,他是“WikiProject AI Cleanup”项目的创始人之一。而且是的,在你问之前,AI对此无能为力。在这种背景下,AI生成内容的一个特别问题是它几乎总是引用不当。LLM能够瞬间生成大量听起来合理的文本,甚至导致了整个虚假条目的上传,试图让维基百科的人类专家上当受骗。