作者:Natasha Lomas
随着像OpenAI的GPT这样的大型语言模型(LLM)的兴起,由于AI生成的低质量内容越来越多地占据了用户生成的互联网空间,想想维基百科编辑们吧。除了他们通常的工作,即剔除不良的人类编辑之外,他们还不得不花费越来越多的时间来过滤掉AI填充的内容。
404 媒体与维基百科编辑伊利亚斯·勒布朗交谈,他是“创立者之一。维基项目AI清理该项目组正在努力提出最佳实践以检测机器生成的贡献。(而且答案是否定的,在你询问之前,AI对此毫无用处。)
在这种情况下,AI生成的内容的一个特定问题是几乎总是来源不当。大型语言模型能够瞬间生成大量听起来可信的文本,这甚至导致了整个虚假条目被上传,企图将骗局蒙混过维基百科的人类专家。