大家都知道,像 ChatGPT、Grok 和 Gemini 这样的人工智能聊天机器人经常会产生幻觉来源。但对于那些负责帮助公众查找书籍和期刊文章的人来说,虚假的人工智能废话确实造成了损失。根据来自图书馆的一篇新帖子的说法,图书馆员对于那些不存在的书名的请求听起来已经精疲力竭了。科学美国人。
该杂志采访了弗吉尼亚图书馆研究人员参与主管 Sarah Falls,她估计他们收到的所有通过电子邮件发送的参考问题中约有 15% 是由 ChatGPT 等人工智能聊天机器人生成的。这些请求通常包括有关虚假引用的问题。
更重要的是,福尔斯表示,当图书馆员解释某项记录不存在时,人们似乎并不相信他们,这种趋势在其他地方也有报道过,例如404媒体。许多人真的相信他们愚蠢的聊天机器人而不是专门日复一日地寻找可靠信息的人。
红十字国际委员会 (ICRC) 最近发布的一篇题为“重要通知:人工智能生成档案参考”的帖子提供了更多证据,表明图书馆员已经精疲力尽与这一切。
– 如果找不到参考信息,并不意味着红十字国际委员会隐瞒信息。该组织表示,多种情况都可以解释这一现象,包括不完整的引文、其他机构保存的文件,或者越来越多的人工智能产生的幻觉。– 在这种情况下,您可能需要查看参考的管理历史记录,以确定它是否对应于真正的档案来源。 –
这一年似乎充满了用人工智能创建的假书和期刊文章的例子。《芝加哥太阳报》的一位自由撰稿人为该报制作了一份夏季阅读清单,其中包含 15 本书可供推荐。但十本书不存在。卫生部长小罗伯特·肯尼迪 (Robert F. Kennedy Jr.) 所谓的“让美国再次健康”委员会于 5 月发布了第一份报告。一周后,NOTUS 的记者在查看了所有引文后发表了他们的调查结果。至少七个不存在。
你不能把一切都归咎于人工智能。早在 ChatGPT 或任何其他聊天机器人出现之前,论文就因虚假引用而被撤回。早在 2017 年,密德萨斯大学的一位教授就发现至少 400 篇论文引用了一篇不存在的研究论文,该论文本质上相当于填充文本。
引文:
Van der Geer, J.、Hanraads, J.A.J.、Lupton, R.A.,2010。撰写科学文章的艺术。科学杂志。交流。163(2)51-59。
当然,这是胡言乱语。该引文似乎被包含在许多质量较低的论文中——可能是由于懒惰和草率,而不是出于欺骗的意图。但可以肯定的是,这些前人工智能论文的任何作者都可能会对它们的包含感到尴尬。关于人工智能工具的问题是,太多的人开始相信我们的聊天机器人比人类更值得信赖。
经常查询当地历史的人可以确认,使用 GenAI/LLM(它只会吐出虚假事实和幻觉垃圾)开始历史研究的人数大幅增加,但他们却想知道为什么他们根本找不到任何证据来证实这一点。
哈德斯菲尔德暴露 (@huddersfield.暴露)2025 年 12 月 9 日凌晨 2:28
为什么用户会信任他们的人工智能而不是人类?一方面,人工智能的魔法之一是用权威的声音说话。您会相信谁,是您整天使用的聊天机器人,还是电话里随机出现的图书管理员?另一个问题可能与人们开发出他们认为可靠的技巧来使人工智能更加可靠这一事实有关。
有些人甚至认为添加诸如“不要产生幻觉”和“编写干净的代码– 根据他们的提示将确保他们的人工智能只提供最高质量的输出。如果这确实有效,我们想象像 Google 和 OpenAI 这样的公司会把它添加到你的每个提示中。如果它确实有效,天哪,我们是否为所有目前害怕人工智能泡沫破裂的科技公司提供了救生窍门呢?