作者:Online: Joe Pierre, MD, Facebook, X
这个词人工智能(AI)幻觉是指AI算法感知模式或物体对人类观察者不存在或不可感知的现象,从而产生了荒谬或完全不准确的输出。1尽管它们可以在用相机或麦克风听到的计算机中发生声音听觉这发生在有精神病,如今,该术语最常应用于大语言模型(LLM)聊天机器人(如Chatgpt或Gemini)产生的错误答案。
LLM聊天机器人的无数例子产生了荒谬的错误和对问题的潜在有害回答,近年来成为新闻头条。早在2024年,马克·扎克伯格(Mark Zuckerberg)的元AI就简单的数学问题提供了明显错误的答案。2同时,Google AI为用户提供饮食技巧,例如吃岩石和尝试胶水作为披萨馅料,同时通过将漂白剂和醋放入其中提供了清洁洗衣机的建议,它们结合起来形成有毒和潜在的致命氯气。3今年早些时候
芝加哥太阳时光由于使用AI生成了15本书的夏季阅读清单而被淘汰,其中10本书不存在。4埃隆·马斯克(Elon Musk拒绝。5上个月,罗伯特·肯尼迪(Robert F. Kennedy Jr)的“使美国再次健康”的报告官方报告提出了未经证实的索赔,据称由已发表研究的参考提供了支持,这些研究完全归功于AI。6当chatgpt被用来撰写与医学主题有关的文章时,以前已经指出,提供错误的信息和虚假参考的同样问题。7造成伤害的潜力是显而易见的。
早在2023年,就提供了一个AI聊天机器人节食对遇到限制性挣扎的人的建议饮食失调。8其他声称提供的AI聊天机器人心理治疗导致患者自杀。9就在上周,据报道,一个正在挣扎的用户瘾AI应用程序告诉使用聊天机器人聊天机器人的支持,以占据一小撮甲基苯丙胺[苯丙胺]度过一周。10
由于有这样的报道,美国心理学协会将用于心理健康支持的AI聊天机器人标记为危险的趋势 - 用于心理健康,并敦促联邦贸易委员会规范技术并为负责任的发展和透明提供保障措施营销。9
要了解为什么发生这种幻觉的原因,必须认识到,生成的LLMS领域非常聪明,聪明或真正的创造力,就像我们通常与人类相关的方式认识或推理。11他们仅编程为基于统计概率预测下一个单词或单词顺序的算法,目标是生成合理的内容,而不是验证其真实性。12
如果这样的回应似乎它类似于人类,这仅仅是因为它们代表了基于从真实人员在某个时候撰写的Internet数据库中剔除的大量单词字符串(例如,句子)产生的输出。这与所谓的AI艺术基本上是相同的过程,该过程使用现实生活中的人类创造的现有照片和艺术生成图像,并且许多人声称窃。13
因此,AI幻觉反映了LLM聊天机器人的固有局限性,这些聊天机器人必然与准确的响应有关。由于他们搜索大量数据以预测他们的响应,因此很容易受到垃圾,垃圾的损害。在提供有关医疗和心理健康问题的答案时,这可能是危险的。
认识到它们是错误的陈述,并考虑到持续的围绕精神病的污名,有人认为我们不再称他们为幻觉,而是将它们称为捏造。14欺骗,15,16甚至废话(定义为陈述更关心真理的外观,而不是实际真理)。17就我个人而言,我认为我们应该避开所有这些拟人化,并将AI幻觉称为新形式的错误信息。
尽管LLM程序员试图减少AI幻觉,但有人认为这可能是不可能的。确实,最近的新闻表明,问题可能会变得更糟而不是更好,因为一些新的推理系统会根据任务的时间占51-79%的错误信息。18,19
在我的书中错误:不信任,虚假信息和积极的推理使我们相信事物的真实性,我认为错误的信念通常源于对错误信息的信任。在心理健康的主题中,错误信息已经很多,并且已经使社交媒体。例如,最近的调查监护人发现有关心理健康的前100个Tiktok视频中,超过一半包含错误信息。19
现在,我们进入了AI技术繁荣时期,我们可以期望它变得越来越发达,依赖和信任,作为医疗和心理健康信息的来源。我们已经处于一个策划AI的答案时,通常会出现在互联网搜索的顶部,似乎为我们节省了自己搜索信息或检查以验证其来源的麻烦。因此,尽管毫无疑问,AI将以一种新的,改进的真理途径销售,但这可能只是一种错误的信息。
当然,人工智能也确实为我们提供了可靠的信息。它可能会改善医学,甚至有一天最终可以替代人类的医疗保健工人。但是,当前的AI幻觉现象使我们有很多理由对未来的持怀疑态度和谨慎。同时,通过LLM聊天机器人不一定编程以保持准确性,人类将更聪明地得出结论,AI尚未准备好将黄金时期作为可靠的健康信息来源。