微软旨在通过纠正应用程序让人工智能不易产生幻觉 - ExtremeTech

2024-09-25 13:31:44 英文原文

如果您还没有听说过,可怕的人工智能幻觉是一个过程,其中人工智能或大型语言模型 (LLM) 生成虚假或误导性信息,同时将其呈现为事实以完成其任务被分配。温和地说,这已经成为一个问题。

据 TechCrunch 报道,现在,微软推出了 Correction,这是一种新工具,可以自动修改人工智能生成的实际上不正确的文本。它现在作为 Microsoft Azure AI 内容安全 API 的一部分以预览版形式提供。这项新服务有望与其他文本生成人工智能模型轻松协作,包括 Meta 的 Llama 和 OpenAI 的 GPT-4o。

校正过程分为两步。首先,分类器模型标记可能不正确或捏造的文本片段。如果检测到幻觉,语言模型会尝试使用“基础文档”或具有准确且经过验证的背景信息的来源来纠正它们。

微软发言人强调了纠正的潜在好处,指出它可以“显着增强人工智能生成内容的可靠性和可信度。”该公司表示,希望这将为生成式人工智能的开发者和用户提供支持,特别是在医学等领域,准确性相对更重要。

但是,专家们似乎并不满足,并警告说,这种方法可能不会解决人工智能幻觉的根本原因。玛丽女王大学研究员迈克·库克 (Mike Cook) 告诉 TechCrunch,纠正可能会产生一种错误的安全感,从而导致用户相信模型比实际情况更真实。

“微软正在做什么现在正在更高级别上重复错误,”库克在报告中说。“假设这使我们的安全性从 90% 提高到 99%,问题从来都不是真正存在于那 9% 中。它总是存在于我们尚未检测到的 1% 的错误中。”

关于《微软旨在通过纠正应用程序让人工智能不易产生幻觉 - ExtremeTech》
暂无评论

摘要

如果您还没有听说过,可怕的人工智能幻觉是指人工智能或大型语言模型 (LLM) 生成虚假或误导性信息,同时将其呈现为事实以完成分配给它的任务的过程。据 TechCrunch 报道,现在,微软推出了 Correction,这是一种新工具,可以自动修改人工智能生成的实际上不正确的文本。该公司表示,希望这将为生成式人工智能的开发者和用户提供支持,特别是在医学等领域,准确性相对更为重要。玛丽女王大学研究员迈克·库克 (Mike Cook) 告诉 TechCrunch,纠正可能会产生一种错误的安全感,这可能会导致用户相信模型比实际情况更真实。假设这将我们从 90% 的安全性提升到 99% 的安全性——问题从来都不是真正在那 9% 中。