人工智能不会产生幻觉,为什么将人类特征归因于技术是用户最大的陷阱 - TNW

2024-09-19 08:28:00 英文原文

今年,加拿大航空输掉了一场针对一名客户的诉讼,该客户被人工智能聊天机器人误导购买全价机票,并被保证稍后将根据公司的丧亲政策退款。该航空公司试图声称该机器人应对自己的行为负责。这一说法被法院驳回,该公司不仅需要支付赔偿金,还因试图回避事实而受到舆论批评。很明显,公司对人工智能模型负有责任,即使它们犯了我们无法控制的错误。

快速发展的人工智能世界,特别是生成式人工智能,企业以一种混合着敬畏和忧虑的态度看待。人工智能被视为一把双刃剑,它被视为一种催化剂,能够提高生产力,让你用更少的钱做更多的事;但可能会导致从客户不满意到诉讼等各种问题。

这就是众所周知的人工智能幻觉,或者人工智能模型提供不正确、不相关或无意义的答案。

p>

幸运的是,这不是一个非常普遍的问题。在高端,这种情况只发生 2% 到 10% 的时间。但在商业环境中这仍然是非常危险的。人工智能专家 Amr Awadallah 表示,想象一下让人工智能系统诊断病人或让飞机着陆,他准备在 VDS2024 上发表关于 Gen-AI 如何改变商业的演讲

摘要

今年,加拿大航空输掉了一场针对一名客户的诉讼,该客户被人工智能聊天机器人误导购买全价机票,并被保证稍后将根据公司的丧亲政策退款。为什么人工智能模型不会产生幻觉 使用幻觉一词意味着,当人工智能模型提供错误的信息时,它会看到或感觉到不存在的东西。“它不想告诉你,我不知道,”阿瓦达拉说。人工智能模型提供的答案的好坏取决于它能够访问的数据和提示的范围。限制他们的反应是否也会限制我们将它们用于创造性任务的能力?与 Amr Awadallah 一起参加第七届 VDS,在 10 月 23 日举行的 VDS2024 上了解企业如何利用生成式人工智能的力量,同时避免风险的更多信息-24 瓦伦西亚。