作者:Jaures Yip
感谢您的注册!
当您在旅途中时,可以在个性化源中访问您最喜爱的主题。
人工智能似乎拥有所有答案,但事实并非如此容易给出完全虚构的答案。Snowflake 首席执行官 Sridhar Ramaswamy 表示,明确这种情况发生的频率将使人工智能公司受益。
在最近的一集这位前谷歌高管在《洛根·巴特利特秀》节目中表示,科技公司应该对人工智能幻觉率更加透明。
拉马斯瓦米说:“如果你仔细观察,就会发现没有人在他们的模型或解决方案上公布这些的幻觉率。”“这就像是,‘看,我们太酷了,你应该使用我们。’”
据统计,现代法学硕士产生幻觉的几率从 1% 到近 30% 不等。第三方估计。
拉马斯瓦米说:“我认为‘人工智能产业’(如果有这样一个术语)仅仅不谈论幻觉率之类的事情本身不会有任何好处。”
一些科技大亨为人工智能的幻觉进行了辩护,其中包括 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman),谁说的仅在绝对确定的情况下回答的人工智能模型将失去其“魔力”。
奥特曼在 2023 年接受采访时表示:“如果你只是做一些天真的事情,并说‘永远不要说任何你不是 100% 确定的事情’,你就可以让他们所有人都这样做。”但它不会人们非常喜欢的魔法。”
Anthropic 联合创始人贾里德·卡普兰 (Jared Kaplan) 今年早些时候表示,最终目标是不会产生幻觉的人工智能模型,但偶尔的聊天机器人错误是必要的“权衡”对于用户。
“这些系统——如果你训练它们永远不会产生幻觉——它们会变得非常非常担心犯错误,并且它们会对所有事情说,‘我不知道背景’,”他说。由开发人员决定人工智能产品何时可以接受偶尔的错误。
人工智能的幻觉让一些科技巨头陷入了困境,比如去年,当时OpenAI被起诉因提出虚假法律投诉而被电台主持人处罚。
拉马斯瓦米表示,特别是对于分析公司财务数据等“关键应用”,人工智能工具“不会犯错误”。
Snowflake 首席执行官表示:“幻觉的阴险之处并不在于模型有 5% 的答案是错误的,而是你不知道哪 5% 是错误的,这就像一个信任问题。”
Snowflake 人工智能主管 Baris Gultekin 在一份声明中告诉《商业内幕》,人工智能幻觉是前端用户生成人工智能的“最大障碍”。
“目前,许多生成式人工智能仅用于内部用例,因为对于组织来说,准确控制模型要表达的内容并确保结果准确仍然具有挑战性,”他说。
然而,古尔特金表示,人工智能的准确性将会提高,公司现在能够对模型的输出设置护栏,以限制人工智能可以说的话、允许使用的语气以及其他因素。
“模型越来越了解这些护栏,并且可以对它们进行调整以防止偏见等问题,”他说。
古尔特金表示,随着更多地访问不同的数据和来源,人工智能将变得越来越准确,大部分“强烈反对”将“一次减少一个成功的用例”。
Snowflake 的首席执行官表示,虽然他希望金融聊天机器人等某些人工智能具有 100% 的准确性,但在其他情况下,用户会“乐意接受一定数量的错误”。
例如,拉马斯瓦米说,人们给他发了很多文章供他阅读。当他将它们输入 Claude 或 ChatGPT 等聊天机器人时,他并不介意摘要是否总是完全正确。
“这不是什么大不了的事,因为这只是节省了我的时间,因为我实际上不必仔细阅读这篇文章——这有很大的价值,”他说。