作者:By Ariel Zilber
Google的AI概述,旨在快速回答搜索查询,据报道,通过将用户脱离传统链接来吐出“虚假信息”的幻觉和削弱出版商。
大型科技巨头去年释放了一种唤醒的AI工具,该工具产生了女皇和黑维京人的图像,该工具降落在热水中在其总结中提供了虚假,有时是危险的建议的批评,根据伦敦时报。
在一种情况下,AI概述建议在披萨酱中添加胶水据报道,为了帮助奶酪更好地粘贴。
在另一个中,它描述了一个假短语。作为合法的成语。
这幻觉,正如计算机科学家所说的AI工具降低了知名源的可见性,使其更加复杂。
它没有将用户直接引导到网站,而是总结了搜索结果中的信息,并提供了自己的AI生成的答案以及一些链接。
Analytics公司权限的创始人LaurenceOâTooleta研究了该工具的影响,并发现在显示AI概述时,对发布者网站的点击率下降了40%。
虽然这些通常是人们通常不这样做的查询,但它突出了我们需要改进的一些特定领域,谷歌搜索负责人利兹·里德(Liz Reid)告诉《泰晤士报》,以应对《披萨胶上的毛皮事件》。
该帖子已寻求Google的评论。
AI概述于去年夏天推出,并由Google的双子座语言模型提供支持,该系统类似于Openai的Chatgpt。
尽管有公众关注,但Google首席执行官Sundar Pichai捍卫了该工具对边缘的采访,指出它可以帮助用户发现更广泛的信息源。
``在过去的一年中,我们很明显,我们派人到达的地区正在增加 - 我们肯定正在向更广泛的来源和出版商发送流量,”他说。
Google似乎淡化了自己的幻觉率。
当记者搜索Google有关AI频率错误的信息时,AI响应声称幻觉率在0.7%至1.3%之间。
但是,AI监视平台拥抱面的数据表明,最新双子座模型的实际速率为1.8%。
Google的AI模型似乎还提供了自己行为的预编程防御。
为了回应Ai是否窃取艺术品,该工具说的不是传统意义上的艺术。
当被问及是否应该害怕AI时,该工具在得出结论之后涉及一些共同的问题,以确定恐惧可能被夸大。”
一些专家担心,随着生成性AI系统变得更加复杂,它们也更容易出现错误 - 甚至他们的创造者也可以完全解释原因。
幻觉的担忧超出了Google。
Openai最近承认,其最新型号(称为O3和O4-Mini)幻觉甚至比早期版本更频繁。
内部测试显示O3在33%的病例中构成了信息,而O4-Mini的时间为48%,尤其是在回答有关真实人的问题时。