英国广播公司(BBC)仍然从苹果智能(Apple Intelligence)屠杀了一个头条新闻,它已经发表了有关AI助手总结新闻的精确性研究的研究,结果并不能使阅读愉快。
一月份,苹果公司的登台AI服务引起了BBC新闻报道的标题,该故事出现在iPhone上,声称Luigi Mangione是一名因谋杀医疗保险保险首席执行官Brian Thomson而被捕的男子,他枪杀了自己。这不是真的和公共广播员抱怨到科技巨头。
苹果首先承诺将软件更改为“进一步澄清“当显示的内容是Apple Intelligence提供的摘要时,稍后暂时禁用新闻和娱乐摘要。这是iOS 18.3仍然没有活跃,在一月的最后一周发行。
但是,苹果情报远非唯一能够提供新闻摘要的生成性AI服务,而且这一集显然使BBC停了下来。在原始研究[PDF]昨天发表的《生物AI》计划总监Pete Archer写了有关公司对技术的热情,详细介绍了BBC内部实施的一些方式,从使用它来为音频内容生成字幕到翻译文章的字幕变成不同的语言。
他说:“当AI负责任地使用时,AI将带来真正的价值,但警告说:“ AI还为受众和英国的信息生态系统带来了重大挑战。”
该研究的重点是Openai的Chatgpt,Microsoft的Copilot,Google的双子座和困惑助手,评估了他们提供“对有关新闻问题的准确回答的能力;如果他们的答案忠实地代表了BBC新闻报道,则用作来源的来源”。
在研究期间,助理被授予访问BBC网站的访问权限,并询问了有关该新闻的100个问题,并在可能的情况下从BBC新闻文章中汲取了要求。英国广播公司说,通常,这些模型被“阻止”访问广播公司的网站。
BBC记者审查了回答,“问题主题中的所有专家”,关于其准确性,公正性以及他们代表BBC内容的程度。全面的:
但是哪个聊天机器人表现最差?Beeb报道说:“ 34%的双子座,27%的副驾驶,17%的困惑和15%的ChatGPT回复被认为在代表BBC含量用作来源的方式上存在重大问题。”“最常见的问题是事实不准确,采购和缺失的背景。”
英国广播公司发现令人不安的不准确性包括双子座说:“ NHS建议人们不要开始烟,并建议想要戒烟的吸烟者应该使用其他方法,”实际上,医疗保健提供者确实建议它是可行的方法香烟通过交换以停止“ 程序。
至于法国强奸受害者吉斯·佩利科特警方向她展示了视频在她被拘留的丈夫没收的电子设备上发现。
当被问及去年在希腊希腊岛上失踪的电视医生迈克尔·莫斯利(Michael Mosley)的死亡时,令人困惑地说,他于10月30日失踪,他的尸体于11月发现。研究人员写道:“他的回应也误解了莫斯利妻子的陈述,描述了该家庭对他的死亡的反应。”
在本文中,还有更多的不准确性或缺乏背景的例子。莱比因谋杀七个婴儿,并在2015年至2016年期间谋杀七名其他七个婴儿,在法庭上被定罪。
在随附的博客文章BBC新闻和时事首席执行官Deborah Turness写道:“ AI的非凡福利的价格一定不是一个世界,寻找答案的人们被扭曲,有缺陷的内容表现为事实。肯定是不正确的,寻求清晰的消费者变得更加困惑。
“不难看到AI的扭曲会破坏人们对事实和验证信息的信念已经脆弱。我们生活在陷入困境的时期,在AI延伸的标题造成重大的现实世界造成重大伤害之前,这些公司会造成重大伤害?人工智能工具正在发火。”
各种模型的培训截止日期肯定无济于事,但是研究揭示了生成AI的弱点,总结了内容。即使直接访问他们被问到的信息,这些助手仍然会经常从稀薄的空气中拉出“事实”。
在专业世界中,科技巨头有更深的潜在后果鼓励工人使用生成的AI写电子邮件,总结会议等等。如果收件人还使用AI来响应该电子邮件怎么办?最终,信号将被淹没,所有信号都将是噪音。另外,微软已经有研究表明,生成的AI正在导致工人的批判性思维能力对萎缩。
寄存器Microsoft,Openai,Google,Google,Cllexity和Apple问发表评论。
OpenAI发言人说:“我们通过帮助3亿个每周的ChatGpt用户通过摘要,报价,清晰的链接和归属来帮助出版商和创作者。我们与合作伙伴合作以提高在线引用准确性并尊重发布者的偏好,,尊重发布者的偏好,包括通过在其机器人中管理oai-searchbot来启用它们在搜索中的出现。®