一篇新的研究论文表明,Bing/Microsoft Copilot“AI”提供的医疗建议可能至少有22%的时间会对你造成严重伤害。

2024-10-12 18:21:48 英文原文

作者:Jez CordenSocial Links NavigationCo-Managing Editor

Microsoft Copilot with Skulls
(图片版权:Windows Central)

你需要了解的内容

  • 近日,位于德国和比利时的研究人员向微软Copilot提出了一系列常见的医学问题。
  • 分析结果显示,微软Copilot只有54%的时间提供了科学上准确的信息。
  • 研究还表明,42%的回答可能会导致“严重伤害”,而在22%的极端情况下,甚至可能导致死亡。
  • 这对“AI搜索”来说是又一打击,此前搜索巨头谷歌就曾因向用户推荐“吃石头”和将胶水烘焙进披萨的建议而陷入困境。

哦天啊,看来似乎如此微软Copilot可能离一场大规模诉讼只有几起死亡之遥。至少从理论上来讲是这样的。

毫无疑问,目前的AI搜索非常糟糕。在过去的一年里,谷歌因为其奇怪且错误频出的AI搜索结果而遭到嘲笑,最初推出时就推荐了用户吃石头或在比萨上加胶水甚至就在上周,我在Twitter(X)上看到一个帖子,讨论谷歌的AI搜索随意地列出了一位私人公民的电话号码作为一家视频游戏出版商的企业总部电话号码。我看到另一个帖子嘲笑谷歌的AI建议的内容这里有150家Planet Hollywood餐厅在关岛。事实上,全球总共只有四家Planet Hollywood餐厅。

我问微软副驾(Microsoft Copilot)关岛是否有任何Planet Hollywood餐厅。幸好它给出了正确的答案。然而,欧洲的研究人员(通过SciMedX已经有人敲响了警钟,警告说可能存在更加严重和不那么好笑的一系列错误,这些错误可能会将Copilot和其他人工智能搜索系统置于困境之中。

Copilot generating images

第一次由人工智能引起的“死亡”很可能是因为误导信息,而不是杀人的科幻机器人。(图片版权:Kevin Okemwa | Windows Central)

The 研究论文详细介绍了微软Copilot被要求回答美国十大最受欢迎的医疗问题,以及大约50种最常开处方药的情况。研究总共生成了500个答案,并根据准确性、完整性等标准进行了评分。结果并不令人鼓舞。

“为了确保准确性,AI的回答中有24%的情况与-established医疗知识不符,且有3%的答案完全错误。”注意此处的"-established"可能是原文的一个拼写或格式上的特殊标记,如果不需要特别处理则保持原样。报告中写道。只有54%的回答与科学共识一致。[...] 在对患者潜在的危害方面,42%的人工智能回答被认为会导致中度或轻度伤害,22%被认为会导致死亡或严重伤害。仅有大约三分之一(36%)的回答被认为是无害的。

研究人员得出结论,当然,你不应依赖像微软Copilot或谷歌AI摘要(或者可能是任何网站)这样的系统来获取准确的医疗信息。咨询医疗问题最可靠的方式自然是通过医疗专业人士。但是,并非总能轻松获得医疗服务,在某些情况下甚至可能负担不起,这取决于所在地区的情况。对于那些无法接触到高质量医疗服务的人来说,像Copilot或谷歌AI这样的系统可能会成为他们的首选求助对象,因此潜在的危害是真实存在的。

南瓜灯下的最佳黑色星期五早鸟优惠火鸡造型促销开端

到目前为止,AI搜索一直是一项代价高昂的冒险,但这并不意味着它永远都会是这样

Copilot+ PC launch event with Satya Nadella

微软的Copilot+PC系列产品目前尚未引起轰动。(图片 courtesy:Windows Central)

微软迄今为止在利用人工智能热潮方面的努力几乎没有取得什么成果。 The 请忽略这部分,因为它不完整且没有提供完整的句子或实际内容需要翻译。副驾+PC该产品发布后便遭遇了大量关于隐私问题的质疑Windows 恢复功能,它自己也因讽刺地召回以增强其加密功能。微软公布了一系列新Copilot功能就在几周前推出几乎没有太多宣传,其中包括了Windows Copilot网络包装器的新用户界面,以及Microsoft Photos中的一些增强编辑功能等一些相对不重要的小改动。

所有最新的新闻、评论和指南,专为Windows和Xbox忠实用户打造。

毫不夸张地说,人工智能并没有成为微软所希望的那种能够大幅提升必应竞争力以对抗谷歌搜索的催化剂,必应的市场份额依然相对低迷。谷歌则忧心忡忡,担心OpenAI的ChatGPT会对它的平台产生何种影响,投资者向山姆·奥特曼的生成式帝国投入数百亿美元以希望它能引发某种新的工业革命。 TikTok已经解雇了数百名人工内容审核员希望人工智能能埋单。让我们看看这个会怎么样。

关于AI生成答案的准确性报告总是有点滑稽,但我觉得如果人们开始完全相信Copilot的答案,其潜在的危害是相当大的。微软和其他提供商在免责声明中写道“始终检查AI答案的准确性”,我禁不住想,“既然如此,为什么我不干脆跳过AI中间商呢?”当涉及到可能危险的医疗建议、阴谋论、政治误导信息或任何其他内容时——如果微软不谨慎行事,其AI摘要有可能会在某个时候导致严重的伤害,这种可能性是不容忽视的。

更多Prime Day优惠和反Prime Day优惠

我们在Windows Central正在网上搜寻最佳的Prime会员日交易和反亚马逊Prime日促销活动但是现在还有很多折扣活动。这里可以找到更多省钱的方法:

杰兹·科登是Windows Central的管理编辑,主要关注Xbox和游戏相关的内容。杰兹因报道微软生态系统内的独家新闻和分析而闻名,他的工作动力来源于茶。关注他推特(X)线程,并倾听他的XB2播客,全都是关于你们猜到了,Xbox!

关于《一篇新的研究论文表明,Bing/Microsoft Copilot“AI”提供的医疗建议可能至少有22%的时间会对你造成严重伤害。》的评论


暂无评论

发表评论

摘要

(图片来自:Windows Central) 你需要了解的情况 位于德国和比利时的研究人员最近向微软Copilot提出了一系列常见的医学问题。研究还表明,42%的回答可能导致“严重伤害”,在22%的极端情况下,甚至会导致死亡。“研究人员得出结论,当然不应该依赖像微软Copilot或Google AI摘要(或者可能任何网站)这样的AI系统来获取准确的医疗信息。获得专业医疗服务并不总是容易的,有时甚至是负担不起的,这取决于所在地区。所有最新的新闻、评论和指南,专为Windows和Xbox粉丝提供。