作者:Written by Ed Bott, Senior Contributing Editor June 10, 2025 at 2:52 a.m. PT
那聊天机器人您每天都在与最后一个人聊天,这是一段漫长的日子吗?这是一个社会变态者。它会说什么可以让您参与。当您提出一个问题时,它将采取最佳猜测,然后自信地提供一堆蒸牛的粪便。那些聊天机器人会尽可能地旺盛,但是他们对告诉您您想听的东西更感兴趣,而不是告诉您未散布的真相。
还:Apple Intelligence正在获得更多的语言 - 和AI驱动的翻译
不要让他们的创造者逃脱这些回应”幻觉“它们是平坦的谎言,它们是所谓的AI革命。
这些谎言到处出现。让我们考虑证据。
美国的法官厌倦了律师使用chatgpt而不是进行研究。返回(支票日历)2025年3月 律师被命令支付15,000美元``在制裁中提交民事诉讼中的摘要,其中包括对不存在的案件的引用。法官在他的批评中并不完全友善:
很明显,拉米雷斯先生没有对法律进行必要的合理调查。如果他花了很少的努力来做到这一点,他会发现不存在AI生成的案件。AI生成的摘录似乎对Ramirez先生有效,并不能减轻他进行合理询问的责任。
但是,如果您必须在提交之前的每一个报价和所有引用之前,必须对虚拟法律助理进行实际帮助?AI助手错过了多少个相关案件?
而且还有许多其他例子,律师在官方法院申请中提到了虚拟案件。一麻省理工学院技术评论的最新报告总结说:“这些是大型律师对AI犯重大,令人尴尬的错误。...[S] uch错误在未由律师本身撰写的文件中也更多地出现了,例如专家报告(12月,Stanford教授和AI的专家AI,他承认在他的证词中包括AI生成的错误)。”
一位勇敢的研究人员甚至开始编译法律决定数据库在生成AI产生幻觉含量的情况下。它已经达到150起案件 - 在尚未确定的情况下,它不包括更大的法律申请宇宙。
美国卫生与公共服务部在上个月发布了本应是权威的报告。“使美国再次健康”委员会的任务是“调查慢性病和儿童疾病”,并于5月22日发布了一份详细的报告。
我敢肯定,您已经知道这是在哪里。根据今日美国的说法:
此报告中列出的[r]介绍的研究人员说,所引用的文章不存在或用于支持与他们的研究不一致的事实。这些错误首先是由 没关系。
白宫新闻秘书将问题归咎于“格式化错误”。老实说,这听起来更像是AI聊天机器人可能会说的话。
当然,AI聊天机器人可以做的最简单的任务之一就是抓住一些新闻剪辑并总结它们,对吗?我很遗憾地告诉您,《哥伦比亚新闻评论》提出了特定的问题,并得出结论:AI搜索有引文问题。”
问题有多严重?研究人员发现,聊天机器人“通常很难拒绝回答他们无法准确回答的问题,而是提供错误或投机的答案。...生成的搜索工具制造的链接并引用了文章的联合和复制版本。”
而且不要指望如果您将获得更好的结果支付高级聊天机器人。对于付费用户而言,结果往往“比免费的答案更自信地不正确”。
“更自信地错误的答案”?不想要。
2 + 2 = 4。那总和有多难?如果您是AI聊天机器人,那比看起来更难。
本周的询问伍迪通讯(Woody Newsletter)向乔治亚州大学人工智能研究所的退休教师Michael A. Covington博士提供了一篇令人着迷的文章。在 “ LLM内部发生了什么,”covington博士整洁地解释了您的聊天机器人如何在最基本的数学问题上为您打扰您:
LLM不知道如何做算术。这并不奇怪,因为人类也不会本能地做算术。在数年的小学中,必须对他们进行大量培训。LLM培训数据不能代替。...在实验中,它提出了正确的答案,但是由于大多数人不会认为可靠的过程。
[...]
研究人员发现,总的来说,当您询问LLM的推理方式时,它构成了与实际所做的解释。它甚至可以愉快地给出一个错误的答案,它认为您想听。
因此,毕竟2 + 2并不是一个简单的问题。
好吧,您肯定可以依靠AI聊天机器人来提供清晰,公正的建议。就像,也许作家可以帮助将他们的作品目录组织成有效的文学代理人?
是的,也许不是。这 来自阿曼达·吉兹堡(Amanda Guinzburg)的帖子总结她试图与Chatgpt进行有关查询信的“对话”时遇到的噩梦。
正如她总结说的那样,“我希望在这一生中能体验到的《黑镜》的个人情节最接近。”
您必须阅读整个屏幕截图,才能欣赏整个过程的毫无意义,而Chatgpt机器人假装阅读了她写的每一个单词,并提供了热烈的赞美和富有的建议。
但是什么都没有加起来,最终不幸的聊天机器人承认:“我说谎。
我的意思是,那真是令人毛骨悚然。
无论如何,如果您想与您喜欢的AI聊天机器人进行对话,我会被迫警告您:这不是一个人。它没有情绪。它试图与您互动,而不是帮助您。
哦,它在说谎。