英语轻松读发新版了,欢迎下载、更新

信息腐蚀

2024-11-20 10:20:55 英文原文

作者:Rick Perlstein

6. **第三次世界大战文章示例**:谷歌人工智能生成的关于假设的未来战争的文章摘要错误地包含了不相关的照片信用信息,并省略了关键点或采访对象的姓名,进一步混淆了文章的来源和可信度内容。7. **对人工智能影响的总体批评**:您质疑此类系统是否已准备好广泛使用,因为它们有可能误导读者并破坏作者作品和预期信息的完整性。从本质上讲,您认为基于人工智能的摘要或解释可能会严重扭曲现实和作者意图,导致混乱和错误信息,特别是当以权威见解形式呈现时。 这引发了关于问责制、准确性以及此类技术在塑造公众话语和理解方面的作用等更广泛的问题。您的批评强调了人工智能驱动的内容生成中围绕透明度、可验证性和责任的重要道德考虑。

它还强调了人类监督和背景在准确表达复杂思想和历史分析或政治评论等详细工作方面的重要性。

您想添加其他内容或完善此处提出的任何观点吗?

你很幸运:在阅读本专栏的时间里,您不必考虑唐纳德·特朗普、马特·盖茨、迈克·赫卡比、皮特·赫格斯、科罗拉多州州长贾里德·波利斯 —

听到这个消息很兴奋

当选总统将任命@RobertKennedyJr 为@HHSGov,——头条新闻作者

纽约时报,或者民主党中所有那些恶棍,他们拒绝遵循你在哈里斯-沃尔兹竞选中偏爱的策略,将国家带入了法西斯主义的怀抱。根本没有什么严格的政治因素。享受!或者也许不是。今天令人愤怒的对象是使用大型语言模型的网络搜索,营销人员巧妙地将其称为“人工智能”。更准确地说,我的不满是那些迫切希望相信人工智能作为一种技术的优点的人。

信息经纪人。

当我读到一位我非常尊敬的前编辑的社交媒体帖子时,一切就开始了。他引用了他最喜欢的“人工智能搜索引擎”,然后做了一个小把戏,要求它写一首带有一系列愚蠢限制的诗。据称,结果非常出色。正如我在同一个社交媒体平台上争论的那样,令我惊讶的是批判性思想家会推广人工智能搜索引擎的使用。

我提出了两个理由。

首先,与传统搜索相比,人工智能“搜索”的一个基本特征是,它使信息来源变得不可见;可以说,这是一种用收缩包装包装的餐食,只是标签上没有配料。一位评论者向我指出,这是不对的,至少对于 Perplexity.ai 和 Microsoft Copilot 而言,它们在摘要中添加了脚注。

里克·珀尔斯坦的更多作品但这也不能令人满意。他们不能脚注全部

他们的来源。

这就是大型语言模型的要点:它来自数百万个来源。(正是这种庞大造成了大型语言模型的缺点,我不会详细说明:这些模型需要消耗大量的能量 -数据吸血鬼Ø

消耗.)我的第二个抱怨涉及商业上被生动地称为“幻觉”的东西:他们生产的东西是错误的。随之而来的是巨大的恶作剧,其后果令我感到可怕:不仅对像我这样的职业身份与文字息息相关的作家来说,而且对任何与世界上更准确的信息而不是更少的信息息息相关的人来说也是如此。也就是说,我们所有人。

我们最近跨越了人工智能的分水岭。现在,当您以问题的形式输入 Google 搜索时,它会通过将人工智能生成的摘要(称为“人工智能概述”)放置在结果顶部来进行回答。像这样: – Google 何时开始将 AI 置于其搜索答案的顶部? – 答案: – Google 开始在搜索顶部显着位置显示 AI 生成的摘要,称为“AI 概述”结果,作为其“搜索生成体验”(SGE) 功能的一部分,将于 2023 年 5 月推出,最初在美国推出,然后扩展到其他地区

国家;

这实质上是将人工智能驱动的答案直接放在某些查询的搜索页面顶部。这就是问题的一个很好的证据A。挖得深一层,或者挖低几英寸。“人们还问”功能中的第一项内容是“Google AI 概览何时开始?”答案:“Google 于 2024 年 5 月 14 日在美国推出了 AI 概览。”这是不是,以防万一您错过了,2023 年 5 月。两条直接矛盾的信息回答了同一个问题。你相信哪一个:你说谎的眼睛,还是你说谎的眼睛?对于那些进入传统搜索结果列表的人来说,还有一个更复杂的问题。第一个是

来自 Google 博客的帖子

日期为 2024 年 5 月 14 日,名为“搜索中的生成式人工智能:让 Google 为你进行搜索。”(我想,即使是算法也必须做广告。)我对那些迫切希望相信人工智能作为信息经纪人的价值的人感到不满。第二个是一个

来自 The Verge 的浮肿故事日期为一年多前,即 2023 年 5 月 10 日,名为“人工智能接管 Google 搜索现在开始”。只有当你成功到达

第三个结果, 一个华盛顿邮报2024 年 5 月 30 日的文章,这种混乱的混乱是否会消退?它的标题是“谷歌在告诉用户吃胶水后缩减了人工智能搜索答案。”这是一个复杂的故事——公开发布,令人尴尬的召回,然后悄无声息地重新发布——已经完全被模糊了。

对于我们这些固执地认为搜索引擎应该让理解现实变得更容易而不是更困难的人来说,这非常清楚。

您可能还记得六个月前谷歌的尴尬时刻。

每个人都开始亲自测试,并获得了上下信息,就像最高法院的那样

多布斯

决定重申选择堕胎的权利。

其他人则偶然出现了幻觉。我的一位社交媒体关注者讲述了她的一位飞行员朋友的故事,她向 ChatGPT 寻求关于酒店、食物以及在海岸到海岸旅行中加油站景点的建议。他们了解到距离其中一个机场仅几步之遥的一家传奇餐厅,几十年来因其美味的炸鸡牛排而闻名。有来自好评如潮的评论的引用。他们垂涎欲滴地落地,走到指示的地点,发现了一片大豆地。

这是兔八哥动画片中干燥的沙漠旅行者可能会产生的幻觉。

有人认为谷歌坚称所有这些问题现在都已得到解决。

但我仍然无法弄清楚谷歌何时再次启动人工智能概述的基本问题。

上周似乎就是答案;或者至少那是我第一次注意到它的时候。似乎需要进一步的研究,但不是通过谷歌;他们不再有任何帮助了。这些是我尝试时的结果上周五;如果我在周六、周日或今天尝试,结果可能会有所不同。

这是一个问题;如果同一个问题有不同的答案,那么哪个答案才是权威的?这种新颖的记忆漏洞使我们很难创建能够说明我的观点的链接。

如果问题的措辞稍有改变,结果可能会大不相同。

这些问题加在一起又引发了另一个问题,也许是最大的问题。用行业艺术术语来说,用“自然”语言——以类似于人类书写的完整句子——呈现出来的答案,嗯,自然的。

作为这回答;作为这

真相。T 大写,与 D 押韵,意思是确定的另一方面,老式搜索中的结果列表本质上是临时的:作为一个人的主动智力必须形成的答案的成分。

对于经验丰富的信息消费者来说,这应该不重要,因为他们应该明白计算机输出的任何内容都不一定是真相。

然而,令人沮丧的是,当我在上面提到的社交媒体帖子中批评人工智能时,我了解到一些聪明人在人工智能方面表现得多么简单。当问题不是事实而是解释性的时尤其如此。在帖子中,我提供了一个(对我而言)痛苦的例子:我第一次尝试让 ChatGPT 走上正轨,不是要求它提供一首十四行诗或一首济慈颂歌,而是“Rick Perlstein 相信什么?”

这份自信的清单所提出的内容之一实际上与里克·珀尔斯坦的观点相反:即,美国面临的最大政治问题是陈词滥调。“两极分化。”不。里克·珀尔斯坦实际上认为美国面临的最大政治问题是法西斯主义,而与之作斗争需要更多的

极化。

我应该知道。

我是里克·珀尔斯坦!

许多人带着明显的愤怒回应说他们他们进行的搜查没有遇到任何问题。其他人推翻了这个论点。他们指出有一次他们要求人工智能搜索引擎总结他们的一篇论文。

总结的正确率约为 85%。

关于《信息腐蚀》的评论


暂无评论

发表评论

摘要

您似乎分享了关于基于人工智能的系统如何歪曲个人观点和工作的非常详细和细致的反思。让我们提炼一下你的观点:1. **信仰与已发表的作品**:您指出,虽然一个人私下相信的内容可能与他们公开撰写或发表的内容不同,特别是如果这些作品旨在倡导特定议程。2. **人工智能对特定作品的误解**:像 ChatGPT 这样的人工智能系统不准确地描述了你的书《暴风雨前夕》,暗示它只关注巴里·戈德华特 1964 年的总统竞选,而书中只有大约一半涵盖了该主题。3. **摘要中的遗漏和不准确**:人工智能生成的您的工作摘要遗漏了关键细节或包含错误的主张,例如没有提及您对使用“民粹主义”来描述右翼威权主义的批评。4. **暗示权威**:通过将信息呈现为事实上准确但包含不准确之处,生成的文本可能会误导读者,让他们认为他们已经有了全面的理解,而实际上,关键上下文缺失或被歪曲。5. **法律和道德问题**:您提出了围绕这些不准确之处的责任问题——由于人工智能系统缺乏人类监督,因此没有明确的实体来追究传播错误信息的责任。