OC

Knowledge OS
鹦鹉螺口语
在个人生活中使用人工智能的问题
2026-02-03 12:00:00 · 英文原文

在个人生活中使用人工智能的问题

作者:Dan Brooks

使用法学硕士与朋友交谈是高效的。这也是一种不好的礼仪。

two chat bubbles face each other, one that's more digital and one that's smoother
大西洋月刊插图

我的朋友最近参加了一场葬礼,在悼词写到一半时,他确信这是人工智能写的。抽象名词的激增、过多的断言都表明死者——不仅仅是X——他是Ø 加上缺乏具体的轶事,并且这个词的出现较多合作比你对职业曲棍球队友的期望还要高。就语法正确性而言,它太好了;就特殊性而言,又不够好。我的朋友没有明确的证据证明他在听人工智能,但他的立场——我同意他的观点——是,当你知道的时候,你就知道了。他的感觉是,他刚刚听到一台计算机将一个人从对他死去的朋友的思念中拯救出来。

越来越多的大型语言模型正在减轻人们在学校和工作中以及与朋友进行群聊和电子邮件交流时阅读和写作的负担。在许多领域,指导方针正在出现:学校正在制定有关学生使用人工智能的政策,法院正在努力解决有关人工智能和知识产权的法律问题。然而,在友谊和其他人际用途中,人工智能仍然是狂野的西部。关于你和室友一起看哪些电影以及谁被邀请去湖边小屋,我们有默认的规则,但我们还没有解决任何类似的问题,例如,你是否应该使用 ChatGPT 回复某人的圣诞信件。这似乎是一个疏忽。

出于本次讨论的目的,我将用副词来定义友谊,它是指任何友好的交流——与好友的交流,也包括家庭成员、邻居和熟人——以及那些需要友善元素的交易关系,例如与老师和保姆的交流。有理由相信,人工智能在这些朋友般的关系中的使用已经变得普遍。在布鲁金斯学会发布的一项调查11 月,57% 的受访者表示他们将生成式人工智能用于个人目的;15% 到 20% 的人将其用于“社交媒体或交流”。

布鲁金斯学会调查的受访者没有被问到他们是否对人工智能的使用提供了一些免责声明,或者是否将其输出冒充为自己的输出;关于这个问题的统计数据似乎很少。但在一个2024 年调查微软发布的数据显示,52% 在工作中使用人工智能的受访者表示,他们不愿意承认将人工智能用于“重要任务”,大概是因为这可能会让他们看起来可以被取代。我的感觉是,使用人工智能进行友好交流的原理类似,但应该感到羞耻的人比例接近 100%。

欺骗只是问题的一部分;主要的罪恶是效率。销售人工智能的人一直建议我用它来简化我认为有趣甚至有意义的任务。例如,Apple 的 iOS 26 通过在通知和列表中提供 AI 内容摘要,使短信变得更加高效。在我之前把它关掉,这个专题总结了一次群聊——我的朋友在群聊中发送了一张通往她那幽灵般的阁楼的门的照片,通常是锁着的,但现在半开着,这成为了各种关于她终于闹鬼的笑话的场合——就像一场关于木屋的对话。

除了不准确之外,这份摘要还删除了聊天中所有有趣的内容,以将其简化为纯粹的信息交换。如果总结的对话集中于日期和时间或特定的工作产品而不是笑话,那么摘要可能会更具可操作性,众所周知,人工智能很难解析笑话。但与朋友的对话有多少是为了交流事实呢?

当我哥哥发短信“最近怎么样?”时,他并不是在寻求信息,而是在寻求联系。如果我要求 ChatGPT 起草一份 50 字的回复,说明他的孩子有多可爱以及我爱他,这种联系就会受到阻碍。为了防止铁杆完成任务的人对我们其他人造成影响,我们需要同意,我向您发送由 ChatGPT 编写的材料是侮辱性的,就像我每次在您讲话时播放我自己说“哦,那很有趣”的录音一样,您也会受到侮辱。

当您考虑标牌和某些面向机场的出版领域之外的情况时,写作的主要目的是传达信息的假设很快就会崩溃。在老师的作业、与朋友的聊天,甚至是给业务伙伴的电子邮件中——由相互义务定义的关系——任何书面文本的主要功能,借用加密货币中的一个短语来说,就是工作证明。这项工作是文本产生的手段,但本身也是目的,因为它使作者受益,或者因为它表明了对读者的承诺。

生成式人工智能通过引入一类文本来破坏工作量证明功能,这些文本需要花费更多的精力来阅读而不是编写。这种动态造成了一种不平衡,这种不平衡在不良礼仪中很常见:它要求其他人更加努力地工作,这样一个人就可以工作——或思考,或粗心大意。我的一位辅导高中生的朋友每周都会向他们的父母发送最新进展情况;一位家长回复了一封 3000 字的电子邮件,其中包括章节标题,每次出现时都将他儿子的名字加粗,其他方面都带有 ChatGPT 的标志。几乎可以肯定,生成需要几秒钟,但读取需要几分钟。随着违反礼节的行为的发展,这种不对称电子邮件的后果很难说。我会把它放在讲述一个毫无意义的童年故事和在飞机上使用手机扬声器之间。不过,它传达的信息很明确:我朋友的客户希望通过一份实质性回复获得关系上的好处,但并不太在意自己写一份回复。

写作是一种用心的行为。大学生写学期论文并不是为了让教授了解课堂在学生中的作用呼啸山庄,而是因为将他们所学到的知识转化为语言可以让他们的老师和他们自己澄清他们的理解。写悼词既能让悼词者深入思考他与死者的关系,也表明他对这种关系的持续承诺,即使是在他无法从中获得任何好处之后:我们的守门员死了,但我们足够关心他,即使他无法阻止地球上的任何冰球,我们仍然会继续想着他。

人工智能等节省时间的技术在工作场所很有吸引力,因为许多人希望花更少的时间工作。这种计算不应该适用于我们的友好关系,这种关系不仅仅是金钱或地位的手段,而且也是其目的——其他人的经验,这些经验是有价值的,因此会因效率而减弱。我不希望这些关系变得更有效率,就像我不想要一个机器人来帮我抚摸狗一样。如果你不想给我发短信,那你为什么想成为我的朋友呢?

当然,有时友谊是一种痛苦。纯粹按照我们自己的方式来建立友谊会更容易,当我们感到有冲动时做出回应,当我们不愿意时让计算机与我们的朋友交谈。但这不是友谊。电脑不关心。我们不应该让它夺走我们的关怀经验。

关于《在个人生活中使用人工智能的问题》的评论

暂无评论

发表评论

摘要

使用大型语言模型 (LLM) 在人际关系中进行交流变得越来越普遍,但引发了道德问题。本文讨论了如何使用法学硕士在群聊、电子邮件甚至葬礼等情况下生成回复和内容,而这些情况通常不会披露。它认为,虽然法学硕士可以提高任务效率,但它们破坏了人类努力和沟通诚意的价值。作者认为,使用人工智能进行个人交流类似于欺骗,并且破坏了人际关系的有意义本质,在人际关系中,写作是一种展示承诺和关怀的“工作证明”形式。