英语轻松读发新版了,欢迎下载、更新

人工智能“会阻碍独立自我创造所需的技能”:依赖算法可能会在你没有意识到的情况下重塑你的整个身份

2024-10-27 13:45:10 英文原文

作者:Muriel LeuenbergerSocial Links Navigation

A woman standing in an abstract artificially constructed environment
我们能否相信算法能够为我们做出最佳决策,这对我们的机构意味着什么? (图片来源:盖蒂图片社/gremlin)

的崛起人工智能(人工智能)不仅对技术及其带来的大量可能性提出了问题,也对道德、伦理和哲学提出了问题。引入这项新技术会对健康、法律、军事、工作性质、政治甚至我们自己的身份产生影响——是什么让我们成为人类以及我们如何实现自我意识。

《人工智能道德》(牛津大学出版社,2024),英国哲学家编辑大卫·埃德蒙兹,是来自一个“哲学工作组”的论文集,探讨人工智能将如何彻底改变我们的生活以及它将引发的道德困境,描绘出令人愉悦的理由和担忧的理由的身临其境的图景。在这段摘录中,穆里尔·洛伊恩伯格苏黎世大学技术和人工智能伦理学博士后研究员,专注于人工智能如何塑造我们的身份。

她的文章题为“你应该让人工智能告诉你你是谁以及你应该做什么吗?”解释了主导当今数字平台(从社交媒体到约会应用程序)的机器学习算法如何比我们自己更了解我们。但是,她认为,我们可以相信他们能为我们做出最好的决定吗?这对我们的机构意味着什么?


您的手机及其应用程序非常了解您。您正在与谁交谈、共度时光、您去哪里、您喜欢什么音乐、游戏和电影、您的外表、您读过哪些新闻文章、您认为谁有吸引力、您用信用卡购买了什么以及有多少您采取的步骤。这些信息已经被用来向我们推销产品、服务或政客。在线痕迹可以让谷歌或 Facebook 等公司推断出你的政治观点、消费者偏好、你是否是一个寻求刺激的人、一个宠物爱好者,还是一个小雇主,你很快就会成为父母的可能性有多大,甚至你是否很可能患有抑郁症或失眠症。

随着人工智能的使用和人类生活的进一步数字化,人工智能可能比你更了解你自己,这不再是不可想象的。人工智能系统生成的个人用户档案在描述他们的价值观、兴趣、性格特征、偏见或精神障碍方面可能比用户本身更准确。技术已经可以提供个人不知道的个人信息。尤瓦尔·赫拉利当他声称选择人工智能建议的伴侣、朋友、工作、聚会和家庭将变得理性和自然时,他夸大了但提出了类似的观点。人工智能将能够将关于你的大量个人信息与有关心理、人际关系、就业、政治和地理的一般信息结合起来,并且它将更好地模拟与这些选择相关的可能场景。

因此,如果人工智能能够让你知道你是谁以及你应该做什么,这似乎会很棒,不仅在极端情况下如此,而且对于常见的推荐系统和数字分析来说更平淡无奇。我想提出两个理由来解释为什么事实并非如此。

相信

你怎么知道你是否可以信任人工智能系统?您如何确定它是否真正了解您并为您提供良好的建议?想象一下,一个朋友告诉你,你应该和他的表弟亚历克斯约会,因为你们两个是完美的搭配。在决定是否与亚历克斯见面时,您会考虑您的朋友是否值得信赖。你可能会考虑你朋友的可靠性(他现在是否喝醉了并且思维不清晰?),能力(他对你和亚历克斯的了解程度,他对浪漫兼容性的判断有多好?)和意图(他是否希望你这样做)。快乐,欺骗你,或者抛弃他无聊的表弟一个晚上?)。为了看看你是否应该听从朋友的建议,你可以温和地询问他:为什么他认为你会喜欢亚历克斯,他认为你们两个有什么共同点?

将世界上最迷人的发现直接发送到您的收件箱。

这已经够复杂的了。但对人工智能的信任判断则更加复杂。很难理解人工智能真正了解你什么以及它的信息有多可信。许多人工智能系统都存在偏见——例如,它们从训练数据中再现了种族和性别歧视偏见——所以我们最好不要盲目信任它们。通常,我们不能要求人工智能对其推荐做出解释,也很难评估其可靠性、能力和开发者的意图。人工智能的预测、表征和决策背后的算法通常是公司财产,用户无法访问。即使可以获得这些信息,也需要高度的专业知识才能理解它。这些购买记录和社交媒体帖子如何转化为性格特征和政治偏好?由于一些人工智能系统的不透明性或“黑匣子”性质被广泛讨论,即使是精通计算机科学的人也可能无法完全理解人工智能系统。人工智能生成输出的过程在很大程度上是自我导向的(意味着它在不遵循开发人员设计的严格规则的情况下生成自己的策略),并且很难或几乎不可能解释。

创造你自己!

即使我们有一个相当值得信赖的人工智能,第二个道德问题仍然存在。人工智能告诉你你是谁以及你应该做什么,它基于这样的理念:你的身份是你可以发现的——你或人工智能可以访问的信息。通过统计分析、一些个人数据以及有关心理学、社会制度、人际关系、生物学和经济学的事实,可以了解你到底是谁以及你应该在生活中做什么。但这种观点忽略了一个重要的点:我们也选择我们是谁。你不是一个被动的受制于你的身份的人——它是你主动、动态地创造的东西。您发展、培育和塑造您的身份。正如让·保罗·萨特(Jean-Paul Sartre)所例证的那样,身份的自我创造主义方面一直是存在主义哲学的前沿和中心。存在主义者否认人类是由任何预定的本性或“本质”来定义的。没有本质的存在总是会成为不同于今天的你。我们不断地创造自己,并且应该自由、独立地这样做。在某些事实的范围内——你出生的地方、你的身高、你昨天对朋友说的话——你有完全的自由和道德要求来构建你自己的身份并定义什么对你有意义。至关重要的是,我们的目标不是找出唯一正确的生活方式,而是选择你自己的个人身份并为此承担责任。

人工智能可以为您提供外部的量化视角,它可以充当镜子并建议行动方案。但你应该保持掌控,并确保你对自己的身份和生活方式负责。人工智能可能会陈述很多关于你的事实,但你的工作是找出它们对你意味着什么以及你如何让它们定义你。这同样适用于行动。您的行为不仅仅是寻求幸福的一种方式。通过你的行动,你选择了自己是什么样的人。盲目追随人工智能意味着放弃创造自己的自由,放弃对自己的责任。这相当于道德上的失败。

最终,依靠人工智能告诉你你是谁以及你应该做什么可能会阻碍独立自我创造所需的技能。如果你经常使用人工智能来寻找你喜欢的音乐、职业或政治候选人,你最终可能会忘记如何自己做到这一点。人工智能不仅可以在专业层面上提高你的技能,还可以在个人对自我创造的追求方面提高你的技能。在生活中做出正确的选择并构建一个有意义且让你快乐的身份是一项成就。通过将这种权力转包给人工智能,你会逐渐失去对自己生活的责任,并最终失去对自己的责任。

一场非常现代的身份危机

有时您可能希望有人告诉您该做什么或您是谁。但是,正如我们所看到的,这是有代价的。很难知道是否或何时信任人工智能分析和推荐系统。更重要的是,通过将决策转包给人工智能,你可能无法满足创造自己和对自己负责的道德要求。在这个过程中,你可能会失去自我创造的技能,使你的身份僵化,并将对你的身份的权力让给公司和政府。在涉及您身份的最重大决定和特征的情况下,这些担忧尤其严重。但即使在更平凡的情况下,时不时地把推荐系统放在一边,在选择电影、音乐、书籍或新闻时更加积极和有创意也是好的。这反过来又需要研究、风险和自我反思。

当然,我们常常会做出错误的选择。但这有一个好处。通过让自己暴露在与你现在的身份不完全一致的影响和环境中,你会得到发展。搬到一个让你不开心的城市可能会打乱你平常的生活节奏,并促使你去寻找新​​的爱好。持续依赖人工智能推荐系统可能会让你的身份变得僵化。然而,这不是推荐系统的必要特征。从理论上讲,它们的设计目的可以拓宽用户的视野,而不是通过向客户展示他们已经喜欢的东西来最大化参与度。实际上,它们并不是这样运作的。

当人工智能分析成为一种自我实现的预言时,这种钙化效应就会得到加强。它可以慢慢地将你变成人工智能预测的样子,并永久保留人工智能所拾取的任何特征。通过推荐产品并展示广告、新闻和其他内容,你更有可能按照人工智能系统最初认为适合你的方式消费、思考和行动。该技术可以逐渐影响你,使你进化成最初的样子。

免责声明

这段摘录由穆里尔·洛伊恩伯格 (Muriel Leuenberger) 撰写,已根据风格和长度进行了编辑。经 David Edmonds 编辑、牛津大学出版社出版的《AI Ethics》许可转载。© 2024。保留所有权利。


Leuenberger 是苏黎世大学数字社会计划和哲学系的博士后研究员。她的研究兴趣包括技术/人工智能伦理学、医学伦理学(特别是神经伦理学)、心灵哲学、生命意义、身份哲学、真实性和谱系学。

关于《人工智能“会阻碍独立自我创造所需的技能”:依赖算法可能会在你没有意识到的情况下重塑你的整个身份》的评论


暂无评论

发表评论

摘要

穆里尔·洛伊恩伯格(Muriel Leuenberger)关于“人工智能伦理”的著作的摘录强调了利用人工智能进行指导与在自我创造中保持个人自主权之间的紧张关系。以下是总结的要点:1. **身份创造**:像让·保罗·萨特这样的存在主义哲学家认为,身份不是固定的,而是由个人通过他们的选择和行动动态创造的。2. **自由和责任**:人类有定义自己的自由,这也意味着他们对自己成为什么样的人和如何生活承担道德责任。3. **人工智能的作用**:虽然人工智能可以提供数据驱动的见解和建议,但它应该作为一种工具,而不是自我创造的明确指南。4. **潜在风险**:- **去技能化**:过度依赖人工智能可能会削弱独立决策所需的个人技能。- **身份钙化**:持续使用推荐系统会缩小一个人的身份并限制个人成长。- **失去自主权**:将权力移交给算法会破坏自我定义的道德义务。5. **道德问题**:- **道德失败**:盲目遵循人工智能建议而不进行批判性反思是对自己人生选择负责的失败。- **身份危机**:过度依赖外部指导会阻碍个人发展和真实身份的形成。6. **推荐系统**:虽然旨在最大限度地提高参与度,但这些系统通常会缩小而不是拓宽用户的视野。7. **自我发展**:参与不同的影响和环境对于成长和自我发现至关重要,即使它有时会导致不适或失败。8. **提案**:- 定期远离人工智能建议。- 积极寻找新的经历并做出独立的选择。- 反思个人价值观和目标,以培养更丰富的认同感。9. **技术伦理**:开发鼓励探索而不是强化现有偏好的推荐系统还有空间,尽管考虑到当前的实践,这仍然是一个理论上的理想。总体而言,洛伊恩伯格的论点强调了在塑造个人身份和生活轨迹时平衡技术援助与人类能动性的重要性。