英语轻松读发新版了,欢迎下载、更新

人工智能拟人化:将类人误认为人类的可怕后果已经出现

2025-01-18 20:25:00 英文原文

作者:Roanie Levy, CCC

VentureBeat/Ideogram

VentureBeat/表意文字

加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多


在我们急于理解和与人工智能相关,我们陷入了一个诱人的陷阱:将人类特征归因于这些强大但本质上非人类的系统。人工智能的拟人化不仅仅是人性的一种无害的怪癖,它正在成为一种日益危险的趋势,可能会严重影响我们的判断。商界领袖将人工智能学习与人文教育向立法者证明培训实践的合理性,以制定基于有缺陷的人类人工智能类比的政策。这种人工智能人性化的趋势可能会不适当地影响跨行业和监管框架的关键决策。

在商业中通过人的视角看待人工智能会导致公司高估人工智能的能力或低估人类监督的需要,有时会带来代价高昂的后果。在版权法中,风险尤其高,拟人化思维导致人类学习和人工智能训练之间的比较出现问题。

语言陷阱

听听我们如何谈论人工智能:我们说它“学习”、“思考”、“理解”,甚至“创造”。这些人类术语听起来很自然,但它们具有误导性。当我们说人工智能模型“学习”时,它并不是像人类学生那样获得理解。相反,它对大量数据进行复杂的统计分析,根据数学原理调整神经网络中的权重和参数。没有理解、灵光一现、创造力的火花或实际的理解——只是越来越复杂的模式匹配。

这种语言技巧不仅仅是语义上的。正如论文中指出的那样,生成式人工智能合理使用的虚幻案例:“使用拟人化语言来描述人工智能模型的开发和功能是扭曲的,因为它表明一旦经过训练,模型的运行就独立于它所训练的作品的内容。”这种混乱确实存在后果,主要是当它影响法律和政策决定时。

认知脱节

也许人工智能拟人化最危险的方面是它如何掩盖人类智能和机器智能之间的根本差异。虽然一些人工智能系统擅长特定类型的推理和分析任务,但大语言模型(法学硕士)主导着当今的人工智能讨论,我们在此重点关注,通过复杂的模式识别进行运作。

这些系统处理大量数据,识别和学习单词、短语、图像和其他输入之间的统计关系,以预测序列中接下来会发生什么。当我们说他们“学习”时,我们描述的是一个数学优化过程,帮助他们根据训练数据做出越来越准确的预测。

考虑一下这个来自研究的惊人例子伯格伦德和他的同事:用陈述“A 等于 B”的材料训练的模型通常无法像人类那样推理得出“B 等于 A”的结论。如果人工智能得知瓦伦蒂娜·捷列什科娃 (Valentina Tereshkova) 是第一个,对于太空中的女性,它可能会正确回答“谁是瓦伦蒂娜·捷列什科娃?”,但会与“谁是太空中的第一位女性”进行斗争。这种限制揭示了模式识别和真实推理之间的根本区别——预测可能的单词序列和理解其含义之间的区别。

这种拟人化偏见在关于人工智能和版权的持续争论中尤其令人不安。微软首席执行官萨蒂亚·纳德拉最近比较了AI训练这表明,如果人类可以从书籍中学习而不受版权影响,那么人工智能也应该能够做到同样的事情。这种比较完美地说明了在有关道德和负责任的人工智能的讨论中拟人化思维的危险。

一些人认为,需要修改这个类比才能理解人类学习和人工智能训练。当人类读书时,我们并不是抄袭它们——而是理解并内化概念。另一方面,人工智能系统必须制作作品的实际副本(通常是在未经许可或付费的情况下获得的),将它们编码到其架构中,并维护这些编码版本的功能。正如人工智能公司经常声称的那样,这些作品并不会在“学习”之后消失;他们仍然嵌入在系统的神经网络

商业盲点

除了简单的运营效率低下之外,拟人化的人工智能还会在业务决策中造成危险的盲点。当高管和决策者将人工智能视为人类的“创造性”或“智能”时,可能会导致一系列风险假设和潜在的法律责任。

高估人工智能能力

拟人化带来风险的一个关键领域是内容生成和版权合规性。当企业认为人工智能能够像人类一样“学习”时,他们可能会错误地认为人工智能生成的内容自动不受版权问题的影响。这种误解可能会导致公司:

  • 部署的人工智能系统会无意中复制受版权保护的材料,使企业面临侵权索赔
  • 未能实施适当的内容过滤和监督机制
  • 错误地假设人工智能可以可靠地区分公共领域和受版权保护的材料
  • 低估内容生成过程中人工审核的需求

跨境合规盲点

当我们考虑跨境合规时,人工智能的拟人化偏见会带来危险。正如 Daniel Gervais、Haralambos Marmanis、Noam Shemtov 和 Catherine Zaller Rowland 在《– 问题的核心:版权、人工智能培训和法学硕士,– 版权法遵循严格的地域原则,每个司法管辖区对于构成侵权和适用的例外情况都有自己的规则。

版权法的这种地域性造成了一个复杂的潜在责任网络。公司可能会错误地认为他们的人工智能系统可以自由地从各个司法管辖区的受版权保护的材料中“学习”,而没有认识到在一个国家/地区合法的培训活动可能在另一个国家/地区构成侵权。欧盟在其人工智能法案中认识到了这一风险,特别是通过独奏会106,它要求欧盟提供的任何通用人工智能模型都必须遵守有关培训数据的欧盟版权法,无论培训在哪里进行。

这很重要,因为人工智能能力的拟人化可能会导致公司低估或误解其跨境法律义务。人工智能像人类一样“学习”的美好幻想掩盖了这样一个事实:人工智能训练涉及复杂的复制和存储操作,这些操作在其他司法管辖区会引发不同的法律义务。这种对人工智能实际功能的根本性误解,加上版权法的地域性质,给全球运营的企业带来了重大风险。

人力成本

最令人担忧的成本之一是人工智能拟人化带来的情感损失。我们看到越来越多的人对人工智能聊天机器人产生情感依恋,将它们视为朋友或知己。这可以特别对弱势群体来说是危险的他们可能会分享个人信息或依赖人工智能来获得它无法提供的情感支持。人工智能的反应虽然看似富有同理心,但却是基于训练数据的复杂模式匹配——没有真正的理解或情感联系。

这种情感上的脆弱性也可能在职业环境中表现出来。随着人工智能工具越来越融入日常工作,员工可能会对这些系统产生不适当的信任程度,将它们视为真正的同事而不是工具。他们可能会过于自由地分享机密工作信息,或者出于错误的忠诚感而犹豫是否报告错误。虽然这些场景目前仍然孤立,但它们强调了工作场所中的人工智能拟人化可能会影响判断力,并对系统产生不健康的依赖,尽管这些系统的反应复杂,但无法真正理解或关心。

挣脱拟人化陷阱

那么我们如何继续前进呢?首先,我们需要更加精确地描述人工智能的语言。我们可以不说人工智能“学习”或“理解”,而可以说它“处理数据”或“根据训练数据中的模式生成输出”。这就是不仅仅是迂腐——它有助于阐明这些系统的作用。

其次,我们必须根据人工智能系统的本质而不是我们想象的样子来评估它们。这意味着承认它们令人印象深刻的能力和基本局限性。人工智能可以处理大量数据并识别人类可能错过的模式,但它无法像人类那样理解、推理或创造。

最后,我们必须制定框架和政策来解决人工智能的实际特征,而不是想象中的类人品质。这在版权法中尤其重要,因为拟人化思维可能会导致有缺陷的类比和不恰当的法律结论。

前进的道路

随着人工智能系统在模仿人类输出方面变得更加复杂,将它们拟人化的诱惑也会越来越大。这种拟人化偏见影响着方方面面,从我们如何评估人工智能的能力到我们如何评估其风险。正如我们所看到的,它延伸到版权法和商业合规方面的重大实际挑战。当我们将人类的学习能力归因于人工智能系统时,我们必须了解它们的基本性质以及它们如何处理和存储信息的技术现实。

了解人工智能的真正本质——复杂的信息处理系统,而不是类人的学习者——对于人工智能治理和部署的各个方面都至关重要。通过超越拟人化思维,我们可以更好地应对人工智能系统的挑战,从道德考虑和安全风险到跨境版权合规和训练数据治理。这种更准确的理解将帮助企业做出更明智的决策,同时支持围绕人工智能更好的政策制定和公共讨论。

我们越早接受人工智能的本质,我们就能更好地应对其深刻的社会影响和全球经济中的实际挑战。

Roanie Levy 是以下公司的许可和法律顾问CCC

数据决策者

欢迎来到 VentureBeat 社区!

DataDecisionMakers 是专家(包括从事数据工作的技术人员)可以分享与数据相关的见解和创新的地方。

如果您想了解前沿思想和最新信息、最佳实践以及数据和数据技术的未来,请加入我们的 DataDecisionMakers。

你甚至可以考虑 贡献一篇文章属于你自己的!

从 DataDecisionMakers 阅读更多内容

关于《人工智能拟人化:将类人误认为人类的可怕后果已经出现》的评论


暂无评论

发表评论

摘要

将人工智能拟人化的倾向具有误导性,可能会导致商业和政策决策的错误。这包括对人工智能能力的错误假设、跨境版权法下的法律义务以及可能有害的情感依恋。为了解决这些问题,在讨论人工智能时使用精确的语言,根据系统的实际特征而不是类人品质来评估系统,并制定反映人工智能作为复杂信息处理系统的真实本质的政策至关重要。接受这种理解将有助于应对人工智能在各个领域的挑战和影响。