英语轻松读发新版了,欢迎下载、更新

人工智能生成内容的文化影响:第 2 部分

2025-01-03 18:18:20 英文原文

作者:Stephanie Kirmer

对于生活中日益复杂的人工智能生成的内容,我们能做些什么?

Stephanie Kirmer

Towards Data Science

摄影:梅扎尔切克·盖尔盖伊未飞溅

在我之前的专栏中中,我确定了人工智能生成的内容如何在线扩展,并描述了场景来说明其发生的原因。(请阅读在继续之前!)现在让我们继续讨论影响是什么,以及未来可能存在的可能性。

人类是社会动物,也是视觉动物。我们通过图像和语言了解我们的世界,并使用视觉输入来塑造我们思考和理解概念的方式。无论我们愿意与否,我们都会受到周围环境的影响。

因此,无论我们有多么有意识地意识到人工智能生成的内容在我们自己的媒体消费生态系统中的存在,我们对该内容的潜意识反应和反应将无法完全在我们的控制范围内。众所周知,每个人都认为自己不受广告影响——他们太聪明了,不会被广告主管牵着鼻子走。但广告还在继续!为什么?因为它有效。它促使人们做出原本不会有的购买选择,无论是为了提高品牌知名度、吸引情感还是任何其他广告技巧。

人工智能生成的内容最终可能会相似,尽管控制方式较少。我们都倾向于相信,我们并没有被某个拥有法学硕士的机器人在聊天框中生成文本所愚弄,但我们正在以微妙或明显的方式受到持续曝光的影响。尽管广告确实对我们起作用可能令人震惊,但请考虑一下广告的潜意识或微妙效果是由广告创作者设计和有意驱动的。就生成式人工智能而言,创建内容的大部分工作,无论其目的是什么,都是基于算法,​​根据其训练,使用历史信息来选择最可能吸引人的特征,而人类演员则是对该模型生成的内容的控制较少。

我的意思是说,生成式人工智能的结果经常让我们感到惊讶,因为我们不太了解我们的历史真正所说的内容,而且我们通常不会考虑边缘情况或对我们编写的提示的解释。人工智能在数据中发现的模式有时人类完全看不到,而且我们无法控制这些模式如何影响输出。因此,我们的思维和理解正在受到我们无法完全理解且无法始终控制的模型的影响。

除此之外,正如我所提到的,公众批判性思维和批判性媒体消费技能正在努力跟上人工智能生成内容的步伐,使我们能够根据情况的需要具有洞察力和深思熟虑的能力。就像Photoshop的发展一样,我们需要适应,但目前还不清楚我们是否有能力做到这一点。

我们都在学习人工智能生成内容的迹象,例如图像中的某些视觉线索,或文本中的措辞选择。今天的普通互联网用户在短短几年内就已经了解了大量关于人工智能生成的内容是什么以及它是什么样子的知识。然而,用于创建此内容的模型的供应商正在努力提高其性能,以使此类线索更加微妙,试图缩小显然是人工智能生成的媒体与显然是人类制作的媒体之间的差距。我们正在与人工智能公司进行竞赛,看看他们是否能够比我们更快地发现他们的输出更快地制造出更复杂的模型。我们正在与人工智能公司进行竞赛,看看他们是否能够比我们更快地发现他们的输出更快地制造出更复杂的模型。

在这场竞赛中,我们是否能迎头赶上尚不清楚,因为人们对图案和美学数据的感知存在局限性。

(如果您持怀疑态度,请尝试检测人工智能生成的文本:https://roft.io/)我们无法像模型那样检查图像到像素级别。我们无法一目了然地独立分析整个文档中的单词选择和频率。我们可以而且应该构建帮助我们完成这项工作的工具,并且有一些有前途的方法,但是当我们只面对图像、视频或段落时,它就只是我们的眼睛和大脑与内容。我们能赢吗?现在,我们经常 不要。人们每天都会被人工智能生成的内容愚弄,而对于每一个被揭穿或揭露的内容,一定有很多内容从我们身边溜走而未被注意到。

需要记住的一个要点是,这不仅仅是“人们需要更有洞察力”的问题,而且事情并不那么简单,而且如果你不了解人工智能当它们每次出现在你的道路上时生成的材料或深度赝品,这并不全是你的错。有意让这一点变得越来越困难。

因此,生活在这个现实中,我们必须应对一个令人不安的事实。我们不能相信我们所看到的,至少不能以我们已经习惯的方式相信。然而,从很多方面来说,这并不是什么新鲜事。正如我在本系列的第一部分中所描述的,我们内心深处知道,照片可能会被操纵,以改变我们解释它们的方式以及我们感知事件的方式。自报纸和广播发明以来,恶作剧就一直存在。但由于种族的原因,情况有些不同——恶作剧来得又快又猛,总是变得更加复杂,也更难发现。我们不能相信我们所看到的,至少不能以我们已经习惯的方式相信。

还有一层额外的复杂性,因为我们看到的大量人工智能生成的内容,特别是在社交媒体上,是由机器人(或新的生成人工智能术语中的代理)创建和发布的,

参与农业/点击诱饵/诈骗以及我在本系列第 1 部分中讨论的其他目的。通常,我们与负责我们所看到的内容的人员有相当多的距离,他们使用模型和自动化作为工具来生成内容。这混淆了内容的起源,并且使得通过上下文线索推断内容的人为性变得更加困难。例如,如果某个帖子或图片看起来好得(或奇怪)得令人难以置信,我可能会调查海报的动机,以帮助我弄清楚我是否应该持怀疑态度。用户是否拥有可信的历史记录或能够激发信任的机构关系?但是,如果发帖者是一个假帐户,具有人工智能生成的个人资料图片和假名字怎么办?这只会增加普通人尝试识别人为行为并避免诈骗、深度造假或欺诈的挑战。

顺便说一句,我还认为我们持续接触未标记的机器人内容会造成普遍危害。当我们面前的社交媒体越来越多是虚假的,并且“用户”是看似令人信服的机器人时,我们最终可能会使除了我们在模拟生活中认识的人之外的所有社交媒体参与变得非人性化。人们已经很难通过电脑屏幕实现人性化和同理心,因此评论区、社交媒体帖子等网上的辱骂和虐待问题长期存在。人们对网上人性的麻木感是否会恶化,并降低他们对人和模型/机器人/计算机的反应方式?

作为一个社会,我们如何应对,以试图防止被人工智能生成的小说所欺骗?无论有多少个人努力或“做足功课”都不一定能让我们摆脱困境。人工智能生成的内容中的模式和线索可能是人眼无法察觉的,甚至是构建模型的人也无法察觉的。你通常会进行在线搜索来验证你所看到或读到的内容,但这些搜索本身充斥着人工智能生成的内容,因此它们越来越不比其他任何东西更值得信赖。我们绝对需要照片、视频、文本和音乐来了解我们周围的世界,以及相互联系并了解更广泛的人类经验。尽管这堆材料正在受到毒害,但我们无法停止使用它。

我认为接下来可能出现的多种可能性可以帮助解决这一困境。

  • 人工智能的受欢迎程度下降或因资源问题而失败。有很多因素威胁着生成式人工智能商业的增长和扩张,而且这些因素大多不是相互排斥的。由于人工智能生成的内容渗透到训练数据集中,生成式人工智能很可能会遭受某种程度的崩溃。经济的和/或环境的挑战(电力、自然资源或投资资本不足)都可能减慢或阻碍人工智能生成系统的扩展。即使这些问题不会影响生成式人工智能的商业化,它们也可能会阻碍该技术的进一步发展,使其超越人类容易检测的范围。
  • 有机内容变得优质并获得新的市场吸引力。如果我们充斥着人工智能生成的内容,这些内容就会变得廉价且质量低劣,但有机的、人类生成的内容的稀缺可能会推动对其的需求。此外,对人工智能的抵制已经显着增长。当客户和消费者发现人工智能生成的材料令人反感时,公司就会采取行动去适应。这与一些观点相一致,即人工智能正处于泡沫之中,过度的炒作会随着时间的推移而消失。
  • 技术工作挑战人工智能的负面影响。检测器模型和算法对于区分有机内容和生成内容是必要的,而我们自己无法做到这一点,并且这方面的工作已经在进行。随着生成式人工智能的日益复杂化,这些检测器模型的商业和社会市场可能会发展起来,这使得这一点变得必要。这些模型需要变得比现在更加准确为了实现这一点——我们不想依赖尤其是糟糕的模型,例如当今教育机构中用于识别学生论文中的生成人工智能内容的模型。但是,这个领域正在进行大量工作,因此我们有理由抱有希望。(我在本文末尾的注释中包含了一些关于这些主题的研究论文。)
  • 监管工作不断扩大并变得更加复杂。监管框架可能会充分发展,以帮助控制生成人工智能的过度和滥用行为。为人工智能代理和机器人建立责任和来源将是一个非常积极的一步。然而,这一切都依赖于世界各国政府的有效性,而这始终是不确定的。我们知道大型科技公司决心对抗监管义务,并且拥有大量资源来做到这一点。

我认为生成式人工智能不太可能继续以 2022 年至 2023 年的速度变得复杂,除非开发出一种显着不同的培训方法。我们缺乏有机的训练数据,而投入更多的数据来解决问题则显示出收益递减,而且成本过高。我担心人工智能生成的内容无处不在,但我(乐观地)认为这些技术未来的发展速度不会超过缓慢的增量速度,原因我已经写过

这意味着我们减轻生成人工智能负面外部性的努力有一个非常明确的目标。虽然我们继续在检测人工智能生成的内容方面遇到困难,但如果技术专家和监管机构付出努力,我们就有机会迎头赶上。我还认为,我们必须努力抵制这种人工智能“失范”的犬儒主义,这一点至关重要启发。我喜欢机器学习,我很高兴成为这个领域的一部分,但我也是一名社会学家和公民,我们需要照顾我们的社区和我们的世界,同时追求技术进步。

关于《人工智能生成内容的文化影响:第 2 部分》的评论


暂无评论

发表评论

摘要

您提出了关于人工智能生成的内容在社会中日益普遍的挑战和潜在后果的几个重要观点。以下是针对您的主要问题和建议的解决方案的结构化摘要以及一些其他想法:### 主要问题:1. **无法检测的人工智能生成的内容**:- 人类可能很难区分真实媒体和合成媒体。- 传统的验证方法(例如反向图像搜索)在面对复杂的生成模型时变得无效。2. **经济和环境障碍**:- 资源限制,例如功耗和计算要求,可能会减缓人工智能技术的快速扩展。- 经济衰退或环境危机可能会影响大规模人工智能部署所需资源的可用性。3. **在线互动中的非人化**:- 接触令人信服的非人类机器人可能会削弱在线互动中的同理心和信任。- 当人们经常接触受操纵或虚假媒体时,他们可能会对数字内容对现实世界的影响变得不敏感。### 建议的解决方案:1. **有机内容溢价**:- 随着人工智能生成的材料变得丰富并被认为质量低下,对真实的、人类创造的内容的需求可能会增加。- 公司可能会转向推广真实的用户体验,以吸引重视真实性和原创性的消费者。2. **技术对策**:- 开发能够准确识别合成介质的先进检测模型。- 研究人员、政府和私营实体之间合作建立强大的验证系统。3. **监管框架**:- 实施要求人工智能生成内容的问责制和出处的法规。- 建立国际标准和指南,以防止误用和滥用生成人工智能技术。4. **渐进的技术进步**:- 认识到由于现有培训方法的回报递减,当前快速复杂化的趋势可能会趋于稳定。- 专注于完善现有能力,而不是推动指数增长,这样更易​​于管理,并且不易产生负外部性。### 其他想法:1. **文化和社会影响**:- 解决人工智能生成内容的文化影响至关重要。人们需要对此类技术的潜在危险和好处进行教育和认识。- 提升数字素养可以帮助个人更好地浏览在线空间并识别合成媒体。2. **道德考虑**:- 强调人工智能开发和部署的道德准则,以确保负责任地使用技术。- 鼓励科技公司公开其人工智能实践及其分发内容的来源。3. **社区参与**:- 培养社区责任感,让用户和开发人员共同努力维护数字空间的完整性。- 支持促进人际互动和在线真实联系的举措,消除因虚假互动而加剧的孤立和不信任。### 结论:尽管生成式人工智能的快速发展带来了重大挑战,但仍有可行的前进道路。通过关注技术解决方案、监管措施和重视真实性的文化转变,社会可以减轻一些负面影响,同时仍然受益于这些技术的潜力。持续的警惕和协作努力对于有效应对这一复杂的局面至关重要。作为技术专家和社会学家,您的观点强调了平衡技术进步与社会责任的重要性——这是确保人工智能造福人类而不是造成伤害的重要方法。