作者:Stephanie Kirmer
在我之前的专栏中中,我确定了人工智能生成的内容如何在线扩展,并描述了场景来说明其发生的原因。(请阅读那在继续之前!)现在让我们继续讨论影响是什么,以及未来可能存在的可能性。
人类是社会动物,也是视觉动物。我们通过图像和语言了解我们的世界,并使用视觉输入来塑造我们思考和理解概念的方式。无论我们愿意与否,我们都会受到周围环境的影响。
因此,无论我们有多么有意识地意识到人工智能生成的内容在我们自己的媒体消费生态系统中的存在,我们对该内容的潜意识反应和反应将无法完全在我们的控制范围内。众所周知,每个人都认为自己不受广告影响——他们太聪明了,不会被广告主管牵着鼻子走。但广告还在继续!为什么?因为它有效。它促使人们做出原本不会有的购买选择,无论是为了提高品牌知名度、吸引情感还是任何其他广告技巧。
人工智能生成的内容最终可能会相似,尽管控制方式较少。我们都倾向于相信,我们并没有被某个拥有法学硕士的机器人在聊天框中生成文本所愚弄,但我们正在以微妙或明显的方式受到持续曝光的影响。尽管广告确实对我们起作用可能令人震惊,但请考虑一下广告的潜意识或微妙效果是由广告创作者设计和有意驱动的。就生成式人工智能而言,创建内容的大部分工作,无论其目的是什么,都是基于算法,根据其训练,使用历史信息来选择最可能吸引人的特征,而人类演员则是对该模型生成的内容的控制较少。
我的意思是说,生成式人工智能的结果经常让我们感到惊讶,因为我们不太了解我们的历史真正所说的内容,而且我们通常不会考虑边缘情况或对我们编写的提示的解释。人工智能在数据中发现的模式有时人类完全看不到,而且我们无法控制这些模式如何影响输出。因此,我们的思维和理解正在受到我们无法完全理解且无法始终控制的模型的影响。
除此之外,正如我所提到的,公众批判性思维和批判性媒体消费技能正在努力跟上人工智能生成内容的步伐,使我们能够根据情况的需要具有洞察力和深思熟虑的能力。就像Photoshop的发展一样,我们需要适应,但目前还不清楚我们是否有能力做到这一点。
我们都在学习人工智能生成内容的迹象,例如图像中的某些视觉线索,或文本中的措辞选择。今天的普通互联网用户在短短几年内就已经了解了大量关于人工智能生成的内容是什么以及它是什么样子的知识。然而,用于创建此内容的模型的供应商正在努力提高其性能,以使此类线索更加微妙,试图缩小显然是人工智能生成的媒体与显然是人类制作的媒体之间的差距。我们正在与人工智能公司进行竞赛,看看他们是否能够比我们更快地发现他们的输出更快地制造出更复杂的模型。我们正在与人工智能公司进行竞赛,看看他们是否能够比我们更快地发现他们的输出更快地制造出更复杂的模型。
在这场竞赛中,我们是否能迎头赶上尚不清楚,因为人们对图案和美学数据的感知存在局限性。
(如果您持怀疑态度,请尝试检测人工智能生成的文本:https://roft.io/)我们无法像模型那样检查图像到像素级别。我们无法一目了然地独立分析整个文档中的单词选择和频率。我们可以而且应该构建帮助我们完成这项工作的工具,并且有一些有前途的方法,但是当我们只面对图像、视频或段落时,它就只是我们的眼睛和大脑与内容。我们能赢吗?现在,我们经常 不要。人们每天都会被人工智能生成的内容愚弄,而对于每一个被揭穿或揭露的内容,一定有很多内容从我们身边溜走而未被注意到。
需要记住的一个要点是,这不仅仅是“人们需要更有洞察力”的问题,而且事情并不那么简单,而且如果你不了解人工智能当它们每次出现在你的道路上时生成的材料或深度赝品,这并不全是你的错。有意让这一点变得越来越困难。
因此,生活在这个现实中,我们必须应对一个令人不安的事实。我们不能相信我们所看到的,至少不能以我们已经习惯的方式相信。然而,从很多方面来说,这并不是什么新鲜事。正如我在本系列的第一部分中所描述的,我们内心深处知道,照片可能会被操纵,以改变我们解释它们的方式以及我们感知事件的方式。自报纸和广播发明以来,恶作剧就一直存在。但由于种族的原因,情况有些不同——恶作剧来得又快又猛,总是变得更加复杂,也更难发现。我们不能相信我们所看到的,至少不能以我们已经习惯的方式相信。
还有一层额外的复杂性,因为我们看到的大量人工智能生成的内容,特别是在社交媒体上,是由机器人(或新的生成人工智能术语中的代理)创建和发布的,
参与农业/点击诱饵/诈骗以及我在本系列第 1 部分中讨论的其他目的。通常,我们与负责我们所看到的内容的人员有相当多的距离,他们使用模型和自动化作为工具来生成内容。这混淆了内容的起源,并且使得通过上下文线索推断内容的人为性变得更加困难。例如,如果某个帖子或图片看起来好得(或奇怪)得令人难以置信,我可能会调查海报的动机,以帮助我弄清楚我是否应该持怀疑态度。用户是否拥有可信的历史记录或能够激发信任的机构关系?但是,如果发帖者是一个假帐户,具有人工智能生成的个人资料图片和假名字怎么办?这只会增加普通人尝试识别人为行为并避免诈骗、深度造假或欺诈的挑战。
顺便说一句,我还认为我们持续接触未标记的机器人内容会造成普遍危害。当我们面前的社交媒体越来越多是虚假的,并且“用户”是看似令人信服的机器人时,我们最终可能会使除了我们在模拟生活中认识的人之外的所有社交媒体参与变得非人性化。人们已经很难通过电脑屏幕实现人性化和同理心,因此评论区、社交媒体帖子等网上的辱骂和虐待问题长期存在。人们对网上人性的麻木感是否会恶化,并降低他们对人和模型/机器人/计算机的反应方式?
作为一个社会,我们如何应对,以试图防止被人工智能生成的小说所欺骗?无论有多少个人努力或“做足功课”都不一定能让我们摆脱困境。人工智能生成的内容中的模式和线索可能是人眼无法察觉的,甚至是构建模型的人也无法察觉的。你通常会进行在线搜索来验证你所看到或读到的内容,但这些搜索本身充斥着人工智能生成的内容,因此它们越来越不比其他任何东西更值得信赖。我们绝对需要照片、视频、文本和音乐来了解我们周围的世界,以及相互联系并了解更广泛的人类经验。尽管这堆材料正在受到毒害,但我们无法停止使用它。
我认为接下来可能出现的多种可能性可以帮助解决这一困境。
我认为生成式人工智能不太可能继续以 2022 年至 2023 年的速度变得复杂,除非开发出一种显着不同的培训方法。我们缺乏有机的训练数据,而投入更多的数据来解决问题则显示出收益递减,而且成本过高。我担心人工智能生成的内容无处不在,但我(乐观地)认为这些技术未来的发展速度不会超过缓慢的增量速度,原因我已经写过前。
这意味着我们减轻生成人工智能负面外部性的努力有一个非常明确的目标。虽然我们继续在检测人工智能生成的内容方面遇到困难,但如果技术专家和监管机构付出努力,我们就有机会迎头赶上。我还认为,我们必须努力抵制这种人工智能“失范”的犬儒主义,这一点至关重要启发。我喜欢机器学习,我很高兴成为这个领域的一部分,但我也是一名社会学家和公民,我们需要照顾我们的社区和我们的世界,同时追求技术进步。