监管人工智能可能会威胁言论自由,就像之前对其他媒体提出的监管规定一样。
|
(插图:Lex Villena;Ginasanders | Dreamstime.com)
在世界经济论坛将人工智能(AI)称为“人工智能”之后,围绕人工智能对错误信息和虚假信息的影响的公众讨论似乎有所增加。最大的短期风险2024 年。但人工智能的突然崛起并不是我们第一次看到对受操纵媒体的潜在影响的担忧。
这个选举季见证了两方面的情况决策者和按表达了对人工智能可能如何导致影响选举的错误信息和虚假信息的担忧。然而历史告诉我们,当人们担心新技术会导致公众无法辨别真假时,怪物往往只是树木。
人工智能并不是我们第一次面临政治背景下媒体被操纵的恐惧。正如美国行动论坛的杰弗里·韦斯特林 (Jeffrey Westling) 在 2020 年就深度假货的潜在担忧所指出的那样,“历史上充满了欺骗性做法——来自汉尼拔的假战营威尔·罗杰斯的过于真实的模仿[亨利]杜鲁门总统致[约瑟夫]斯大林消失从照片中看到敌人。”
事实上,在1910年代,担心伪造照片中潜在的“错误信息”导致人们呼吁禁止(字面意思)“Photoshop”,这听起来非常像今天监管或禁止人工智能工具的呼吁。幸运的是,国会并没有禁止这些现有技术,因为它们可能会以误导性的方式使用或滥用,而且我们看到相同工具对表达产生了许多有益的影响。
虽然一些受操纵的媒体可能会像过去一样造成不确定性或不适,但在政治背景下对人工智能的监管可能会造成言论自由问题。围绕人工智能的模糊定义或所涵盖的内容类型可能会禁止政治话语工具,如果它们包含对政治人物或选举的提及,包括有趣的模因或周六夜现场以良性或有益的方式使用人工智能技术的短剧,例如音频或视觉编辑工具或自动翻译。
因此,合法的、受保护的言论形式,包括模仿等政治评论,可能会因繁重的监管而被压制。如果平台发现自己承担潜在责任,围绕选举中人工智能使用的规则也可能会阻止人工智能服务提供有关候选人立场或政策的事实信息。
通常,强制性人工智能标签被视为一种可能比禁止在选举或政治环境中使用人工智能更具侵入性的替代方案。然而,政府强制的标签与平台自愿建立的标签不同,可能无法达到提高消费者认知的目标。尽管本意是好的,但政府规定的标签甚至可能要求将普通过滤器或标准实践贴上人工智能生成的标签,如果不区分公开的、操纵性的使用和中立的人工智能使用,可能会导致公众之间不健康的不信任程度。
关于受操纵的媒体,我们了解到的一件积极的事情是,早期误导公众的尝试往往很容易被识别和揭穿。随着更复杂的推销欺诈性图像和视频的尝试的出现,社会更有能力成为挑剔的媒体消费者。
我们已经在某种程度上通过人工智能和其他有关媒体操纵的担忧看到了这一点。考虑两个最近病毒式传播的例子。当一个自称总统乔·拜登的机器人电话告诉选民为大选保留选票时,它很容易被识别为拙劣的假货,而诈骗者被发现并被罚款。今年早些时候,当威尔士王妃凯特·米德尔顿 (Kate Middleton) 和她的孩子们的一张照片被确定为经过处理(可能使用人工智能)时,世界各地的通讯社赶紧举报并删除了图像。
事实证明,市场也对消费者的担忧做出了回应。各个平台已经建立规范允许使用技术工具进行创造性评论,同时帮助用户了解如何处理此类内容。用户现在可以报告他们可能注意到的来自恶意外国行为者的相关活动。
此外,两者政府消息来源以及传统媒体如华盛顿邮报分享了有关潜在外国恶意影响或其他问题的信息以提供帮助用户理解受操纵的媒体可能被如何使用,并帮助个人更好地应对他们在网上遇到的情况。社会不会急于制定可能影响合法言论的潜在法规,而是学习新技能来帮助我们了解真相——如果有的话,教育,而不是法规,往往是最好的回应。
在选举前的最后几天和立即的反应中,我们可能会再次听到对人工智能和错误信息潜力的担忧。正如我们过去所看到的那样,希望社会规范的发展而不是政府法规能够帮助我们走出人工智能的困境。