作者:Written byCivic Media Observatory
本报告是 Data Narratives 的一部分,公民媒体观察站该项目旨在识别和理解萨尔瓦多、巴西、土耳其、苏丹和印度用于治理、控制和政策的数据话语。了解有关该项目的更多信息 这里并查看我们的 公共数据集。
强大的参与者、政府和企业积极塑造叙事关于人工智能(AI)以推进社会和治理的竞争愿景。这些叙述有助于确定公众的看法,以及人工智能在日常生活中的部署(从监视到自动化决策)中哪些内容应被视为正常或不可避免。虽然公共信息将人工智能系统视为进步和效率的工具,但这些技术越来越多地用于监控人口并以多种方式剥夺公民的政治参与权。由于影响全球如何讨论人工智能的许多不同的文化价值观、议程和概念,人工智能的叙事挑战变得更加复杂。在数据加剧不平等、不公正或非民主治理的背景下,考虑这些差异至关重要。随着这些系统继续被有镇压历史的政府所采用,民间社会组织了解和反击使这些工具的不民主应用合法化的人工智能叙事变得至关重要。
我们建立在以下基础之上:不自由监视器进行我们的数据叙事研究进入五个面临不同民主威胁的国家的数据讨论:苏丹、萨尔瓦多、印度、巴西和土耳其。为了更好地理解这些国家与人工智能、激励措施和公共利益保护策略的关系,将人工智能作为一种数据叙述进行背景分析是有帮助的。人工智能治理本质上涉及数据治理,反之亦然。人工智能系统依赖大量数据进行训练和操作,而人工智能系统由于广泛集成到日常功能中而获得易读性和价值,然后生成工作所需的大量数据。
人工智能这个词本身就存在争议。人工智能的传统定义——例如由欧盟人工智能法案– 试图为政策制定者提供必要的范围来制定有效的治理政策;然而,这些尝试几乎总是达不到要求由于所谓智能系统的形式和功能普遍存在差异,无意中将某些系统排除在监督之外。定义人工智能的方法因领域而异。这可以通过以下方式说明调查数据其中,计算机科学家关注技术系统功能,而政策制定者则关注他们认为类似于人类思维和行为的系统方面之间的隐喻联系。这表明即使人工智能这个术语也是有叙述性的。我们通过接受大众媒体以及政府和研究媒体的广泛使用来开始理解它。
全球多样性 人工智能的叙述术语反映文化价值观和优先事项的国际差异。许多语言都将“智能”一词归因于这些系统,但不同文化对于智能的含义有着不同的概念。仅仅使用“智能”一词就将技术赋予了类似人类的品质,这可能会让人产生一种错误的感觉,认为人工智能是自主且强大的,而不是由人类开发和控制的工具。人工智能的拟人化描述符可能会掩盖底层基础设施及其发展背后的商业利益 - 并通过促使公众产生误导来误导公众关于技术如何工作以及在特定用例中是否应该信任的错误推断。因此,利用拟人化描述的人工智能叙述可能会阻止公众对人工智能系统的批评。
这种语言赋予的智能超出了系统的能力,可以根据推销这些工具的企业框架叙述来理解。由于先进的人工智能系统,特别是生成式人工智能,需要大量的计算资源和基础设施,而只有少数公司才能负担得起,因此人工智能开发的权力一直在被忽视。集中在大型科技公司像谷歌和微软这样的公司。这项技术主导地位使这些公司比叙述更有优势关于人工智能系统,推动叙事表明他们对这项技术的特权控制是为了公共利益,因为他们的承诺它将为每个人“实现人工智能的民主化”。事实上,这些模型根本无法平等地实现知识民主化,因为这些技术无法在其输出中区分事实和虚构,从而证明“知识”的自由主义定义是合理的,而且它们对不同的人提供了不同的反应,因为用户语音中编码的身份信息的性质。 生成式人工智能的流行 进一步扩大美国企业在其他国家的影响力决定了社交媒体平台上提出的问题和对话,并决定了哪些研究可以获得资助。
将人工智能系统定义为智能更加复杂,并且与邻近的叙述交织在一起。在美国,人工智能的叙述常常围绕着相反的主题,例如希望与恐惧,经常弥合两种强烈的情感:存在的恐惧和经济愿望。无论哪种情况,他们都认为这项技术是强大的。这些叙述有助于围绕人工智能工具的炒作及其对社会的潜在影响。一些例子包括:
许多这样的框架通常将人工智能呈现为一股不可阻挡的加速力量。虽然这种叙述可以激发人们对人工智能研究的兴奋和投资,但它也可能助长一种技术决定论的感觉,以及缺乏对广泛采用人工智能的后果的批判性参与。反叙事有很多,涉及监视、信任侵蚀、偏见、工作影响、劳动力剥削、高风险用途、权力集中和环境影响等主题。
这些叙事框架与用于描述人工智能的隐喻语言和图像相结合,导致了公众对该技术的混乱和缺乏了解。通过将人工智能定位为国家成功的变革性、不可避免的和必要的工具,这些叙述可以塑造公众舆论和政策决策,通常以优先考虑快速采用和商业化的方式。
您可以单击下表来浏览我们在下一节中调查和描述的叙述:
巴西围绕人工智能的讨论主要集中在监管措施上,并且由于巴西主办了G20今年(2024年)进行了一系列涉及数据治理问题的准备工作和会外活动,例如网络世界+10。讨论的关键法规是法案 2338/2023,旨在建立开发、实施和负责任地使用人工智能系统的国家标准。除了该法案外,还有针对特定部门的立法提案,例如将色情深度假货定为犯罪,以及有针对性的行动,例如高级选举法院 2024 年关于人工智能和选举的决议。
在这种背景下,我们的研究人员绘制了三个基本叙述。第一个叙述,巴西需要保持在监管新技术的前沿,涵盖了巴西现任左翼政府和公民社会成员希望像 2014 年一样回到监管新技术前沿的愿望,即“Marco Civil da Internet”(巴西互联网民权框架)。第二个叙述,巴西需要监管人工智能以避免落后,也遵循监管的紧迫感,但受到保守右翼的推动,自由党 (PL),它优先考虑促进基于人工智能创新蓬勃发展的安全商业环境。第三个叙述,监管人工智能阻碍巴西的创新由该国新自由主义右翼推动,宣扬监管人工智能将阻碍巴西人工智能产业发展的思想。
2023 年 11 月,演员 Rashmika Mandanna 的 AI Deepfake 视频在社交媒体上流传,在印度引发了一场关于人工智能监管的重要对话。图像操纵的确认引发了关于政府在控制人工智能深度伪造和减轻潜在危害方面的作用的讨论。这场辩论延伸到了对人工智能对选举影响的担忧,促使政府警告平台关于 AI Deepfakes 并发布咨询用于自我监管和标记人工智能生成的内容。这些措施是在纳伦德拉·莫迪总理发表公开讲话之后采取的,强调了威胁人工智能深度造假及其对公民的潜在危害。
在讨论的第一阶段,即人工智能深度换脸视频发布后,我们的研究人员绘制了两个主要叙述。第一个叙述,印度政府致力于确保公民的互联网安全,以监管的形式宣传政府针对虚假信息、仇恨言论和网络骚扰的一般行动。第二个叙述,印度政府对人工智能深度假货的反应是混乱和反应性的,由诸如互联网自由基金会质疑政府的反应措施,并认为这些措施是在没有对所涉及的不同问题进行知情评估的情况下采取的。
后来,当焦点转向选举时,我们的研究人员绘制了另外三个叙述。前两个叙述,印度反民族分子将利用人工智能深度伪造技术, 和人工智能深度假货的制造者和托管它们的平台是选举操纵的真正推动者该法案由政府提出,旨在将人工智能虚假信息归咎于反对党、社交媒体平台和制作深度造假视频的人,而不促进制定严格的法规来解决这一问题。第三个叙述,印度人工智能虚假/错误信息的解决方案不应只是禁止和删除内容,也受到诸如互联网自由基金会,要求政府做出更有效的反应,考虑政治问责并加强媒体体系。
这苏丹内战自2023年4月持续至今,深刻影响了苏丹社会的方方面面。2023 年 5 月,苏丹武装部队 (SAF)利用国家电视台散布虚假信息,声称视频穆罕默德·哈姆丹·达加洛 (Hemedti), 这快速支援部队(RSF)指挥官,是人工智能生成的,赫梅蒂已经死了。然而,Hemedti 于 2023 年 7 月再次出现无国界医生组织在 X(以前称为 Twitter)上发布了一段与他的部队录制的视频,新加坡武装部队的支持者利用该视频来支持他们对他的死亡的叙述,声称:无国界医生组织 (RSF) 使用人工智能深度伪造技术进行军事欺骗。”2024 年 1 月,SAF 的信誉受损海梅蒂公开露面在该地区访问期间与多位非洲领导人会面。
在人工智能武器化的过程中,我们的研究人员绘制了三个关键叙述。第一个叙述,如上所述,无国界医生组织利用人工智能深度伪造技术进行军事欺骗由 SAF 及其支持者发起的,旨在通过将 RSF 与人工智能 Deepfake 联系起来来抹黑 RSF,并指责他们欺骗人们,让人们相信他们的指挥官 Hemedti 还活着。第二个叙述,阿拉伯联合酋长国和以色列利用人工智能在苏丹通过议程同样由苏丹武装部队支持者推动的《阿拉伯联合酋长国》认为,阿拉伯联合酋长国利用人工智能在苏丹通过其议程,以促进无国界部队的发展,同时损害了苏丹武装部队的声誉。以色列和阿联酋加强了人工智能创新合作,在他们根据《亚伯拉罕协议》达成和平协议后,这一范围不断扩大。无国界医生组织与阿联酋有着密切的联系,过去曾寻求与以色列建立独立关系官方国家渠道之外。
第三个叙述,无国界医生组织不会使用人工智能深度伪造技术进行军事欺骗由无国界医生组织及其支持者发起的项目,反驳了新加坡武装部队的指控,并否认在其在线行动中使用人工智能深度伪造技术进行军事欺骗。
在土耳其,炒作是讨论人工智能时的主导因素,但人工智能经常被误解并被视为一种神奇的解决方案。许多公共和私营部门实体转向人工智能来塑造一个精通技术、进步和客观的形象,用它来防御偏见或落后的指控。然而,这种乐观情绪与现实形成鲜明对比。令人沮丧的或者辱骂的许多土耳其人在日常生活中都有过人工智能的经历。
在这种观念的冲突中,我们的研究人员绘制了两种叙述。第一个叙述,人工智能是公正的,它本身就可以解决土耳其人民的许多问题由执政党、反对派甚至国家足协提出的“人工智能”将人工智能描述为始终公正、客观且优于人造系统,无论其为何/如何/在何处使用。第二个叙述,人工智能造成的问题多于它解决的问题,含蓄地断言并展示了使用人工智能的威胁,包括加剧现有的社会问题和产生新的社会问题。
我们的研究人员发现的叙述也显示了对话中的缺席。最明显的例子是萨尔瓦多,那里没有发现讨论人工智能的关键叙述。我们的研究表明,萨尔瓦多社会对话中蓬勃发展的数据治理主题主要是加密货币政策和数据保护问题。
数据保护问题也是围绕数据治理讨论的因素印度,苏丹, 和火鸡。然而,在这些国家中,对个人数据泄露或滥用的担忧都与人工智能有关。即使在正在讨论可能的法规的国家,似乎也没有讨论用于支持人工智能系统的数据来源以及可能或可能不会对人们隐私产生的影响。关于人工智能对就业的潜在影响的讨论也发生了同样的情况——没有任何本地叙述讨论人工智能可以为工作场所的人们带来的威胁或机会。
我们的研究中描绘的叙述也没有提供任何乐观或与人工智能明确的积极联系。只有在土耳其,人工智能才被视为一种有效的工具,尽管它主要是神秘的,用于话语中,作为掩盖低效率的沟通策略。
我们研究人员的工作还表明,在所研究的国家的社会中,没有任何有影响力的叙述来解决人工智能可能对国家军事或警察能力产生的影响,这与在美国。仅在火鸡和萨尔瓦多我们的研究人员是否发现有关其政府可能从事间谍活动的积极对话?然而,在任何这些事件中,所映射的叙述都将问题与人工智能联系起来。侵犯人权的情况也是如此;没有讨论人工智能如何预防或促进它们。
我们的研究同样表明,关于人工智能为当前掌权或渴望获得权力的独裁领导人带来的机会,并没有进行深入的社会辩论。似乎很少有人讨论它是否会加剧“没有无可争议的真理”的观念,以及这种不信任的气氛如何损害民主国家。
想要保护民主和人权的民间社会组织必须更好地了解全球人工智能的叙述。我们现在看到了第一个生成式人工智能影响的选举。算法驱动的威权主义和使用人工智能镇压范围很广,包括深度虚假宣传、监视、内容审核、网络战和人工智能武器。对特定人工智能威胁和人工智能政策的区域关注是存在的,但有必要就人工智能对民主和人权的影响进行更广泛的公共叙述。通过数据叙事观察站进行的研究表明,区域性对话常常忽视人工智能系统、数据治理和权力之间的关键联系。需要改变叙事并创建叙事基础设施。将人工智能视为数据生态系统的一部分,而不是将其拟人化为智能,有助于对抗有害且过于简单化的人工智能叙述。这还可以帮助公众了解数据和人工智能权利,因为人工智能政策取决于数据治理。当考虑人工智能的发展以及人工智能在行业中所扮演的角色时,这种关系尤其重要。监控管道。
我们的研究揭示了全球人工智能讨论中的重大差距。在萨尔瓦多,围绕数据治理的社会对话集中在加密货币政策和数据保护上,而对人工智能的关注很少。巴西、印度和苏丹等国家讨论了人工智能深度造假及其在虚假信息中的使用,但这些很少讨论人工智能对数据隐私或就业的影响。对人工智能的乐观态度并不常见,除了在土耳其,人工智能被宣传为一种解决方案,尽管通常是肤浅的。关于人工智能对军事和警察能力、人权的影响及其支持独裁政权或破坏民主价值观的潜力的讨论明显缺失,这凸显了需要更全面和批判性地参与人工智能在全球范围内的社会影响。
可以通过尊重围绕核心问题的叙述力量的方法来加强有前途的新兴人工智能治理方法。面向社区的数据和人工智能治理举措,例如通过数据连接和本土数据主权网络,例如特马纳拉朗加展示集体管理如何挑战公司控制和国家监督。最近,还做出了一些努力,例如培育联合人工智能共享生态系统受到工作启发的政策简报编码权呼吁 G20 支持人工智能生态系统,强调以社区为中心的特定任务人工智能,旨在遏制技术垄断势力。Mozilla 基金会追踪还有更多为社区赋能的数据举措。
这些想法可能很强大,但它们的成功取决于在不同社区内建立支持。叙事研究表明它们可以有效地影响公共结果,但是挑战出现当试图从基层发展叙事时。如果没有刻意的叙事改变,占主导地位的人工智能叙事可能会加剧并导致:
这些发现凸显了扩大对人工智能叙事的研究的迫切需要——不仅要记录它们,还要帮助民间社会制定有效的反叙事和策略。文档对于使社会能够建立挑战公司控制和国家监视的叙事基础设施至关重要。最有可能抵抗人工智能镇压的社区必须对不同社区如何概念化和讨论人工智能进行细致入微的理解,以制作在当地引起共鸣并为更大的全球运动做出整体贡献的信息。我们首先了解现有的叙述。我们利用这些知识帮助社区认识并抵制人工智能系统的滥用。反过来,他们可以利用这些信息来推进以人权和民主价值观为中心的人工智能治理的替代愿景。
一个是。(2021)。Aisforanother.net。https://aisforanother.net/
第 3 条:定义 |欧盟人工智能法案。(2024 年 6 月 13 日)。生命未来研究所。https://artificialintelligenceact.eu/article/3/
人工智能 (AI) 与人权:利用人工智能作为镇压武器及其对人权的影响 |智库|欧洲议会。(2024)。欧洲.eu。https://www.europarl.europa.eu/thinktank/en/document/EXPO_IDA(2024)754450
奥萨特。(2023 年 4 月 22 日)。Al-Burhan 和“Hemedti”消失在哪里?https://aawsat.com/home/article/4287326/%D8%A3%D9%8A%D9%86-%D9%8A%D8%AE%D8%AA%D9%81%D9%8A-%D8%A7%D9%84%D8%A8%D8%B1%D9%87%D8%A7%D9%86-%D9%88%C2%AB%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A%C2%BB%D8%9F一个
布赖森,J.J.(2022 年,3 月 2 日)。欧洲正面临使用人工智能错误定义的危险。有线。https://www.wired.com/story/artificial-intelligence-regulation-european-union/
促进社区活动。(2024 年 9 月 26 日)。通过数据连接。https://connectedbydata.org/projects/2023-catalysing-communities
预防行动中心。(2024 年 10 月 3 日)。苏丹内战。全球冲突追踪;外交关系委员会。https://www.cfr.org/global-conflict-tracker/conflict/power-struggle-sudan
Celso Pereira, P.,Jungblut, C.(2014 年,3 月 25 日)。与议事亭前的马可民事和互联网项目有关。噢,环球报。https://oglobo.globo.com/politica/camara-aprova-marco-civil-da-internet-projeto-segue-para-senado-11984559
Chubb, J.、Reed, D. 和 Cowling, P. (2022)。专家对人工智能叙事缺失的看法:是否存在人工智能故事危机?人工智能与社会。https://doi.org/10.1007/s00146-022-01548-2
D·Souza,A.A.(2024 年,4 月 24 日)。印度尝试监管人工智能。Iapp.org。https://iapp.org/news/a/indias-foray-into-regulate-ai
Edsall, T. B.(2024 年,6 月 5 日)。意见 |威尔·A.I.成为世界的创造者还是毁灭者?纽约时报。https://www.nytimes.com/2024/06/05/opinion/will-ai-be-a-creator-or-a-destroyer-of-worlds.html
Foodman, J.(2024 年,8 月 12 日)。理事会帖子:人工智能正在改变世界和您的业务。福布斯。https://www.forbes.com/councils/forbesbusinesscouncil/2023/07/24/artificial-intelligence-is-changing-the-world-and-your-business/
框架人工智能。(2023 年 10 月 12 日)。根本原因。https://rootcause.global/framing-ai/
资助叙事变革、评估和框架。(2022 年 9 月 30 日)。融合伙伴关系。https://convergencepartnership.org/publication/funding-narrative-change-an-assessment-and-framework/
生命未来研究所。(2023 年 3 月 22 日)。暂停巨型人工智能实验:一封公开信。生命未来研究所。https://futureoflife.org/open-letter/pause-giant-ai-experiments/
格罗斯曼,G.,埃德尔曼。(2023 年 10 月 15 日)。5年后比人类聪明?人工智能的飞速发展。风险投资。https://venturebeat.com/ai/smarter-than- humans-in-5-years-the-breakneck-pace-of-ai/
打破父权制 – 编码权利。(2024 年 9 月 4 日)。编码权利。https://codingrights.org/en/
哈琳娜 (Halina),M. 和谢夫林 (Shevlin),H. (2019)。小心地在人工智能中应用丰富的心理学术语。英国Cam.ac.uk。https://doi.org/10.17863/CAM.37897亨尼西,Z.(2023)。
以色列和阿联酋联手加速阿布扎比的人工智能创新。耶路撒冷邮报。https://www.jpost.com/business-and-innovation/article-742509Åspir, E.(2023 年,3 月 29 日)。
Yapay Zekayla Müstehcen ä°çeriklerini Yapä±p,Taciz Ettiler!—Sonuna Kadar Peåindeyim。 —奥尼迪奥。https://onedio.com/haber/yapay-zekayla-mustehcen-iceriklerini-yapip-taciz-ettiler-sonuna-kadar-pesindeyim-1137454
Jain, R.(2024 年 5 月 9 日)。ChatGPT 创建者 Sam Altman 认为这是一个“非常非常严重的问题”,我们没有“认真地对待人工智能对就业和经济的威胁”。本辛加。https://www.benzinga.com/news/24/05/38725610/chatgpt-creator-sam-altman-feels-its-a-massive-massive-issue-that-we-dont-take-ais-threat-到-工作-an
Javaid,U.(2024 年,5 月 31 日)。人工智能民主化:为什么开放更广泛的人工智能访问至关重要。福布斯。https://www.forbes.com/councils/forbestechcouncil/2024/05/31/democratizing-ai-why-opening-wider-access-to-ai-is-vital/
Kak, A. 和 Myers West, S. 编辑。(2024 年 3 月)。人工智能民族主义:人工智能的全球产业政策方法。现在人工智能研究所。(2024)。https://aiwininstitute.org/ai-nationalisms
Kak, A.、Myers West, S. 和 Whittaker, M.(2023 年,12 月 5 日)。毫无疑问,人工智能归大型科技公司所有。麻省理工学院技术评论。https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ai-is-owned-by-big-tech/
Kalluri、Pratyusha Ria、Agnew, W.、Cheng, M.、Owens, K.、Soldaini, L. 和 Birhane, A.(2023 年,10 月 17 日)。监控人工智能管道。ArXiv.org。https://arxiv.org/abs/2309.15084
Khanal, S.、Zhang, H. 和 Taeihagh, A.(2024 年,3 月 27 日)。大型科技公司的力量为何以及如何在政策制定过程中增强?生成人工智能的案例。政策与社会(印刷版)。https://doi.org/10.1093/polsoc/puae012
Krafft, P. M.、Young, M.、Katell, M.、Huang, K. 和 Bugingo, G.(2020 年 2 月 7 日)。在政策与实践中定义人工智能。AAAI/ACM 人工智能、伦理与社会会议论文集。https://doi.org/10.1145/3375627.3375835
Lakhani, K.(2023 年 8 月 4 日)。人工智能不会取代人类,但拥有人工智能的人类将取代没有人工智能的人类。哈佛商业评论。https://hbr.org/2023/08/ai-wont-replace-Humans-but-Humans-with-ai-will-replace-Humans-without-ai
Magally, N. 和 Younis, A.(2021 年,6 月 26 日)。摩萨德与赫梅蒂的会面激起了苏丹的愤怒。(2021)。Aawsat.com。https://english.aawsat.com/home/article/3048136/mossad-meetings-hemedti-stir-anger-sudan
曼森,K.(2024 年,2 月 28 日)。人工智能战争已经到来。彭博社。https://www.bloomberg.com/features/2024-ai-warfare-project-maven/Markelius, A.、Wright, C.、Kuiper, J.、Delille, N. 和 Kuo, Y.-T。
(2024 年 4 月 2 日)。人工智能炒作的机制及其全球和社会成本。人工智能与道德(印刷版)。https://doi.org/10.1007/s43681-024-00461-2
Mozilla 基金会。(2021)。研究收集:赋权数据。Mozilla 基金会。https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/
微软。(2024)。人工智能向善实验室。微软研究院。https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/
Naprys, E.(2023 年,11 月 27 日)。中国 vs 美国:谁将赢得人工智能霸主之争 |网络新闻。https://cybernews.com/tech/china-usa-artificial-intelligence-race/
叙事力。(日期不详)。叙事力量。https://narrative.colorofchange.org/
诺瓦克,M.(2023 年,11 月 5 日)。女演员 Rashmika Mandanna 的病毒视频实际上是 AI Deepfake。福布斯。https://www.forbes.com/sites/mattnovak/2023/11/05/viral-video-of-actress-rashmika-mandanna-actually-ai-deepfake/
普拉卡尼,A.(2024 年,2 月 5 日)。人工智能中的拟人化:炒作和谬误。人工智能与道德,4。https://doi.org/10.1007/s43681-024-00419-4
Read, J.(2024 年,3 月 1 日)。培养一支为制造业人工智能集成做好准备的劳动力·EMSNow。现在EMS。https://www.emsnow.com/nurturing-a-workforce-ready-for-ai-integration-in-manufacturing/
阿拉伯天空新闻。(2023 年 7 月 28 日)。视频:这是赫梅蒂几个月来首次露面时所说的话。https://www.skynewsarabia.com/middle-east/1640960-%D9%81%D9%8A%D8%AF%D9%8A%D9%88-%D9%87%D8%B0%D8%A7-%D9%82%D8%A7%D9%84%D9%87-%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A-%D8%A7%D9%94%D9%88%D9%84-%D8%B8%D9%87%D9%88%D8%B1-%D8%B4%D9%87%D9%88%D8%B1
特马纳拉朗加。(日期不详)。特马纳拉劳加。https://www.temanararaunga.maori.nz/
莫迪总理警告提防深度造假;呼吁媒体教育人们了解错误信息。(2023 年,11 月 17 日)。印度教徒。https://www.thehindu.com/news/national/pm-modi-warns-against-deepfakes-calls-on-media-to-educate-people-on-misinformation/article67543869.ece
TSE – 高级选举法庭。(2024 年 3 月 1 日)。TSE com 重新发布为 2024 年 Elei 的公共决议。(2024)。选举正义。https://www.tse.jus.br/comunicacao/noticias/2024/Marco/eleicoes-2024-publicadas-resolucoes-do-tse-com-regras-para-o-pleito
瓦伦,J.(n.d.)。T20 政策简报 培育联合人工智能共享生态系统 1 TF05 - 包容性数字转型。副主题 5.5 - 人工智能的挑战、机遇和治理。2024 年 12 月 19 日检索自https://codingrights.org/docs/Federated_AI_Commons_ecosystem_T20Policybriefing.pdf
Vengattil, M. 和 Kalra, A.(2023 年,11 月 24 日)。印度警告 Facebook、YouTube 执行规则以阻止深度造假——来源。路透社。https://www.reuters.com/world/india/india-warns-facebook-youtube-enforce-rules-deter-deepfakes-sources-2023-11-24/
雅虎财经视频。(2023 年 10 月 21 日)。谷歌正在为非专业商业应用程序创建“人工智能民主化”|加密货币一英里。雅虎财经。https://finance.yahoo.com/video/google-democratising-ai-non-expert-113148816.html