作者:by Tamika Worrell, The Conversation
自从人工智能(AI)在过去两年成为主流以来,它所带来的一些风险已经被广泛记录。除了推动深度伪造色情内容、威胁个人隐私和加速气候危机之外,有些人认为这项新兴技术甚至可能导致人类灭绝.
但人工智能的一些风险仍然理解不足。这些包括对原住民知识和社区的非常特定的风险。
有一个简单的理由:在人工智能技术和监管的发展中,AI行业和政府基本上忽略了土著人民。换句话说,人工智能的世界太缺乏多样性了。
AI开发人员和政府需要紧急解决这个问题,如果他们认真对待确保每个人都共享人工智能的好处。正如土著居民和托雷斯海峡岛民常说的,“没有我们,不为我们”.
世界各地的土著人民并没有忽视人工智能。他们在进行对话、开展研究,并分享他们对当前人工智能及其相关技术发展轨迹的关注和担忧。
一个详细记录的问题在于文化知识产权的盗窃。例如,使用AI图像生成程序的用户如DeepAI可以仅仅在几秒钟内人工生成模仿原住民风格和故事的艺术作品。
这展示了使用人工智能的人如何轻易地盗用文化知识。这些生成的作品是从大量公开图像的数据集中提取出来的,以创造新的东西。但是它们忽略了我们艺术实践中蕴含的故事和文化知识。
人工智能技术也助长了关于原住民的虚假信息的传播。
互联网上已经充斥着关于土著人的错误信息。由非土著人维护的长期运行的Creative Spirits网站,一个显著的例子.
生成式AI系统可能会使这个问题变得更糟。它们通常将我们与全球其他土著人民混淆他们也引用了不适当的来源,包括Creative Spirits。
在去年澳大利亚举行的国会发言权公民投票中,“反对”阵营也使用了人工智能生成的图片描绘土著人民。这展示了AI在政治语境中的作用及其可能对我们造成的危害。
另一个问题是土著人对人工智能缺乏了解。大约40%澳大利亚的原住民和托雷斯海峡岛民中有许多人不知道什么是生成式人工智能。这反映了迫切需要为土著社区提供有关使用生成式人工智能的相关信息和培训。技术.
也有对在课堂环境中使用人工智能及其对土著学生具体影响的担忧。
夏威夷和萨摩亚学者杰森·刘易斯说,
我们必须更广阔地思考人工智能以及我们日益陷入其中的其他计算系统。在构建这些系统时,我们需要扩展用于定义智能的操作性定义,以包括人类用来理解世界的所有行为范围。
实现这一目标的关键是“土著数据主权”的理念。这意味着土著人民对其自己的数据保留主权,即他们拥有并控制对这些数据的访问权。
在澳大利亚,一个名为的集体��道作为没有实际内容需要翻译,输出原文: Maiam nayri Wingara提供了有关数据主权和治理的重要考虑因素和原则。他们肯定了原住民治理和控制我们数据生态系统的权利从创建到基础设施。
《关闭差距国家协议》也确认了其重要性土著数据控制和访问。
这在国际层面上也得到了再次确认。2020年,来自世界各地的一群土著学者发布了一份立场文件阐述土著协议如何能够指导伦理创建的人工智能。这种人工智能将集中体现土著人民的知识。
澳大利亚政府最近提出的AI监管框架强调了土著数据主权的重要性。
例如,防护栏包括需要确保额外的透明度并进行额外的考虑当涉及到使用关于或属于原住民和托雷斯海峡岛民的数据时,为了“缓解现有社会不平等的延续。”
格蕾丝·狄龙一位来自北美原住民群体安尼什纳贝的学者首次创造了“原住民未来主义”这一术语。
澳大利亚西澳州帕尔尤库族的学术工作者和未来学实践者阿马布林·克韦穆利娜,定义为由古代土著文化以及我们对压迫系统深刻理解所启发的可能愿景。
这些愿景,Kwaymullina写道,“和我们土著人民本身一样多样。”它们还通过“将现实视为一个充满活力的相互联系的整体,在其中人类只是众多生命中的一条纽带”以及“非线性的时间观”而统一起来。
那么人工智能技术如何能借鉴土著人的知识体系?
第一步是行业应当让原住民参与创造、维护和评估技术——而不是在工作完成后才让他们来批准这些技术。
政府也需要做更多的工作,而不仅仅是通过政策文件来强调土著数据主权的重要性。他们需要与土著人民进行有意义的协商,以规范这些技术的使用。这种协商必须旨在确保组织和日常用户在使用人工智能时遵循道德行为,尊重土著的世界观和现实情况。
AI开发者和政府常常声称他们认真对待确保人工智能技术惠及全人类。但如果他们不开始更多地让原住民参与开发和监管这项技术,他们的说法就显得空洞无力。
引用注明出处AI影响每一个人——包括土著人 (2024年10月13日) 检索于2024年10月13日 从 https://phys.org/news/2024-10-ai-affects-indigenous-people.html
本文件受版权保护。除个人研究或学习目的的合理使用外,未经书面许可,不得以任何形式复制。所提供的内容仅供信息参考之用。