英语轻松读发新版了,欢迎下载、更新

如果不考虑偏见和歧视,人工智能安全标准将达不到要求TechPolicy.Press - 科技政策出版社

2024-09-16 10:53:11 英文原文

如果不考虑偏见和歧视,人工智能安全标准将达不到

Serena Oduro / 2024 年 9 月 16 日

Serena Oduro 是 Data Society 的高级政策分析师。

这是一个不为人知的夏天,也是一个奥林匹克夏天,但很多人鲜为人知,在这个夏天,指导人工智能治理的急需的人工智能安全标准的基础开始成为人们关注的焦点。随着公众努力解决人工智能模型融入我们生活的多种方式,越来越明显的是,标准制定机构需要有目的地采取行动,以确保这些标准解决偏见和歧视,以及其他严重影响人工智能的相关危害。今天向公众发布。

7 月,美国领先的人工智能标准制定机构国家标准与技术行业 (NIST) 发布了关于管理两用基础模型误用风险的初步公开草案。虽然该草案解决了国家安全问题,但 NIST 明确指出,它没有解决偏见和歧视问题。这次缺席是错失了解决影响社会的滥用风险的机会,应该引起公众的极大关注。我们已经看到模型如何被用来进一步针对少数群体的暴力,并且正如俄罗斯在 2016 年美国大选中利用社交媒体算法煽动社会分歧所证明的那样,模型甚至被国家行为者用来散布分裂。虽然初稿确实涉及儿童性虐待材料 (CSAM) 和未经同意的亲密图像 (NCII),但其纳入仅强调了解决偏见和歧视的重要性:CSAM 和 NCII 问题根源于性别暴力,不能没有更广泛的背景就可以有效地解决或理解。偏见和歧视是对我们社会的根本影响,国家和独立行为者可以利用它们来威胁我们的安全。任何对人工智能治理工作进行监管和制定标准的尝试都必须将偏见和歧视视为一个跨领域的中心问题并加以解决。简而言之,它们不属于一个单独的桶。

充分解决算法偏见和歧视对历史上边缘化社区以及我们的政府和社会结构、我们的人工智能政策、标准和标准构成的严重威胁-制定过程必须以宣传和研究为指导,强调具有歧视性的人工智能系统的类型和用途,并实施和推进保护公众所需的方法、实践和政策。人工智能标准应使历史上边缘化社区的咨询成为常态,并在整个人工智能开发和风险评估过程中优先考虑他们的要求。包括数据科学家、机器学习工程师、人文专家、社会科学家以及用户体验研究人员和设计师在内的众多专家为人工智能开发和风险管理提供信息并参与其中也应该成为一种常态,从而避免许多有害的方式明显的偏见和歧视得到解决,并相应地建立了补救流程。

NIST 7 月发布的人工智能风险管理框架:生成人工智能概况让我们了解了人工智能标准如何应对偏见和歧视。该概要文件是一份 60 页的文档,采用了 NIST 人工智能风险管理概要文件中的四个功能(治理、映射、测量和管理,将这些视为人工智能开发和管理过程的阶段),并提供了跨它们建立实践的操作该简介将有害偏见和同质化确定为生成人工智能带来的十二种风险之一,并提供了解决这些风险的行动,例如对生成人工智能系统进行持续监控,以了解其对子系统的影响。-人口。然而,今年早些时候发布的征求公众意见草案中为解决有害偏见而建议采取的行动(包括确保风险评估、参与方法和歧视评估方法方面的多学科专业知识的行动)的具体性在最终版本中有所降低。虽然需要精简庞大的初始草案并不奇怪,但没有理由阻止确保公众免受人工智能伤害所需的行动和方法。

如果指导方针列出人工智能风险管理标准不会提供有关偏见和歧视的深入指导,但其他授权的跨学科网站这样做至关重要。NIST 的美国人工智能安全研究所和评估人工智能的风险和影响 (ARIA) 计划是创建深入标准以评估和防止偏见和歧视的两个潜在地点。然而,科技行业的主导地位、将偏见和歧视视为一个独特的问题领域以及对模型测试和技术评估的过度关注可能会阻碍这种潜力,而不仅仅是在 NIST 或美国。随着世界各地制定人工智能标准(包括制定《欧盟人工智能法案》下的通用人工智能实践守则),必须将解决偏见和歧视问题作为核心焦点。这意味着集中声音、目标、专业知识和方法,这些声音、目标、专业知识和方法具有丰富的指导意义,但在人工智能领域经常被忽视,包括历史上边缘化社区的需求、参与方法、人种学方法和其他社会技术形式的评估。

确保人工智能标准充分、有力地解决偏见和歧视问题以保护公众,这将是一场艰苦的战斗。但这些担忧不能被忽视。拒绝优先解决偏见和歧视问题,对建立解决人工智能危害和构建推动我们所有人前进的人工智能系统所需的标准和实践造成了巨大的障碍。随着这个人工智能标准的夏季逐渐冷却到秋季,我们必须评估迄今为止已建立的内容并重新致力于确保正在建立的标准真正保护公众。

关于《如果不考虑偏见和歧视,人工智能安全标准将达不到要求TechPolicy.Press - 科技政策出版社》的评论


暂无评论

发表评论