作者:Guest Writer
自2016年以来,已有30多个国家通过法律明确提到了人工智能,而在2025年,关于立法机构AI法案的讨论在全球范围内有所增加。
联合国教科文组织出版了有关AI法规的咨询论文,它描述了9种监管方法(来自世界各地的例子),对于任何工作或研究AI治理和监管的人来说都是非常有趣的。
从较少的干预主义者,轻触式监管措施到更强制,苛刻的方法,提出了九种AI调节方法。重要的是要注意,下面描述的监管方法不是相互排斥的,并且世界各地的AI法律通常会结合两种或更多方法。
为利益相关者提供一组基本命题(原则),这些主张通过道德,负责人,以人权为中心的过程为开发和使用AI系统提供指导。
联合国教科文组织关于AIâ道德和经合组织人工智能委员会的建议的建议是促进与所有利益相关者有关的AI原则的国际工具的例子。
(完全或部分地)向制定技术标准的组织(将指导强制性规则的解释和实施)委托。
例如,《欧盟AI法案》的《独奏典范》第121条规定,标准化应该发挥关键作用,向提供者提供技术解决方案,以确保与最新的状态相符,以确保对这项法规的遵守,以促进创新,竞争力和竞争力和增长。
此外,同样的独奏会鼓励涉及所有相关利益相关者制定标准的利益的平衡代表,尤其是中小企业,消费者组织以及环境和社会利益相关者。”
生成灵活的监管方案,例如监管沙箱和其他测试台,使组织能够在更灵活的监管条件下测试新的业务模型,方法,基础架构和工具,并与公共当局的监督和伴奏一起测试。
欧盟AI法案就是这种情况,该法案建立了创建AI监管沙箱的框架,根据第3条的规定,该框架是指由有能力的机构建立的混凝土和控制框架,该框架为提供者或潜在的提供者提供了适用于AI系统的规定,以培训,验证和测试限制性的ANDABLE SARMANB的可能性,以实现现实情况,以实现现实情况,这是一项适当的计划。监管监督
促进并启用一个鼓励所有参与AI生命周期的利益相关者开发和使用负责任,道德和符合人权符合人权的AI系统的环境。
例如,在这种方面,联合国教科文组织制定了准备就绪评估方法(RAM),旨在帮助国家了解其在何处的准备规模,以道德和负责任地实施AI的规模,以突出显示所需的机构和监管变化是什么
修改特定部门的规则(例如,卫生,金融,教育,正义)和横向规则(例如,刑事法规,公共采购,数据保护法,劳动法),以逐步改善现有监管框架。
关于与开发和使用AI系统有关的横向规则,例如,欧盟一般数据保护制度(GDPR)的第22条确定,数据主体应有权不受仅根据自动处理的决定,包括对他或类似的法律效应,从而影响他或类似的法律效果。
需要部署透明仪器,使公众能够访问有关AI系统的基本信息。
很少有国家通过监管对公共机构采取算法透明度义务。例如,在法国,法律第6条2016-1321(对于数字共和国)命令公共机构必须发布定义在行使其职能的主要算法过程的规则。
在哥伦比亚,国家政府在2021年发表的AI道德框架得到了一项法令的补充,该法令确立公共机构必须在人工智能项目实施和管理期间促进国家数据的使用(2023年第1263号法令)。
根据对在特定情况下与某些AI工具相关的风险进行评估,确定义务和要求。
当前采用基于风险的方法的法规的一个例子是加拿大关于自动化决策的指令,该指令于2021年3月通过,并于2023年4月进行了修订。
第4.1条规定,该指令旨在确保以降低客户,联邦机构和加拿大社会的风险来确保自动决策系统的部署,并根据加拿大法律做出更有效,准确,一致,一致,可解释的决策。
确定保护个人权利和自由的义务或要求。
John Cantius Mubangizi为非洲国家提出了一种基于人权的方法,以赋予权利权利(具有与义务者有关的特定权利的个人或社会群体),以索取和行使其权利,并加强义务(州或非国家行为者)的能力,这些人必须尊重,保护,促进,促进,晋升和履行人类权利。
将责任和制裁分配给AI系统的有问题用途。
例如,《欧盟AI法案》确立了适用于侵权的罚款(第99条第101条)。有关《 AI法案》禁令的违规行为应缴纳高达35 000 000欧元的行政罚款,或者,如果犯罪者是一项承诺,则最高为上一个财政年度的全球年度营业额的7%(第99条)。