监管人工智能的最佳方式可能不是专门监管人工智能。这就是原因——对话

2024-09-15 20:30:23 英文原文

人工智能的新浪潮,即所谓的人工智能,既带来了希望,也带来了威胁。

通过帮助工人,它可以提高生产力并提高实际工资。通过利用大量未充分利用的数据,它可以改善零售、健康和教育等服务业的成果。

风险包括深度假货、隐私滥用、不可上诉的算法决策、知识产权侵权和大规模失业。

风险和潜在收益似乎都与日俱增。周四,Open AI 发布了新模型,据说可以进行推理、执行复杂的计算并得出结论。

但是,作为竞争和消费者保护方面的专家,我形成了这样的观点:需要针对人工智能制定新的法规很大程度上被误导了。

人工智能的大多数使用已经受到监管

参议院委员会即将报告采用人工智能的机会和影响,我帮助起草了生产力委员会

另外,政府正在就高风险环境中人工智能的强制性护栏进行咨询,这将作为开发人员在自愿安全标准之外应考虑的清单。

我的想法是:人工智能的大部分潜在用途已经被现有的规则和法规所涵盖,这些规则和法规旨在保护消费者、保护隐私和禁止歧视等。

这些法律远非完美,但如果它们不完美,最好的方法是修复或扩展它们,而不是为人工智能引入特殊的额外规则。

人工智能当然可以对我们现有的法律提出挑战,例如,通过使其更容易误导消费者或应用算法来帮助企业串通价格。

但关键是存在控制这些事情的法律,以及在执行这些法律方面经验丰富的监管机构。

最好的方法是让现有规则发挥作用

澳大利亚的巨大优势之一是其监管机构的实力和专业知识,其中包括竞争和消费者委员会、通信和媒体管理局、澳大利亚信息专员、澳大利亚证券和投资委员会以及澳大利亚能源监管机构。

他们的工作应该是表明现有规则涵盖人工智能的范围,评估人工智能可能违反这些规则的方式,并运行测试用例,明确规则的适用性。

这种方法将有助于建立对人工智能的信任,因为消费者看到他们已经受到保护,并为企业提供清晰度。

>

人工智能可能是新事物,但关于什么是可接受的行为和什么是不可接受的行为的既定共识并没有太大变化。

一些规则需要调整

在某些情况下,现有法规需要修改或扩展,以确保涵盖人工智能促进的行为。车辆、机械和医疗设备的审批流程越来越需要考虑人工智能。

在某些情况下,需要新的法规。但这应该是我们结束的地方,而不是我们开始的地方。因为人工智能是人工智能而试图对其进行监管,充其量也是无效的。在最坏的情况下,它将扼杀人工智能在社会上的理想用途的发展。

人工智能的许多用途即使有风险,也几乎不会产生风险。如果存在潜在危害,则需要将其与使用的潜在好处进行权衡。风险和收益应该根据现实世界中以人为本的替代方案来判断,这些替代方案本身远非没有风险。

只有在现有法规得到澄清、修订或扩展的情况下才需要新法规是不够的。

在需要它们的地方,它们应该尽可能保持技术中立。为特定技术制定的规则可能很快就会过时。

后发优势

最后,成为国际监管接受者有很多话要说。欧盟等其他司法管辖区在设计人工智能特定法规方面处于领先地位。

世界各地的产品开发商(包括澳大利亚的产品开发商)如果想要进入欧盟和其他国家,就需要满足这些新规则。其他大市场。

如果澳大利亚制定了自己独特的人工智能特定规则,开发人员可能会忽略我们相对较小的市场并前往其他地方。

这意味着,在人工智能无法发挥作用的有限情况下-需要具体的监管,起点应该是国外已有的规则。

后来者或最后行动者有优势。这并不意味着澳大利亚不应该走在制定国际标准的前沿。这仅仅意味着它应该在国际论坛上与其他国家一起帮助设计这些标准,而不是独自出击。

这一格局仍在发展。我们的目标应该是为自己提供最佳机会,使人工智能的收益最大化,同时提供安全网以保护自己免受不利后果的影响。我们应该从现有的规则开始,而不是针对人工智能的新规则。

关于《监管人工智能的最佳方式可能不是专门监管人工智能。这就是原因——对话》的评论


暂无评论

发表评论

摘要

人工智能的新浪潮带来了希望,也带来了威胁。我的想法是:人工智能的大部分潜在用途已经被现有的规则和法规所涵盖,这些规则和法规旨在保护消费者、保护隐私和禁止歧视等。但这应该是我们结束的地方,而不是我们开始的地方。在最坏的情况下,它将扼杀人工智能在社会上的理想用途的发展。人工智能的许多用途即使有风险,也几乎不会产生风险。我们应该从现有的规则开始,而不是针对人工智能的新规则。