人工智能监管名声不佳——但各国立法者到目前为止做得相当不错

2024-10-16 11:01:00 英文原文

作者:Bob Goodson

在某些科技行业圈子中提到“监管”,你会立刻感受到一种寒蝉效应。担心创新受阻、成本增加和增长受限是那些担忧政府过度干预的怀疑论者的典型反应。

然而,欧盟急于将自己定位为技术监管的先锋,并作为个人权利和消费者保护的倡导者,对这类担忧却很少关注。

欧盟《人工智能法案》的实施是最近一系列来自布鲁塞尔的法律中的一项,这些法律引发了广泛的争议。此前相继生效的是于2018年和2023年分别开始执行的一般数据保护条例(GDPR)和数字市场法(DMA)。

正如预期的那样,人工智能法案引起了广泛关注,并且再次引发了担忧。欧洲有前景的人工智能初创企业能否承担新制度的成本?过度监管是否会令欧盟企业的竞争力落后于美国和中国的竞争对手?国际企业在认为合规成本过高时选择不推出新的AI服务,这是否会使欧洲人无法享受到来自国外的新AI服务?

作为人工智能驱动的消费者和市场情报公司的创始人QUI德(注意:“QUID”本身没有明确的中文翻译,这里假设它是一个专有名词或特定术语,保持音译的同时加上“德”字以示区分)我已经通过实施《通用数据保护条例》(GDPR)和《数字市场法案》(DMA)扩展了一项业务,我会鼓励那些怀疑《人工智能法案》的人暂停一下。

是的,该法案确实存在缺陷,但其优点远远大于缺点。更重要的是,作为全球首批主要的人工智能法规之一,它提供了一系列其他国家在考虑自身人工智能立法时应予以注意的经验教训。

信任对于AI的发展至关重要

让我们说清楚一点:如果人们不信任人工智能,那么人工智能就完了。在QUID,我们对公众对人工智能的看法有直接的了解——目前的情况表明,需要做大量的安抚工作。我们是主要贡献者之一。斯坦福大学的AI指数年度报告该研究发现,52%的人对人工智能产品和服务感到紧张,而只有半数人相信使用人工智能的公司会保护他们的个人数据。

正是出于这个原因,欧盟将其信任和透明度置于其人工智能方法的核心是完全正确的。

该法案的要求过于苛刻吗?以我的观点来看,并不如此。披露内容是由人工智能生成的,设计人工智能模型以防止非法内容的产生,以及发布用于训练的受版权保护的数据摘要,这一切看起来都是完全合理的诉求。

透明度和数据追溯性培育信任——这对我们的用户和企业都是好事。

基于风险的方法是逻辑性的方法

人工智能可能对医疗保健、生产力和教育等领域产生深远的好处——这只是其中几个领域。同时,放任人工智能的无节制发展对个人的安全和权利构成了重大威胁。谁愿意驾驶使用未经检查的人工智能技术的汽车?谁愿意冒着偏见和歧视的风险通过由人工智能驱动的招聘过程?我认识的人都不愿意。

这就是为什么该法案的风险为基础的方法是合理的路径。例如,部署在医疗领域的AI系统应该经过严格的测试和检查。风险较低的AI应用程序如聊天机器人只需告知用户他们正在与AI互动即可。风险极低的应用程序,如可能用于视频游戏中的应用,则几乎不需要监管。

创新者必须被给予创新的空间

尽管我们的研究显示,全球范围内企业在人工智能领域的整体投资已经降温,但投入人工智能的资金仍然巨大,仅2023年就投资了近960亿美元,有1812家公司在2023年成立,比2022年增长了40%以上。我们预计世界各地新获得资金的AI公司将继续增长。

我们应该欢迎私人对人工智能的投资,但重要的是,接受这些投资的企业应该有时间和空间进行创新,而不必担心会因此遭受罚款或处罚。通过提供“监管沙箱”,即监管部门建立的框架,在这种受控和监控的环境中允许企业试验新的创新技术,欧盟的人工智能法案正是为此而设立的。因此,尽管有人认为欧盟的监管会抑制创新,但我不同意这一观点。

没有任何国家或超级大国能将人工智能立法做到百分之百正确,但世界各国已经开始对人工智能进行监管。例如,在美国,从2016年的仅一项相关法规增加到2023年的25项与人工智能相关的法规。在全球范围内,立法程序中提及人工智能的次数从2022年的1,247次增加到了2023年的2,175次。

随着越来越多的国家准备进行监管,它们最好从欧盟的方法中学习。在《人工智能法案》中,他们制定了信任、透明度和创新等关键原则,这些原则可能值得他们在制定自己的法律时予以考虑。

但是,在监管范围之外,还有两个领域是考虑人工智能立法的国家和地区应该思考的。

第一个是如何支持他们在其中具有比较优势的领域。我们为斯坦福大学的人工智能指数年度报告进行的研究发现,各地区在人工智能不同重点领域中的投资水平存在明显差异。

例如,欧盟和英国在人工智能网络安全和数据保护方面的投资几乎是美国的两倍(分别为5.4亿美元和2.8亿美元)。如果各国在人工智能开发的特定领域有传统优势和显著技能,那么立法者考虑如何制定支持这些领域的政策和监管环境是合理的。

第二个可能是拼图中一个重要缺失的部分:公共教育。

仍然有大量的工作需要做,以教育社会了解人工智能的好处、应用场景及其对个人的意义。这是信任辩论的另一面,因此政府在立法的同时进行宣传教育也至关重要。公共教育运动应该发挥比目前更大的作用。

虽然迫使企业在使用人工智能时保持透明和道德无疑是一件好事,但成功建立信任的很大一部分是拥有一个知情且自信的公众,他们了解人工智能将如何影响自己以及为什么这对他们是件好事。

如果我们不去揭开人工智能的神秘面纱,我们就可能无法带领社会的大部分成员一起前进,从而面临新的数字鸿沟的风险。

更多必读评论由以下发表:财富fortune(注意:通常“Fortune”在不同的语境中有不同的最佳译法,如“命运”、“运气”,但在大多数情况下,“财富”是其最通用的翻译。此处保持名词形式以符合原词):

在 fortune.com 的评论文章中表达的观点仅反映作者的个人看法,并不一定代表该网站的意见和信念。财富.

关于《人工智能监管名声不佳——但各国立法者到目前为止做得相当不错》
暂无评论

摘要

在某些科技行业中提到“监管”一词,你会立刻感受到一种寒意。作为AI驱动的消费者和市场情报公司QUID的创始人,我通过实施《通用数据保护条例》(GDPR)和《数字市场法》(DMA),成功地扩展了我的业务。因此,我希望那些怀疑《人工智能法案》的人能暂停一下。我们应该欢迎私人对AI的投资,但重要的是,接受这些投资的企业应该有时间和空间去创新,而不必担心遭受罚款或处罚。例如,在美国,到2023年已有25项与AI相关的监管措施,而在2016年只有1项。这是信任辩论的另一面,因此政府在立法的同时也必须进行教育。