《金融时报》编辑鲁拉·哈拉夫 (Roula Khalaf) 在这本每周通讯中选择了她最喜欢的故事。
这听起来有点像科幻小说的情节,但在未来,人工智能有望达到快速自我完善、逃避人类控制、通过网络攻击甚至核灾难给人类带来混乱的程度。这是一些科学家和开发人员所关心的问题,也是加州制定人工智能安全法案的动机,全球 50 家领先的人工智能公司中有 32 家位于加州。但周日,州长加文·纽瑟姆否决了该法案。这一决定被视为大型科技公司的重大胜利,对公共安全而言是一个鲁莽的决定,并且错失了在全国范围内制定事实上的人工智能安全标准的机会。事情没那么简单。
制定规则来防止技术(尤其是仍在开发的技术)的潜在危害,是一项棘手的平衡行为。如果过于专横,就有可能从一开始就扼杀创新,这意味着社会也会错失其潜在的好处。而且,尽管加州的法案在硅谷的大力游说下被淡化,但其对人工智能开发和部署的影响仍然存在不确定性。
加州法案的一个广泛目标是提高开发商对滥用其模型的责任。无论这多么令人钦佩,它也可能产生副作用。例如,开发人员很难事前知道他们的技术将如何使用。他们可能会通过退出研究来调和这一点。人工智能专家还担心,该法案的安全协议包括要求公司在超过一定阈值的模型中建立终止开关的要求,这可能会阻碍开源模型的开发和使用,而开源模型正是在开源模型中进行大量创新的地方。
另一个担忧是,该立法并未专门针对高风险环境中使用的人工智能系统,例如关键基础设施,或者使用敏感数据的人工智能系统。即使是基本功能,它也采用了严格的标准。考虑到这些担忧,纽瑟姆的决定似乎是合理的。然而,这并不意味着科技公司应该自由运行。随着人工智能竞赛的加速,人们真正担心模型构建者可能会忽视弱点。因此,立法者现在有必要修改拟议规则并澄清模糊的措辞,以更好地平衡对当今创新影响的担忧。纽瑟姆宣布与专家建立有前途的合作伙伴关系,共同开发可行的护栏。同样值得欢迎的是,州长最近签署了旨在监管明确且现实的人工智能风险的法案,而不是假设性风险,包括围绕深度假货和错误信息的风险。虽然加州在人工智能监管方面的领导力值得赞扬,但如果安全规则能够在联邦层面制定并颁布,效果也会更好。这将为整个美国提供保护,防止出现不同州法律的拼凑,并避免使作为美国和全球人工智能创新中心的金州处于竞争劣势。
事实上,尽管硅谷投资者和人才库的吸引力依然强劲,但单边和过于严格的人工智能监管可能会推动模型开发到其他地方,从而削弱各州的人工智能技术生态系统。事实上,加利福尼亚州的税收很高,而且是美国监管最严格的州。房产也很贵。包括美国数据分析公司 Palantir 和经纪公司 Charles Schwab 在内的公司最近已经离开该州,一些科技公司也削减了办公空间。
管理人工智能开发的安全问题是一门既保留好处又防止坏处的艺术。技术对我们社会的威胁不应掉以轻心,但也不应阻碍有助于诊断疾病、加速科学研究和提高生产力的创新的出现。值得付出努力以使其正确。