社会如何才能享受人工智能 (AI) 带来的好处,同时最大限度地减少人工智能可能产生的欺诈、安全问题和失业?一些人工智能专家认为,鉴于技术处于早期状态,制定法规可能为时过早,而另一些专家则认为必须立即实施这些法规,以确保负责任地开发和部署人工智能系统。这场辩论的核心是两个隐含的假设:监管而不是市场力量主要推动创新成果,人工智能应该像其他更充分开发的潜在有害产品一样受到监管。
这两个假设都是不正确。在存在外部性和不确定性的情况下,市场何时以及如何扭曲技术创新的方向,以及监管何时有用或有害,这些都是人工智能以外的背景下长期研究的话题。促进对社会有益的人工智能不仅取决于技术和法律知识,还取决于新技术发展轨迹方面的经济学和管理学经验教训。
主要关注创新政策的特点是,自由放任的市场可能无法提供必要的激励措施来确保社会最优的研究速度和方向。早期的发明家使后来的突破成为可能,但他们并没有从中获取利润,而且早期研究往往涉及仅由最初的研究人员支付的固定成本;复制或构建已知的发明比首先创建它更容易。当一项技术有多种发展路径时,我们首先希望同时鼓励企业在研究上投入资金,确保他们致力于对社会最有益的技术(而不是仅仅用有害或劣质的技术竞相进入市场),并在难以转换研究方向的情况下保证研究选择的广泛多样性。
因此,监管机构的根本问题是明确的。他们需要激励企业进行更多研究,因为发明可以为后续发明者创造积极的溢出效应,但同时他们也需要削弱发明者研究有害技术、几乎没有溢出效应的平庸技术以及过度关注单一发展路径的技术的激励或炒作区域。尽管面临危害和收益的巨大不确定性,监管机构仍需要实现这种平衡。
为了说明这些担忧,让我们研究一下经济学家达龙·阿西莫格鲁 (Daron Acemoglu) 的一个论点。鉴于生成式人工智能(尤其是基础模型)的创建成本通常非常昂贵,他认为技术之路将受到资源丰富的大型公司的严重影响。在许多情况下,这条道路可能会因自动化驱动的工作岗位流失而导致过度不平等;市场集中化抑制了竞争并限制了无法进行同等规模竞争的较小实体的创新;错误信息和两极分化内容的传播破坏了公共话语和民主进程,从而造成政治和社会危害。也就是说,企业会不成比例地进行创新以节省劳动力成本,因为它们没有考虑到工人工资的社会效益;将会变得过于集中,因为人工智能开发的固定成本很高,意味着只有少数公司可以竞争;并将低估社会和民主的安全风险,因为这些风险并不直接影响他们的利润。
这描绘了一幅关于市场在发展人工智能中的作用的悲观图景。也就是说,这项技术的未来不仅仅由自由市场决定。确保学术研究部门不受商业激励的蓬勃发展的一个主要动机是通过确保广泛的研究轨迹进行实验来减轻自由市场的限制。万尼瓦尔·布什 (Vannevar Bush) 在其开创性著作《科学,无尽的前沿》中强调了支持不受商业化目标影响的科学研究的重要性,以推动创新和社会进步。
然而,将人工智能发展转向学术界是没有灵丹妙药。学术科学家也会对激励措施做出反应。科学家针对某些期刊而不是其他期刊,在选择项目时考虑声誉利益,并评估在开展一个或另一个项目时获得资助的可能性。知识前沿的扩展加剧了这些考虑因素对项目多样性的影响,知识前沿迫使研究人员专注于日益狭窄的领域,因此更加依赖于跨技术领域的协作。因此,随着时间的推移,科学家意识到甚至考虑追求的潜在轨迹的广度会缩小,缺乏试图激励多样化追求的干预。外部因素,如资助条件和研究工具成本、市场需求拉动因素以及当地研究环境特征(包括地理禀赋和企业政策)也会影响研究人员对项目的选择。这些因素可以通过接触不同领域的学者并进行广泛的实验来提高研究生产力和多样性。然而,它也可能通过激励对特定研究或解决特定问题的关注来限制探索研究轨迹的广度。
是否有办法平衡营利性公司和学术创新的优缺点?技术开发的某些领域受益于利润动机的集中力量,而其他领域则更容易在学术实验室等替代环境中受到激励。因此,像人工智能这样的广泛创新往往可以通过利用公司和学术专业知识和资源之间的互补性而受益。这些互补性在行业发展的早期阶段至关重要,特别是当技术具有通用性或启用性(例如人工智能)时,这意味着其价值创造潜力取决于重复的创新周期,而创新周期涉及来自生产和应用领域的不同经济参与者
例如,量子计算机(另一种同时期的使能技术)的发展在企业和学术界参与和合作后加速了。这些不同的研究人员研究了各种各样的技术路径。通过将受商业化问题影响较小的学术研究的好处与获得昂贵资源的公司优势结合起来,迄今为止,量子计算还没有被推入更狭窄的轨道,以寻求即时的、社会次优的投资回报。
一些专家和公司讨论了促进人工智能开源实践的好处,作为利用跨部门技能和资源互补性的一种方法。希望通过利用不同的研究人员来实现不同轨迹的实验,这些研究人员可以分享知识并相互问责,减少初创企业和其他想要做出贡献的经济参与者的进入壁垒,并让公众能够监控和影响人工智能的发展轨迹,从而增加社会福利。
但是请注意,企业和学术界通过开源实践进行的协调仍然取决于各自的激励措施。虽然开放共享是大学的一项基本原则,但它不是公司的一项基本原则。企业需要预期从其开放式创新努力中获取足够的价值以参与其中。对于通用目的或使能技术来说,实现这一目标特别困难,因为它取决于多种因素,例如对潜在应用与其他互补资产的深入互补知识、强大的知识产权保护制度以及主导设计的清晰度。当技术不确定性很高时,这些目标很难实现。
能够影响人工智能结果未来轨迹的第三个参与者当然是政府。那些争论监管在限制市场担忧方面的好处的人通常关注监管人工智能创新努力的产出,而不是创新的直接过程本身。目标是防止人工智能的发展造成伤害。然而,监管不确定且快速发展的技术的产出必然不同于传统的产品监管。
当创新可能造成危害时,监管机构有三种基本选择:事前限制,例如禁止使用或进一步研究,事后退出市场或承担损害责任。原则上,这些政策都可以实现相同的目标,即使市场激励与社会理想的结果相一致。然而,它们的相对效力取决于监管机构在任何特定时间对技术潜在风险和收益的了解。
为了明确监管机构面临的信息问题有多严重,请考虑最早提出的与人工智能相关的法律。欧盟人工智能法案 (AI Act) 于 2021 年初提出。欧盟最初的提案在 100 多页中并未一次性使用“大语言模型”、“大语言模型”、“变压器”或“生成式”等词。最初的欧盟人工智能法案中使用的高风险人工智能系统的定义包括教育和执法中使用的系统,但它不以任何方式限制独立行动的代理系统。美国早期的州级法律同样关注的范围比 2024 年可能出现的范围要窄得多。例如,加州 2018 年的 BOT 法案限制与销售或选举相关的人工智能通信,但没有披露正在使用人工智能。伊利诺伊州第一部人工智能相关法律(2019 年人工智能视频面试法案)要求同意对第一轮面试进行人工智能评估,包括偏见审计,而纽约州第一部人工智能规则(地方法 144)则重点要求在人工智能被使用时进行偏见审计。用于招聘。
为什么这些法规与当今人工智能安全问题如此脱节?政策制定者认为,三年前人工智能的主要担忧是其被用来进一步歧视或允许对公民进行反自由主义监视(一些学者称之为人工智能统治)。由于立法过程需要时间,而且政治家也不是无所不知,因此监管通常是针对技术威胁或事后可能显得微不足道的担忧而制定的。
此外,监管可能会限制原本有用的技术发展轨迹,从而减轻技术威胁或担忧。
正在考虑非常有害。举个例子,考虑对齐,即让人工智能系统按照用户的意图行事的问题,或解释,即理解人工智能系统为何这样做的问题;在这两方面,我们有越来越多的证据表明,更复杂的模型可能更容易而不是更难调整和解释。因此,旨在通过限制模型大小来防止人工智能风险的监管可能会无意中阻止解决该问题的技术的发展。
当监管不确定性与需求相交叉时,情况会更糟。供发明者进行实验以减少技术不确定性。由于监管机构可能不会观察公司和科学家所知道的一切,因此可能会过早地关闭有用的创新,或者无意中允许潜在有害的创新取得进展。责任使得公司要对其创新的许多下行风险负责,即使他们没有完全抓住有用实验的好处;人工智能重大突破的社会价值并不能完全归于发明者,因此,当责任太重时,企业创新就会太少。同样,大力激励人工智能突破而不承担损害责任的激励制度会导致那些没有完全承担下行风险成本的公司之间的竞争行为,而这些风险可能是他们意识到的,但监管机构却没有预见到。无论安全风险如何,企业都会争先恐后地进入市场,因为他们可以获得市场先发优势,而一旦他们的发明被证明是危险的,他们就不会受到不利影响。对于监管者来说,要知道法律的力量应该适用于账本的哪一方并不是一件容易的事。
例如,假设有两种方法来构建人工智能模型,其中的好处和优点两者的危害最初都是未知的。第一个模型的质量取得了突破,但也存在明显的危害。创新经济学家约书亚·甘斯 (Joshua Gans) 指出,你可能希望继续研究已知有害的模型,因为成本与收益之间存在着一定的关系。因为这个模型也已经显示出好处,而另一个模型在账本的成本和收益方面仍然不确定,所以继续发展部分有害的模型可能会增加而不是减少收益超过危害的可能性。更糟糕的是,通过继续开发该模型的责任来惩罚公司,可能会迫使他们开发一种仍然具有潜在危险但其收益在预期中也更加有限的模型。
人工智能远非第一个。技术既具有潜在的变革性,又具有潜在的非常危险性。考虑一下核电历史中的类似教训。到第二次世界大战结束时,核能的社会效益潜力已经显而易见,原子裂变的巨大破坏潜力也已显而易见。应该如何允许像通用电气和西屋电气这样的公司以安全的方式开发核能,让我们享受到清洁电力的好处,因为成本太低而无法计量电力,同时避免全球热核灾难?
20世纪50年代的能源监管机构在巨大的不确定性的面纱下运作。目前正在积极研究数十种不同类型的核反应堆,它们的安全性和效率特征截然不同。应使用什么裂变材料和冷却剂?反应堆应该产生裂变材料还是补充燃料?为了安全起见,反应堆需要如何以及何时紧急停堆?我们应该如何开发和共享有关工厂所用材料的信息,以确保安全最佳实践的传播?哪些方面需要新的法律,哪些方面已经被现有的能源法规和传统的公司责任涵盖?我们如何防止企业竞相开发可销售但不安全的反应堆?
与当今的人工智能监管一样,我们历史上看到的政策是一方面鼓励创新,另一方面提高成本的政策。例如,通过R降低核电开发成本