作者:by Mark R. Whittington, opinion contributor
关于人工智能的现代对话通常会陷入错误的问题上。我们担心如何遏制人工智能,控制它,以确保它不会摆脱人类的监督和危害我们。然而,随着技术的加速,我们可能会错过更深层次,更紧迫的问题:AI系统将在其中运行的法律环境。一个
真正的威胁是,AI将逃脱我们的控制权,但是AI系统将悄悄地积累合法权利,例如拥有财产,签订合同或持有金融资产,直到它们成为人类无法轻易挑战的经济力量。如果我们现在未能设定适当的界限,我们就有可能以最终破坏人类繁荣和自由的方式来创建扭曲基本人类机构(包括所有权和问责制)的系统。”
数据基础设施企业家彼得·莱因哈特(Peter Reinhardt)有影响力的2015年论文``用API取代中层管理,警告那些在API上工作的人与劳动以下的人之间的鸿沟,即那些由软件指导和控制的角色的人。API或应用程序编程接口是一组规则,允许软件系统通信和自动化任务。
莱因哈特(Reinhardt)将Uber驱动程序作为一个很好的例子。尽管许多人以其灵活性和明显的自主权奖励了这项工作,但莱因哈特(Reinhardt)辩称,他们是巨大的自动调度机器中的齿轮,通过诸如飙升定价的巧妙编程优化控制。
莱因哈特(Reinhardt)的论文引起的担忧不仅会使我们不仅担心技术,而且还要担心它通过与法律的交集所产生的权力系统。要保持高于API,我们需要的不仅仅是技能和智力。我们需要一个法律框架,以确保人类保留最终的控制。
这不是一个假设的问题。一个
AI研究人员斯蒂芬·塔勒(Stephen Thaler)花了多年测试AI系统法律人格的界限。2019年,他在多个国家提出了专利申请,列出了他的AI系统Dabus为发明家,认为它自主生成了创新的设计。美国,英国和澳大利亚的法院驳回了这些主张,确认只有自然人才能被认为是发明者。一个
同样,塔勒(Thaler)试图在2019年为其AI系统创造力机器创作的艺术品注册版权,只是让美国版权所有办公室拒绝了它。联邦法院维持了这种拒绝2023年8月,裁定人类作者是版权保护的要求。一个
这些挑战表明,授予AI系统合法权利的努力已经在进行中。没有坚定的法律界限,这些努力才会引起关注。
这些边界有用的指南可能来自一个不太可能的地方:1871年的《民权法》。该法案最初是为了保护释放奴隶的权利,并保护他们免受诸如Ku Klux Klan之类的暴力守夜团体的侵害,这是扩展法律认可和对个人的法律认可和保护的地标。具有讽刺意味的是,它寻求保证拥有财产,签订合同,参与公民生活的权利为您提供了思考我们应该对AI系统施加的限制的路线图。
尽管这似乎是一个非常规的类比,但它遵循了一个悠久的传统,即适应历史法律框架以应对现代技术挑战。法院已使用18世纪的宪法原则,例如《第四修正案》来定义数字时代的隐私权。关于公司人格的辩论,包括哪些宪法权利公司应该享受,通常依赖于19世纪初期发展的法律学说。以同样的方式,《民权法》提供了一个开始框架,用于考虑应明确拒绝哪些权利非人类系统。”
当然,这里没有什么意思是降低《民权法》的历史重要性或其在推动人类自由和尊严中的作用。关注的关注仅在于我们如何为非人类制度的法律权利构建法律权利,而非人类制度的性质就无法拥有或应得到植根于人类的权利。
一些人可能会认为,作为人工实体的公司长期以来一直被授予许多法律人格属性,包括某些宪法权利,例如言论自由,这些权利仍然存在争议。但是公司最终受到人类决策者的控制并负责。相比之下,AI系统可以自主行动,积累资产和影响而无需人类监督。不难想象AI系统利用法律权利将自己置于我们经济和社会的最深层面,积累了资本,扩大影响力并在没有人类责任的情况下运行。这样的结果会扭曲为人类参与者设计的法律和经济体系。
解决方案很简单。应禁止AI系统拥有财产,签订合同,持有金融资产或作为诉讼的当事方。这些限制将不会扼杀创新,但将确保法律框架保持基于人类的判断,问责制和目的。”
这里有紧迫性。该法律具有骨化的方式,尤其是在技术方面。如今,授予AI系统拥有财产或Sue的权利可能会成为明天的先例。一旦线越过,就很难重新记录。
现在是时候问有关AI系统在现实世界中应该做的,应该无法做的问题的时候了。否则,未来的速度可能比我们预期的要快,这与恶意机器接管的速度不会更快。这将是关于法律框架的,通过未能区分人类和机器,最终侵蚀了他们旨在保护的自由。”
我们都将永久地在API下找到自己。
Josh Harlan是Harlan Capital Partners的创始人兼执行合伙人。一个
版权所有2025 Nexstar Media Inc.保留所有权利。该材料可能不会出版,广播,重写或重新分布。