作者:Andrew Singer
民事责任法并不经常进行晚餐党的对话,但它可能会对人工智能等新兴技术的发展产生巨大影响。
如果划清次数,责任规则可以创建障碍通过暴露企业家的未来创新,在这种情况下,AI开发人员面临不必要的法律风险。大概是我们参议员辛西娅·卢米斯(Cynthia Lummis)上周介绍了负责任的创新和安全专业知识(崛起)2025年的法案。
该法案旨在保护人工智能开发人员免于在民事法院被起诉,以便医生,律师,工程师和其他专业人员可以理解AI在依靠它之前可以做什么和不能做什么。
尽管有些人批评该法案的范围有限,但其对透明度标准的缺陷,并质疑AI开发人员具有责任盾牌,但对Cointelegraph与Cointelegraph联系的来源的早期反应大多是积极的。
大多数表征是正在进行的工作,而不是完成的文档。
根据锡拉丘兹大学麦克斯韦公民与公共事务的教授哈米德·埃基亚(Hamid Ekbia)的说法,卢米斯法案是及时且需要的。(Lummis称之为该国首先针对专业级AI的责任改革立法。
但是,法案将余额倾斜了,而不是AI开发人员。《崛起法》要求他们公开披露模型规格,以便专业人员可以就他们选择使用的AI工具做出明智的决定,但是:
它给学识渊博的专业人员带来了大部分风险负担,只需以技术规格的形式透明开发商 - 模型卡和规格的形式,并否则就为他们提供了广泛的免疫力。
毫不奇怪,有些人很快就向AI公司赠送了Lummis Bill。民主党地下将自己描述为中心政治社区的左派著名的在其中一个论坛中,AI公司不希望因其工具而被起诉,该法案(如果通过)将实现这一目标。
并非所有人都同意。``我不愿意将法案称为AI公司的赠品。
Shipkevich解释说,《崛起法案》提出的免疫规定似乎是为了使开发人员对大型语言模型的不可预测行为的严格责任,尤其是在没有造成伤害的疏忽或意图时。从法律的角度来看,这是一种理性的方法。他补充说:
•没有某种形式的保护,开发人员可能会面临无限的曝光率,而他们没有实际的控制方式。
拟议立法的范围相当狭窄。它主要关注专业人员在与客户或患者打交道时使用AI工具的场景。例如,财务顾问可以使用AI工具来帮助为投资者制定投资策略,或者放射科医生可以使用AI软件程序来帮助解释X射线。
有关的:参议院通过了对系统性风险的担忧,Genius Stablecoin法案
《崛起法》实际上并没有解决AI开发人员与最终用户之间没有专业中介的案例,因为当聊天机器人用作未成年人的数字伴侣时。”
这样的民事责任案件最近在佛罗里达州兴起,一名少年在与AI聊天机器人交战几个月后自杀。死者的家族说,该软件的设计方式对未成年人来说不是很安全。谁应该对生命丧失负责?”埃比亚问。拟议的参议院立法未解决此类案件。
萨里大学法学院法律与健康科学教授瑞安·雅培(Ryan Abbott)告诉Cointelegraph,``萨里大学法学院法学与健康科学教授瑞安·雅培(Ryan Abbott)告诉Cointelegraph,需要明确而统一的标准,以便用户,开发商和所有利益相关者了解道路规则及其法律义务。
但这很困难,因为鉴于技术的复杂性,不透明性和自主权,AI可以造成新型的潜在危害。拥有医学和法律学位的雅培说,医疗领域将在民事责任方面特别具有挑战性。
例如,医师在历史上比医学诊断中的AI软件优于AI软件,但最近有证据表明,在某些医学实践领域,人类在循环的领域实际上取得了比让AI做所有工作更糟糕的结果。”这提出了各种有趣的责任问题。
如果医生不再陷入困境时,谁会赔偿赔偿?渎职保险会覆盖它吗?也许不是。
非营利性研究组织的AI Futures项目暂时认可了该法案(在起草该法案的情况下进行了咨询)。但是执行董事丹尼尔·科科塔伊洛(Daniel Kokotajlo)说AI开发人员要求的透明性披露不足。
Kokotajlo说,公众应该知道哪些目标,价值观,议程,偏见,指示等。
此外,公司始终可以选择承担责任而不是透明,因此,每当公司想做公众或监管机构不喜欢的事情时,他们就可以选择退出,” Kokotajlo说。
《崛起法》与2023年《欧盟AI法案》中的责任规定相比,这是主要监管机构对AI的第一个全面法规?
欧盟AI责任立场已经处于不断变化状态。欧盟AI责任指令于2022年首次构想撤回在2025年2月,有人说是AI行业游说的结果。
尽管如此,欧盟法律通常采用基于人权的框架。作为著名的在最近的《加州大学洛杉矶分校法律评论》文章中,一种基于权利的方法强调了个人的授权,尤其是最终用户,例如患者,消费者或客户。
相比之下,基于风险的方法,类似的方法是基于流程,文档和评估工具。例如,它将更多地关注偏见检测和缓解措施,而不是为受影响的人提供具体权利。”
当Cointelegraph问Kokotajlo时,他回答说,当基于风险的基于风险或基于规则的民事责任方法更适合美国时,我认为,重点应该是基于风险的,并专注于那些创建和部署技术的人。”
欧盟通常采用更积极的方法来解决此类问题,增加了Shipkevich。他们的法律要求AI开发人员预先表明他们遵守安全和透明性规则。”
Lummis法案可能需要进行一些修改,然后再将其制定为法律(如果有的话)。
Shipkevich说,只要提出的立法被视为起点,我就会对崛起行为有积极的看法。”毕竟,为没有疏忽行事并且无法控制其模型如何在下游使用的开发人员提供一些保护。
<如果该法案演变为包括实际的透明度要求和风险管理义务,则可以为平衡的方法奠定基础。”
根据美国负责创新(ARI)政策副总裁贾斯汀·布洛克(Justin Bullock)的说法,《崛起法》提出了一些强有力的想法,包括联邦透明度指导,一个安全范围有限的安全港,对AI的专业采用者的责任明确规定,尽管ARI并未认可该立法。
但是,布洛克也对透明度和披露也有担忧 - 即确保所需的透明度评估有效。他告诉Cointelegraph:
出版模型卡没有强大的第三方审核和风险评估可能会带来错误的安全感。
尽管如此,卢米斯法案总的来说是关于联邦AI透明度要求的建设性第一步,”布洛克说。
假设该立法已通过并签署为法律,则该法律将于2025年12月1日生效。