英语轻松读发新版了,欢迎下载、更新

评论:AI“幻觉”是法律界日益严重的问题

2025-05-22 10:00:00 英文原文

作者:By Michael HiltzikBusiness Columnist Follow May 22, 2025 3 AM PT

当他们试图证明它有多伟大时,您可能会听到有关产品在创作者面孔中炸毁的产品。

这是一条从头到尾的纱线纱线,当时一家大型律师事务所使用Anthropic(其客户)开发的AI Bot产品时发生了什么,以帮助撰写捍卫客户的专家证词。

它不顺利。拟人化的聊天机器人克劳德(Claude)获得了一篇论文的标题和作者专家的声明错误,并在其他地方注入措辞错误。该错误于4月在法院提起诉讼时,将这些错误纳入了声明中。

我可以相信人们还没有想到AI生成的材料充满了错误和捏造,因此需要确认申请中的每一个引用。

加州大学洛杉矶分校法学院的尤金·沃洛克(Eugene Volokh)

这些错误足以促使原告起诉人类的音乐出版商,他们声称AI公司是侵犯他们的版权通过将歌词喂入克劳德(Claude抛出专家的证词完整。

对于大型律师事务所Latham&Watkins来说,它也可能成为一只黑眼睛,该公司代表人类,并提交了错误的声明。

莱瑟姆认为,这些错误是无关紧要的,等于诚实的引用错误,而不是捏造。一个尴尬和无意的错误,该公司告诉治安法官圣何塞的地方法官苏珊·范·库伦(Susan Van Keulen),他正在管理诉讼的审前阶段。但是,原告说错误致命破坏了可靠性专家的宣言。

从迈克尔·希尔茨克(Michael Hiltzik)获取最新消息

关于经济学的评论,以及普利策奖得主的更多评论。

您可能有时会从《洛杉矶时报》收到促销内容。

在5月13日通过电话进行的一次听证会上,范·库伦(Van Keulen)自己表达了怀疑。

她说,根据原告引用的听证会的笔录,她说,错过的引文和AI产生的幻觉之间存在着差异。”(范·库伦(Van Keulen)尚未裁定是否将专家的宣言保留在记录中,还是是否通过制裁实施律师事务所。)

这是法官面临的问题,当时法院大楼的档案中充斥着严重的错误,甚至是彻底的捏造。

法国律师和数据专家达米安·夏洛汀(Damien Charlotin)编制的名册现在数字99个案例来自二十个州的联邦法院以及欧洲,以色列,澳大利亚,加拿大和南非的法院。

夏洛丁说,这几乎可以肯定是一个底价。他说,AI生成的错误的案件数量是无法估量的,他说:我只能涵盖人们被捕的案件。”

在几乎一半的案件中,有罪的政党是亲诉诉讼人,即没有律师的案件的人。那些诉讼人通常受到认识不经验的法官的宽容对待。他们很少被罚款,尽管他们的案件可能被驳回。

但是,在大多数情况下,负责方是律师。令人惊讶的是,在涉及律师的大约30起案件中,AI生成的错误被发现或在AI机器人倾向于幻觉的趋势很久以后就在今年提交的文件中。这表明问题越来越严重,而不是更好。

加州大学洛杉矶分校法学教授Eugene Volokh说,我可以相信人们还没有想到AI生成的材料充满了错误和捏造,因此需要确认申请中的每一次引用。

法官一直在清楚地表明,他们已经用捏造的报价来到这里,对法律决定的不正确参考以及对​​AI机器人产生的不存在的先例的引用。提交简短或其他文件的情况下,没有证明其事实主张的真相,包括对其他案件或法院判决的引用,违反了联邦民事诉讼规则的第11条,这使律师违反货币制裁或纪律处分。

一些法院发布了常规命令,即准备提交时的任何时刻使用AI必须披露,以及证明文档中的每个参考文献均已验证。至少一个联邦司法区禁止使用AI

法庭文件中有错误的参考文献的扩散也表明,AI机器人在我们的日常生活中传播的最严重问题:可以信任它们。很久以前,即使是最复杂的AI系统也被问题或任务困扰时,它们也会通过编造自己的知识来填补空白。

由于其他字段使用AI机器人执行重要任务,因此后果可能是可怕的。许多医学患者可以通过幻觉误入歧途,一支斯坦福大学研究人员去年写道。他们发现,即使是最先进的机器人,也无法在30%的时间内支持他们的医学主张。

可以公平地说,几乎任何职业的工人都可能成为疲倦或注意力不集中的受害者。但是,律师经常与数千或数百万美元的危险纠纷,预计对事实核对正式提交的提交特别严格。

一些法律专家说AI的合法角色在法律中,即使是法官通常要做出决定。但是,律师几乎没有意识到自己的职业未能监视博特的产出的陷阱。

Charlotin列表上的第一个制裁案件起源于2023年6月 - Mata vs. Avianca,纽约人身伤害案件,导致了5,000美元的罚款对于两位准备并提交法律摘要的律师,这主要是Chatgpt Chatbot的产品。简介列举了至少九项法院判决,这些判决很快就不存在。案件被广泛宣传海岸到海岸

人们会认为这样的fiascos可以治愈律师对人工智能聊天机器人的依赖,以便为他们完成工作。一个人会错。Charlotin认为,AI机器人产出的表面真实的语气可能会鼓励过度劳累或不专心的律师在不进行双重检查的情况下接受虚假引用。

AI非常擅长看起来很好,”他告诉我。他说,法律引用遵循标准化格式,因此他们很容易模仿假引用。

最早的案件的制裁也可能​​确实不超过几千美元,这也可能确实是不足以吸引酒吧的关注。但是Volokh认为,提交伪造的引文的财务后果应在非货币后果旁边苍白。

``对每个律师的主要制裁是法官面前,在客户面前,主管或伴侣面前的屈辱...对业务不利,对自我不利。

Charlotin的数据集可以让您有趣阅读。这是由律师所支持的,他们似乎完全忽略了他们所生活的技术世界。

准备在Avianca案中编写幻觉性Chatgpt文件的律师Steven A. Schwartz随后作证说,他在虚假的看法下,该网站不可能单独制作案件。

Varghese是一个真实的案例吗?是的,这是一个真实的案例。施瓦茨没有回应我的置评请求。

其他案件强调了对AI信任的危险。

例如,去年,明尼苏达州总检察长基思·埃里森(Keith Ellison)聘请了斯坦福大学的传播教授杰夫·汉考克(Jeff Hancock),就政治中AI faked材料的危险提供了专家意见。埃里森(Ellison)捍卫了一项使这种材料在政治运动中分发的州法律。该法律在诉讼中受到挑战,以侵犯言论自由。

汉考克(Hancock)是一位受人尊敬的AI生成深击的社会伤害的专家 - 似乎是真实的照片,视频和录音,但令人信服地捏造了。

汉考克的宣言包括三个幻觉的参考文献显然是由Chatgpt生成的,这是他在撰写时咨询过的AI机器人。一个归因于虚假的作者,他本人本人写过的一篇文章,但他没有遇到这个错误,直到原告指出。

案件中的联邦法官劳拉·普罗宾齐诺(Laura M. Provinzino)被她所说的讽刺在这一集中:汉考克教授是一名关于人工智能和错误信息危险的有资格的专家,在警笛呼吁过度依靠AI的情况下,这是围绕AI的危险而过度依靠AI的受害者。

那激怒了她生气。她写道,汉考克(Hancock)的虚假引文打破了他对这个法院的信誉。指出他已经证明了他在伪证处罚下的宣布的真实性,她抛出了他的全部专家宣言,并拒绝允许埃里森(Ellison)提交校正版本。

MEA Culpa向法院陈述,汉考克(Hancock)解释说,当他为自己剪下纸条时,这些错误可能会逐渐陷入他的声明中。但是他坚持认为,他在声明中提出的观点仍然有效。他没有回应我对进一步评论的要求。

2月6日,迈克尔·R·威尔纳(Michael R. Wilner)是一名前联邦治安法官,担任加利福尼亚州联邦农场保险案件的特别大师,他以31,000美元的制裁袭击了两家代表原告的律师事务所,以提交一份摘要,并与许多虚假的,不准确的法律引用和报价。

在这种情况下,律师为分配的同事编写摘要的概述准备了摘要。他曾使用AI机器人来帮助撰写大纲,但没有警告该机器人的角色。因此,他们将大纲中的引用视为真实的,并不烦恼他们进行仔细检查。

威尔纳(Wilner)指出,碰巧的是,十页的摘要中的27个法律引用中约有9个在某种程度上是不正确的。

威尔纳补充说,当他阅读摘要时,引用几乎说服了他,直到他抬头抬起案件并发现它们是虚假的,直到他审理了原告的案子。他写道。到目前为止,他因滥用AI而滥用AI的货币制裁似乎是最大的。

关于《评论:AI“幻觉”是法律界日益严重的问题》的评论


暂无评论

发表评论

摘要

一家主要的律师事务所Latham&Watkins使用了Anthropic开发的AI机器人,以协助针对拟人化的诉讼进行专家证词,从而在法庭上提交的文件中遇到了错误和捏造。原告要求专家的证词由于这些不准确而被驳回。该案件强调了对法律背景下AI生成材料的可靠性的越来越多的担忧,以及在向法院提交文件之前,需要进行严格的事实检查。法律专家警告说,依赖未验证的AI产出会导致严重的后果,包括制裁,经济惩罚和对专业声誉的损害。