OC

Knowledge OS
鹦鹉螺口语
随着人工智能在法律体系中的传播,处罚力度不断加大
2026-04-03 09:00:00 · 英文原文

随着人工智能在法律体系中的传播,处罚力度不断加大

作者:Martin Kaste

This photo shows Carla Wale, the director of the Gallagher Law Library at the University of Washington School of Law, sitting at a computer desk.

华盛顿大学法学院加拉格尔法律图书馆馆长 Carla Wale 正在为法学院学生开发可选的人工智能道德培训。马丁·卡斯特/NPR 隐藏标题

切换标题

马丁·卡斯特/NPR

当谈到使用人工智能时,律师们似乎情不自禁。

去年,法院对律师提交包含人工智能工具产生的错误的摘要的制裁迅速增加。的最突出的案例MyPillow 首席执行官迈克·林德尔 (Mike Lindell) 的律师们因提交包含人工智能生成的虚假引文的摘要而被每人罚款 3,000 美元。

但作为一个警示故事,它似乎并没有产生太大的效果。

巴黎高等商学院 (HEC Paris) 研究员达米安·夏洛廷 (Damien Charlotin) 表示:“最近,我们一天内接到来自 10 个不同法院的 10 个案件。”全球统计法院制裁人们使用人工智能生成的错误信息的例子。

“我们遇到这个问题是因为人工智能太好了,但并不完美,”他说。

这一数字从去年开始猛增,查洛廷表示这一数字仍在增加。他统计,迄今为止,总共有 1,200 多个案件,其中约 800 个来自美国法院。

他说,处罚力度也在加大。联邦法院上个月可能创下了记录命令俄勒冈州一名律师支付 109,700 美元的制裁和费用用于归档人工智能生成的错误。

这种职业尴尬甚至发生在州最高法院层面。

内布拉斯加州高等法院二月份就一份包含虚构案件引用的案情简报对奥马哈律师格雷格·莱克进行了盘问。他告诉法官们他错误地从一台计算机上传了一份工作草稿,该计算机随后出现故障,并且他否认自己使用了人工智能。他们不相信并且提请他接受纪律处分。3月份,同样尴尬的一幕也在上演。佐治亚州最高法院

华盛顿大学法学院信息与技术副院长兼法律图书馆馆长卡拉·韦尔 (Carla Wale) 表示:“令我惊讶的是,当这件事出现在新闻中时,人们仍然在这样做。”她正在为感兴趣的学生设计人工智能伦理方面的特殊培训。但她也表示,道德规则尚未完全确定。

“我认为除了‘你必须确保它是正确的’之外,没有达成共识。”所以对我们来说,这就是基线,”她说。

当律师因使用人工智能而遇到麻烦时,这是因为他们违反了长期存在的规则,即无论文件是如何生成的,他们都必须对其文件的准确性负责。

“无论生成式人工智能工具给你带来什么——比如‘看看这些案例’——你,根据职业行为规则,你必须阅读这些案例。你必须阅读这些案例,以确保你所引用的内容是准确的。”韦尔说道,并轻拍桌子以示强调。

一些法院更进一步,制定了更广泛的道德规则,要求律师用人工智能标记他们生产的任何东西,有详细信息。目标是让人们更容易知道哪些简报需要仔细检查是否存在幻觉,并在人类产生的内容和非人类产生的内容之间保持明显的界限。

“我认为[标签规则]本意是好的,但很快就会因为毫无用处而被淹没,”律师出身的记者乔·帕特里斯说。他是该网站的高级编辑凌驾于法律之上,他在其中写道,在他看来,人工智能工具如何被“强行”纳入律师使用的几乎所有软件中。

他说:“它将变得如此融入一切运作方式,以至于要严格遵守规则,你必须穿上你推出的所有东西,‘嘿,这是人工智能辅助的’,到那时它就变成了无用的努力。”

帕特里斯表示,人工智能无疑对于梳理大量证据或判例法或处理合同很有用。但他对向律师推销的下一代产品持怀疑态度,即从头到尾提供法律工作的“代理”系统。

“我认为,一旦你掩盖了这些中间步骤,错误就会发生。即使是善意且不懒惰的人也会失去一些东西,因为他们没有参与这个过程,”他说。

他表示,更广泛地说,随着人工智能工具加快某些耗时任务的速度,它们威胁到了律师事务所按时间计费的传统商业模式。

“有两种选择。律师们可以同意减少收费——停下来笑一笑——或者他们可以开始寻找新的计费方式。我认为他们可能会开始针对该项目的计费过程,”帕特里斯说。

如果发生这种情况,可能会增加律师的时间压力,并使他们更容易接受人工智能吐出的初稿。

“然后这是一个真正的问题:你会放慢自己的速度来拥有自然的思考时间吗?”帕特里斯问道。“在一个这始终是现实的世界中长大的后代,他们知道停下来思考问题吗?这是一个令人担忧的问题。”

威尔和帕特里斯一样担心未来律师的分析能力可能受到侵蚀。但她也否认了最可怕的预测,即人工智能取代人类律师的自动化法律系统。

“我认为了解如何有效且合乎道德地使用生成人工智能的律师会取代那些不了解的律师,”她说。“这就是我认为的未来。”

与此同时,人工智能本身也误入了法律界的视线。今年3月,ChatGPT的制造商OpenAI被美国日本人寿保险公司在伊利诺伊州联邦法院起诉。该保险公司表示,一名妇女从 ChatGPT 获得了糟糕的法律建议,因此对其提起了无意义的法律诉讼。

除其他事项外,该诉讼指控 OpenAI 无证执业。OpenAI 在给 NPR 的书面声明中回应道:“这一投诉毫无根据。”

关于《随着人工智能在法律体系中的传播,处罚力度不断加大》的评论

暂无评论

发表评论

摘要

由于法院对使用有缺陷的人工智能生成内容的律师进行制裁的情况越来越多,华盛顿大学法学院加拉格尔法律图书馆馆长 Carla Wale 正在为法学院学生开发可选的人工智能道德培训。尽管有警告,但对此类违规行为的处罚仍在不断增加,最近的案件包括俄勒冈州的 109,700 美元罚款。随着人工智能与法律工作的融合不断加强,为人工智能援助贴上标签是否有效存在争议。威尔士认为,在未来,有效且合乎道德地使用人工智能将使成功的律师脱颖而出。