英语轻松读发新版了,欢迎下载、更新

法官在AI产生错误的法院动议后责骂蒂姆·伯克的律师

2025-05-20 21:35:56 英文原文

作者:By Dan SullivanTimes staff

坦帕坦帕媒体人物的联邦案件蒂姆·伯克(Tim Burke)``一个争议,涉及福克斯新闻,美国媒体和言论自由的复杂问题等主题 - 本周又有了另一个现代的转弯,这是由人工智能提供的。

伯克(Burke)的一位律师依靠包括Chatgpt在内的AI工具来帮助研究和撰写最新动议,以驳回对他的一些指控。结果是法律备忘录中充满了错误,不存在的行为和法律的错误陈述。

法官监督此案并没有注意到问题。

文件提交后两天,美国地方法院法官凯瑟琳·金博尔·米泽尔(Kathryn Kimball Mizelle)下令将其从案件记录中造成损害。

Mizelle写道:“伯克的动议包含对据称相关的案例和历史的严重歪曲和错误引用。”该文件引用了案件 - 说他们不说的话,以及他们不支持的事实和法律命题。”

Mizelle允许Burke的律师以适当且准确的案例引用和报价提交新动议。她还指示他们单独提交,解释了为什么错误以及如何发生错误。

在他们的回应中,伯克的法律团队将不明智的依赖归咎于坦帕的一位律师,而在马里兰州的一名律师则构成了不明智的依赖。

伯克的首席律师马克·拉希(Mark Rasch)是一名前联邦检察官,在网络安全和计算机犯罪方面具有专业知识。根据辩方的回应,正是他起草了该动议。伯克的另一位律师迈克尔·马杜克斯(Michael Maddux)忙于进行无关的审判,并且在提出动议之前没有审查该动议。

回应指出,Rasch对这些错误承担了唯一和独家责任,而Burke先生对这些不准确的责任不承担任何责任。

法官对律师没有采取惩罚性行动。但是在周二下午的法庭听证会上,她向他们发出了严厉的警告,不要犯错。

我希望人类可以进行研究,并引用人类的检查。” Mizelle说。

法官在书面命令中至少确定了判例法不存在的九个例子。

她强调的是最令人震惊的一个,是在2001年第11巡回上诉法院的一项案件中引用了一种意见,称为美国诉Ruiz诉Ruiz。

驳回辩护的动议包括从表面上讲的报价,表面上说:(a)法规认为原本无辜的行为必须清楚地描述允许和禁止的行为之间的界限,并且不能在宪法上要求被告证明剥夺他的事实。

想要在收件箱中发布新闻吗?

订阅我们的免费新闻警报新闻通讯

您将收到有关坦帕湾及其他事件的重大问题和活动的实时更新。

你们都签了!

想要更多您的收件箱中的免费,每周的新闻通讯吗?让我们开始。

探索您所有的选择

该报价在该裁决中没有出现。鲁伊斯案也不支持该主张。

Mizelle还列出了至少七个引号错误地归因于她所说的案件可能支持伯克的论点。她还指出了其他其他问题,援引了一个真正的报价归因于错误的法院的例子。

拉什在回应中写道,他进行了大量法律研究和写作以准备动议。他使用了在线法律研究服务Westlaw的AI功能,以及Google Scholar,一个学术搜索引擎,以及与Chatgpt版本的深入研究。

响应状态下,这些工具的组合产生了最终产品。

考虑到文档的大小,复杂性和范围,Rasch写道,他应该要求额外的时间提交。他向法院,马杜克斯和伯克道歉。

米泽尔(Mizelle)在周二法庭上说,她不认为这些错误是由于伯克(Burke)团队缺乏热心的法律倡导。她说,她认为伯克正在从他的两个律师那里得到良好的代表。

现年46岁的伯克(Burke)是一位全国认可的媒体顾问,他曾为HBO和ESPN等主要公司工作。他以寻找和促进晦涩的在线内容的能力而闻名。

他被控与他在网上发现的视频的收购和分发有关的14项联邦犯罪,其中包括一些描绘了未播放的福克斯新闻镜头的罪行。联邦检察官指责他侵入私人计算机系统来获取视频。

他的律师断言,伯克(Burke)通过在公共网站上获得证书来访问这些视频,从而找到了这些视频。他们认为,他是一名记者,为公共利益带来了材料。他们说针对他的案件侵犯了他的第一修正案权利。

该案定于9月进行陪审团审判。

像许多专业一样,近年来,律师和法院将人工智能工具纳入了他们的工作。在民意调查去年由汤森路透公司(Thomson Reuters Company)进行的,有63%的律师受访者报告说,他们已经使用了AI工作,而12%的受访者说他们定期使用它。

伯克(Burke)远非第一个案例,即看到AI生成的幻影引用和法律的错误陈述。

今年早些时候,这家位于佛罗里达的人身伤害巨头摩根和摩根向他们的律师发送了一封电子邮件,警告AI可以在法院文件中添加虚假信息。在此案件中,发现该公司处理的案件中的案件中发生了案件,其中包括对八个不存在的案件的引用。聊天机器人用于编写简短生成的日期和同样虚构的案例号。

负责这一错误的律师在法庭上道歉,承认对AI的依赖放错了地方。法官禁止律师在此案上进行进一步的工作,并罚款1,000美元。

本月初,一名加利福尼亚法官下令原告的律师事务所要支付31,000美元他们提交摘要后,法官发现包含了AI产生的许多虚假和不正确的引用,麻省理工学院技术评论报告

纽约州布法罗的毛拉·格罗斯曼(Maura Grossman),加拿大安大略省滑铁卢分校的律师和计算机科学教授,已经直言不讳地谈论了法院的AI问题。格罗斯曼(Grossman)在给《坦帕湾时报》的一封电子邮件中写道,她不认为技术本身是一个问题,而是过分依赖它。

她指出,大多数律师永远不会提交店员或初级助理起草的摘要,而没有彻底检查其准确性。使用AI时,应适用同样的严格。

格罗斯曼写道:``由于它在法律行业中获得了多少负面宣传,我对错误的持续存在感到惊讶。”您可以使用自我代表的诉讼人更多地了解它,他们无法访问律师的同一案件法数据库,但律师没有真正的借口。

格罗斯曼说,律师在没有考虑其局限性的情况下被所有炒作和流利性和权威所吸引。她认为解决方案是更多的教育。

她写道,如果您必须检查所有最后一句话,可能会少(投资回报率),但这就是我们现在所处的位置。”不这样做是非常有风险的。

关于《法官在AI产生错误的法院动议后责骂蒂姆·伯克的律师》的评论


暂无评论

发表评论

摘要

涉及坦帕媒体人物的联邦案件蒂姆·伯克(Tim Burke)发生了转变,当时他的一位律师使用诸如Chatgpt之类的AI工具进行研究和起草法律文件,从而导致提交动议的错误和错误引用。美国地方法院法官凯瑟琳·金博尔·米泽尔(Kathryn Kimball Mizelle)由于严重的不准确而下令从记录中陷入困境。法官允许国防团队提交准确的版本并解释错误,他们将这些错误归咎于依赖AI和时间限制。没有针对律师采取惩罚性行动,但Mizelle警告不要将来滥用法律工作中的AI。该案例强调了对专业环境中AI生成内容的可靠性和准确性的越来越关注。