作者:By Sara MerkenFebruary 18, 20258:55 PM UTCUpdated ago
在2025年1月27日拍摄的此插图中,可以看到一条消息阅读“ AI人工智能”,键盘和机器人手。路透社/dado ruvic/插图/档案照片购买许可权利,打开新标签
2月18日(路透社) - 美国人身伤害律师事务所Morgan&Morgan发出了紧急
电子邮件,打开新标签本月,其1000多名律师:人工智能可以发明伪造案例法,并且在法院申请中使用虚构的信息可能会让您被解雇。
怀俄明州的一名联邦法官刚刚威胁要批准该公司的两名律师包括虚拟案例引用在针对沃尔玛的诉讼中
(WMT.N),打开新标签。一位律师上周在法庭文件中承认,他使用了一项“幻觉”案件的AI计划,并为他所谓的无意中错误道歉。
路透社发现,在过去两年中,AI在案件中产生法律小说的偏爱导致全国各地的法院在至少七起案件中质疑或纪律律师,并为诉讼人和法官造成了新的高科技头痛。
沃尔玛案之所以脱颖而出,是因为它涉及一家著名的律师事务所和大型公司被告。但是,像聊天机器人这样的聊天机器人迎来了AI时代的聊天机器人,因此在各种诉讼中都出现了例子,突出了新的诉讼风险。
摩根和摩根发言人没有回应置评请求。沃尔玛拒绝发表评论。法官尚未裁定是否在沃尔玛案中是否遵守律师,该案件涉及据称有缺陷的气垫板玩具。
生成AI的进步正在帮助减少律师研究和起草法律摘要所需的时间,导致许多律师事务所与AI供应商合同或建立自己的AI工具。
63%的律师,打开新标签去年由路透社母公司汤森路透的调查说,他们已经使用了AI工作,有12%的人表示定期使用它。
法律专家说,众所周知,生成的AI可以自信地构成事实,而使用该事实的律师必须谨慎。AI有时会在行业中产生虚假信息,称为“幻觉”,因为这些模型基于从大型数据集中学到的统计模式而不是通过验证这些数据集中的事实来产生响应。
律师道德规范要求律师审查和支持其法院申请,否则有纪律处分的风险。美国律师协会告诉其40万成员去年,这些义务扩展到了通过AI产生的“甚至是无意的错误陈述”。
萨福克大学法学院院长安德鲁·佩尔曼(Andrew Perlman)说,后果并没有改变,因为法律研究工具已经发展。提倡使用AI来增强法律工作。
佩尔曼说:“当使用chatgpt或任何生成的AI工具捕获律师而不检查引用时,那是无能的,只是纯粹而简单的。”
在最早的法院之一中,律师在2023年6月在曼哈顿的联邦法官使用AI,被罚款两名纽约律师$ 5,000涉及AI在针对航空公司的人身伤害案件中发明的案件。
去年纽约的另一名联邦法官考虑实施制裁唐纳德·特朗普(Donald Trump)的前律师兼修理工迈克尔·科恩(Michael Cohen)的案件说,他说他错误地给了自己的律师假案件引用,该律师在科恩的刑事税和竞选财务案件中提交了律师。
使用Google的AI Chatbot Bard的科恩(Cohen)和他的律师没有受到制裁,但法官称这一集为“尴尬”。
11月,德克萨斯联邦法官命令律师他在不当终止诉讼中引用了不存在的案件和报价,以支付2,000美元的罚款,并参加有关法律领域的生成AI课程。
明尼苏达州的一名联邦法官说,一名错误信息专家在承认无意中援引法院后摧毁了他在法院的信誉。假AI生成的引用在涉及副总统卡马拉·哈里斯(Kamala Harris)的“深瓦”模仿的案件中。
科罗拉多大学法学院的法学教授哈里·苏登(Harry Surden)研究了人工智能和法律,他建议律师花时间学习“工具的优势和劣势”。他说,越来越多的例子表明该行业“缺乏AI素养”,但技术本身并不是问题。
他说:“律师在AI之前一直在提交文件中犯错。”“这不是新事物。”
报名这里。
萨拉·默肯(Sara Merken)在纽约的报道;David Bario和Aurora Ellis的编辑
我们的标准:汤森路透信托原则。,打开新标签
萨拉·默肯(Sara Merken)报告了法律业务,包括纽约和全国范围内的法律创新和律师事务所。