英语轻松读发新版了,欢迎下载、更新

根据新数据库,已有120起法院案件被AI幻觉捕获

2025-05-27 18:19:30 英文原文

仅在过去的一个月中,超过20多名法律专业人士就被破坏了。

经过

塞西莉·莫兰(Cecily Mauran)塞西莉·莫兰(Cecily Mauran)

在 

robotic hand holding up icons related to legal concepts

在法庭案件中,AI幻觉越来越出现。 图片来源:Somkid Thongdee / Istock / Getty Images

最近代表人类的律师被破坏了使用克劳德在专家证词中生成的错误归因。

但这是包含20多个法院案件之一人工智能根据一个一个月的幻觉新数据库由法国律师和数据科学家达米安·夏洛汀(Damien Charlotin)创建。这些只是该法案中被抓住的人。在2024年,这是跟踪案例的第一年,夏洛汀发现了36​​个实例。在2025年,这一数字跳至48,而这一年只有一半了。该数据库于5月初创建,到目前为止有120个条目,可以追溯到2023年6月。

在法庭案件中,AI幻觉的数据库表明,使用AI来自动化建立案件的咕unt声的律师越来越多。数据库中第二古老的条目是Mata诉Avianca案件在2023年5月,律师事务所Levidow,Levidow&Oberman获得的情况下成为头条新闻以假案为由抓住生成chatgpt

该网站称,数据库跟踪AI Chatbot幻觉文本“通常是假引用,但也是其他类型的参数”的实例。这意味着对以前的案件进行假件引用,通常是建立法律先例的一种方式。在法律文件的其他方面,它没有说明使用生成的AI。“因此,具有幻觉内容的案例的宇宙必然会更宽(我认为很多更宽)。

“总的来说,我认为这仅仅是法律领域是AI生成的幻觉的完美繁殖场:这是一个基于文本和论点的领域,在这种领域中,生成的AI可以采取强大的立场;引用遵循模式,而LLMS则喜欢这种情况,” Charlotin说。

可混合的轻速速度

生成性AI的广泛可用性使得生成文本,自动化研究和写作可能会花费数小时甚至几天。但是,在某种程度上,夏洛丁说,对于法律论点,错误或误解了引用并不是什么新鲜事物。他说:“从过去的案件中复制和粘贴引用,直到引用与原始案例几乎没有关系的时间一直是该行业的主食。”

夏洛汀指出的区别在于,那些被复制和粘贴的引用至少提到了真正的法院裁决。生成AI引入的幻觉是指从未存在的法院案件。

法官和反对律师 在此案中,总是应该检查引用自己各自的责任。但这现在包括寻找AI幻觉。Charlotin说,在情况下发现的幻觉增加可能是LLM的可用性增加,但“参与每个人的问题都提高了对问题的认识”。

最终,依靠Chatgpt,Claude或其他聊天机器人引用过去的法律先例是结果的。对用AI幻觉捕获的文件的人的处罚包括金融制裁,正式警告,甚至驳回了案件。

话虽如此,夏洛汀说,到目前为止,处罚是“温和的”,法院将“对当事方的责任表示责任”,因为检查引用的责任保持不变。“我觉得任何参与的人都感到有些尴尬。”


披露:Mashable的母公司齐夫·戴维斯(Ziff Davis)在4月份提起了针对OpenAI的诉讼,指控它侵犯了Ziff Davis在培训和运营其AI系统方面的版权。

Mashable Image

Cecily是Mashable的技术记者,涵盖了AI,Apple和新兴技术趋势。在哥伦比亚新​​闻学院获得硕士学位之前,她花了数年的时间与不合理的集团和B实验室的初创企业和社会影响业务合作。在此之前,她共同创立了一家针对南美,欧洲和亚洲新兴企业家枢纽的初创咨询业务。你可以在x上找到她@cecily_mauran

这些新闻通讯可能包含广告,交易或会员链接。通过单击订阅,您确认自己是16岁,并同意我们的使用条款隐私政策

关于《根据新数据库,已有120起法院案件被AI幻觉捕获》的评论


暂无评论

发表评论

摘要

在过去的一个月内,在法院案件中使用AI生成的虚假归因捕获了20多名法律专业人员。法国律师和数据科学家达米安·夏洛汀(Damien Charlotin)创建了一个数据库跟踪此类实例,该实例在2024年记录了36例,到2025年中期,该案件记录了48例。越来越多的生成AI在法律工作中的使用引起了人们对错误的引用和使用AI幻觉捕获的案件的潜在驳回的担忧。惩罚范围从金融制裁到案件驳回,尽管夏洛丁指出,到目前为止,他们的罚款相对温和。