最近代表人类的律师被破坏了使用克劳德在专家证词中生成的错误归因。
但这是包含20多个法院案件之一人工智能根据一个一个月的幻觉新数据库由法国律师和数据科学家达米安·夏洛汀(Damien Charlotin)创建。这些只是该法案中被抓住的人。在2024年,这是跟踪案例的第一年,夏洛汀发现了36个实例。在2025年,这一数字跳至48,而这一年只有一半了。该数据库于5月初创建,到目前为止有120个条目,可以追溯到2023年6月。
在法庭案件中,AI幻觉的数据库表明,使用AI来自动化建立案件的咕unt声的律师越来越多。数据库中第二古老的条目是Mata诉Avianca案件在2023年5月,律师事务所Levidow,Levidow&Oberman获得的情况下成为头条新闻以假案为由抓住生成chatgpt。
该网站称,数据库跟踪AI Chatbot幻觉文本“通常是假引用,但也是其他类型的参数”的实例。这意味着对以前的案件进行假件引用,通常是建立法律先例的一种方式。在法律文件的其他方面,它没有说明使用生成的AI。“因此,具有幻觉内容的案例的宇宙必然会更宽(我认为很多更宽)。
“总的来说,我认为这仅仅是法律领域是AI生成的幻觉的完美繁殖场:这是一个基于文本和论点的领域,在这种领域中,生成的AI可以采取强大的立场;引用遵循模式,而LLMS则喜欢这种情况,” Charlotin说。
可混合的轻速速度
生成性AI的广泛可用性使得生成文本,自动化研究和写作可能会花费数小时甚至几天。但是,在某种程度上,夏洛丁说,对于法律论点,错误或误解了引用并不是什么新鲜事物。他说:“从过去的案件中复制和粘贴引用,直到引用与原始案例几乎没有关系的时间一直是该行业的主食。”
夏洛汀指出的区别在于,那些被复制和粘贴的引用至少提到了真正的法院裁决。生成AI引入的幻觉是指从未存在的法院案件。
法官和反对律师 在此案中,总是应该检查引用自己各自的责任。但这现在包括寻找AI幻觉。Charlotin说,在情况下发现的幻觉增加可能是LLM的可用性增加,但“参与每个人的问题都提高了对问题的认识”。
最终,依靠Chatgpt,Claude或其他聊天机器人引用过去的法律先例是结果的。对用AI幻觉捕获的文件的人的处罚包括金融制裁,正式警告,甚至驳回了案件。
话虽如此,夏洛汀说,到目前为止,处罚是“温和的”,法院将“对当事方的责任表示责任”,因为检查引用的责任保持不变。“我觉得任何参与的人都感到有些尴尬。”
披露:Mashable的母公司齐夫·戴维斯(Ziff Davis)在4月份提起了针对OpenAI的诉讼,指控它侵犯了Ziff Davis在培训和运营其AI系统方面的版权。