人工智能工具已成为律师的受欢迎。但是法官表明,当他们对技术的实验出错时,他们几乎没有耐心。
当梳理由Cozen O'Connor公司的两名辩护律师提交的文件时,地方法院法官David Hardy至少发现了至少14项判例法,这似乎是虚构的,路透社报告。其他人被错误引用或歪曲。
在面对面之后,两名辩护律师很快认罪:其中一个使用Chatgpt来起草和编辑文件。
在其他法官批准律师犯下类似罪过的地方,哈迪法官上周屈辱了最后通atum,这是残酷和不寻常的边缘性。”
这两个stooges可以在货币制裁中每人支付2500美元,从案件中删除,并转介给州律师。
或者,相反,他们可以吞下自己的骄傲,并写信给他们以前的法学院院长和酒吧官员,解释了他们如何搞砸 - 加上志愿者来谈论AI和专业行为等主题。
在他们的鞋子中,我们选择选项c):消失在地球脸上。
这对Cozen对代表Internet服务提供商Uprise。该律师事务所向法官道歉,并解释说,丹尼尔·曼恩(Daniel Mann)意外提交了一份早期且未经校正的草稿,该草案是在Chatgpt的帮助下提出的。”曼恩被解雇了,但另一位律师扬·托马西克(Jan Tomasik)似乎一直待在。
科森告诉路透社它具有“严格且明确的” AI政策,该政策禁止公开可用的AI工具用于客户工作,尽管显然不是专业的工具。
该公司说:“我们非常重视这项责任,违反我们的政策后果。”路透社。
哈迪法官的惩罚可能是非正统的,但他远非唯一对不仔细检查其AI作业的懒惰律师采取惩罚性行动的人。大型律师事务所摩根和摩根的律师道歉在针对沃尔玛的诉讼中提交AI - 愈合的判例法,法官拍了数千美元罚款,在决定不进行更严厉的惩罚之后。(该公司后来寄出了惊慌的公司范围内的电子邮件它警告了AI的缺点,但值得怀疑地称赞了其有用性。)
有无数 相似的 故事。情节通常是律师使用大型语言模型来帮助引用相关的案例法。但是AI是AI,它会从稀薄的空气中发明案件,或者歪曲了它们,或者将真实的案件混在一起。律师忽略了那种懒惰或粗心的人,足以让人工智能为他们做工作,因此忽略了这项工作。
有罪的政党经常使用诸如Chatgpt之类的AI聊天机器人,但即使是AI工具为法律制作的工具参与了搞砸。甚至没有像Morgan&Morgan这样的大公司毫发无损。
可以理解的是,一些法官正在努力将其淘汰,然后再启动。三名巴特勒雪律师被踢开了案子法官抓住了伪造的AI引用。
亚利桑那州立大学法学院的加里·马尔坎特(Gary Marchant)告诉路透社。一个
法官可能正在“寻找创造性的方法来真正惩罚所涉及的律师,而且要传达一个有希望阻止他人如此草率的信息。”
为了公平对Doofus律师,AI在法律领域的每个部分中都成为一个问题。今年早些时候,加利福尼亚州律师协会承认律师考试的问题是在大型语言模型的帮助下产生的。甚至密西西比州的法官也是被指控使用AI发出乱码的裁决,令人惊叹的律师。
有关AI的更多信息:泄漏的Chatgpt对话显示,用户被确定为律师的用户询问如何“将一个小的亚马逊土著社区从其领土中取代,以建造大坝和水力发电工厂”