作者:by Thomas URBAIN
生成性人工智能(Genai)尽管早期陷入困境,但仍在进入法院,对它将如何影响法律制度和正义本身提出质疑。
法官使用该技术进行研究,律师将其用于上诉,而参与案件的当事方依靠Genai来帮助自己在法庭上表达自己。
西北普利兹克法学院的教授丹尼尔·林纳(Daniel Linna)说:“它可能比人们预期的更多。”
“法官不一定会举手,并向整个法官室谈论这一点,但我后来有人来找我,说他们正在尝试。”
在一个著名的情况下,Genai使谋杀受害者克里斯·佩尔基(Chris Pelkey)在驾驶者之间发生冲突中被判犯有枪杀的男子在2021年被判枪杀他死亡的男子的判决中以视频的身份向亚利桑那法庭讲话。
“我相信宽恕,”由他的姐姐史黛西·威尔士(Stacey Wales)创建的数字代理佩尔基(Pelkey)说。
法官对化身表示赞赏,称这似乎是真实的。
威尔士告诉法新社:“我知道这将是强大的,它将在法官眼中使克里斯人性化。”
AI证词是其中的第一个证词,结束了威尔士和被杀人家庭的其他成员谈到损失的影响的宣判听证会。
自听证会以来,在美国法律案件中使用Genai的例子已乘以。
在缅因州东北部执业的律师斯蒂芬·施瓦茨(Stephen Schwartz)说:“这是一个有用的工具,只要确认准确性,它就可以节省时间。”
“总的来说,这是法学方面的积极发展。”
施瓦茨(Schwartz)使用Chatgpt以及Genai法律助理(例如Lexisnexis Protege和Thomson Reuters的Cocounsel)进行了描述,用于研究判例法和其他任务。
施瓦茨警告说:“您不能完全依靠它。”建议阅读Genai提供的案例以确保准确性。
“我们都知道一个恐怖的故事,AI提出了混合案例的事情。”
该技术是虚假法律引用,牵强的案例先例和扁平化造型背后的罪魁祸首。
5月初,联邦法官在洛杉矶,两家律师事务所施加了31,100美元的罚款和赔偿,该公司在Genai的帮助下起草了一个错误的请愿书,将其作为“集体崩溃”爆炸。
一些跳过律师并代表自己的人也依靠该技术法庭,通常会导致法律错误。
国家法院国家法院中心的Shay Cleary表示,随着Genai使法律投诉的起草更容易,更便宜,法院已经超过了案件负担,可以看到它们攀升得更高。
克利里说:“法院需要做好准备。”
法学教授Linna认为Genai成为解决方案的一部分的潜力,使更多的人在法庭上寻求正义的能力提高了效率。
林娜说:“我们有很多人无法获得法律服务。”
“这些工具可以具有变革性;当然,我们需要对我们如何整合它们进行周到的思考。”
美国国会大厦的联邦法官已书面决定,指出他们使用Chatgpt发表意见。
林娜说:“法官需要在技术上是最新的,并在AI中接受了培训。”
这位教授认为,Genai助手已经有可能影响案件的结果。
Genai指出的事实或判例法可能会影响法官的决定,并且可能与法律书记员的提出不同。
但是,如果Genai始终掌握其潜力,并且擅长寻找最佳信息供法官考虑的信息,那么这可能会使良好的裁决在上诉中被推翻的可能性较小。
©2025 AFP
引用:当生成型AI进入法庭时,正义(2025年6月19日)检索2025年6月20日摘自https://techxplore.com/news/2025-06-justice-stake-generative-ai-courtroom.html
该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。