作者:Igal Kolof
人工智能(AI)的快速发展深刻影响着各个领域,法律体系也不例外。虽然人工智能可以简化流程并提高生产力,但它也带来了复杂的法律、道德和实践困境。以色列法院最近审理的案件凸显了人工智能融入法律领域所面临的挑战,这可能会严重影响正义的追求。
一个著名的案件以一项不寻常动议的形式提交给海法地方法院(“Shalom”)。原告以涉嫌交通事故造成的人身伤害为由起诉保险公司。其中一家保险公司向指定的骨科专家提供了一份由人工智能程序生成的总结原告医疗记录的文件。原告要求法院取消该文件的资格,声称该文件的生成方式可能会损害专家的判断。
法院批准了这一请求,强调人工智能系统可能会根据使用方的需求创建新的、经过处理的内容,从而微妙地、甚至可能带有偏见地影响专家的判断。因此,法院裁定不应提交此类文件,因为它可能会以特定方式引导专家的注意力并损害专家的客观性。
人工智能产生的虚假裁决
在另一个例子中,一名律师向耶路撒冷地方法院提交了诉状,其中引用了后来发现由人工智能系统捏造的裁决,但没有尝试验证其真实性。
法院裁定,成文法和以色列律师协会的规定都要求律师确保其论点的真实性。律师必须避免提供虚假信息——无论是故意还是疏忽——因为这种行为会损害公众的信任并损害法律体系的完整性。法院认为,律师的行为违反了他对委托人、对方律师和法院本身的职责。
在之前的一个案件中,一名律师向拿撒勒诺夫哈加利勒治安法院提交了一份答复,引用了一系列所谓的最高法院判决中的引文——这些引文实际上从未存在过。尽管法院有机会证明引文的真实性,但律师无法确认其准确性,而是声称他是根据对最高法院判决的阅读亲自起草了摘要。
主审法官注意到引号的使用,这意味着试图逐字准确地引用,并对律师的行为表示强烈不满。法官进一步指出,律师省略了任何关于引文是由他使用的人工智能系统创建的解释。法院以严厉的态度看待此事,将其移交法院行政部门的法律部门,以采取可能的进一步行动。此案也强调了依赖毫无根据的法律信息的风险,并强调律师有责任提前核实向法庭提交的任何数据的准确性。
以色列律师协会的强制性要求
上述案件与去年 6 月和 10 月期间在以色列境外(纽约和科罗拉多州)发生的类似事件相吻合。在这些案例中,律师在起草诉状时依赖人工智能平台,导致其中包含了虚构的法院裁决。针对此类错误,以色列律师协会于 2024 年 5 月发布了关于人工智能在法律实践中使用的咨询意见,警告称,不受控制地依赖这项技术可能会违反律师的基本道德义务,例如忠诚、透明度和诚信。
该意见提出了几项具有约束力的要求。其中包括验证数据可靠性并避免提供误导性信息的义务。律师必须确保人工智能工具生成的信息在用于法律诉讼之前是准确、可信且经过适当验证的。严禁他们掺入人工智能生成的欺骗性或捏造的内容。此外,在某些情况下,律师必须向法院披露该信息是由人工智能系统专门处理的。
平衡创新与责任
最近的这些事件表明,如果没有适当的监控机制,将人工智能技术整合到法律领域是危险的。其后果不仅限于对司法程序的直接损害,还削弱了公众对法律体系的信任。因此,律师必须谨慎使用这些工具,并实施严格的审查和控制措施。只有遵守这些准则,人工智能技术才能提高法律诉讼的质量并增强公众的信任,而不损害正义原则或职业的基本价值观。
对于法院而言,这些问题的反复出现可能最终导致司法政策对误导法院或法院指定专家的诉讼当事人造成巨大成本,浪费法院和对方当事人要求核实法律来源的宝贵时间。
副词。Igal Kolof 是 Weksler Bergman & Co. 商业部的高级合伙人。