他的律师背部受伤,时间不足。在移民案件中提交的提交是应付的,他代表某人提出上诉,反对部长的决定。他听说过在法律工作中使用人工智能并登录Chatgpt,插入了与案件相关的一些单词,以准备案件摘要。他认为摘要很好地阅读了,因此他将详细信息和参考文献纳入了提交中,而无需检查详细信息。
然后,大约两个星期后,移民部长的提交概述强调了申请人文件中不存在的17个案件。
去年将其带到联邦法院时,律师感到非常尴尬和道歉。但是,部长在随后的联邦巡回法院和家庭法院裁决中反映出了强烈的观点,即生成的AI使用对公众关注,因此,以榜样为例,并在Budâ律师中使用榜样很重要生成的AI未检查他们的工作。这
法院提交此事向新南威尔士州法律服务专员进行审查。随着AI在某些行业中的流行,其在法律界的全部用途尚不清楚。
媒体公司汤森·路透(Thomson Reuters)向律师提供了自己的AI软件,并去年对澳大利亚的869名私人执业专业人员进行了调查。
它建议40%在尝试使用AI但谨慎地进行实验的公司工作。
结果表明,有9%的律师是在日常操作中积极使用AI。近三分之一的人说,他们想要一名生产的AI法律助理。
正确和道德的使用
在去年的案件,在家庭法院案件中使用AI软件后,墨尔本律师被转交给了维多利亚州法律投诉机构,该案件引用了虚假案件引用并导致听证会休会。
该律师代表已婚夫妇之间发生争议的丈夫,向法院提供了法官要求的先前案件清单。
法官和她的同事都无法确定名单中的案件。当此事返回法院时,律师证实了使用法律软件LEAP准备了该清单,该法律软件具有生成的AI组件。
LEAP专门允许法律从业人员让律师检查AI的工作输出,但在这种技术幻觉引用时,这并没有发生。
LEAP首席执行官克里斯蒂安·贝克(Christian Beck)表示,世界各地的律师开始采用AI技术。
``在LEAP上,我们鼓励对我们集成的AI产品的正确和道德使用,并在我们的服务产品的一部分中实施了一系列缓解,教育和专业发展措施。”贝克说。
律师为用户提供了一个免费的律师验证过程,该过程由经验丰富的当地律师为基础。我们还通过部署不使用用于培训大型语言模型的技术来认真对待机密性,从而避免了机密材料的风险。
这不仅仅是律师因使用AI而受到批评。那些向法院或代表自己的人提供誓章的人对法官关注。
在去年的一个案件中,罪犯向他的兄弟提出了个人参考,澳大利亚首都最高法院强烈建议[ED]这是由诸如Chatgpt等大型语言模式撰写的。
兄弟的宣誓书中有一份声明说,他在长时间的个人和专业上都认识了他的兄弟,法院提出怀疑该兄弟是否已经准备好了。
在维多利亚上诉法院关于大学解雇学生的裁决中,申请人提交的一些文件包含一些案件引用对不存在的案件的引用。
克里斯汀·沃克法官说:“我没有复制这些引用,以免它们助长LLM [大语言模型] AI发明案例引用的问题。”
新闻通讯促销之后
上个月专家证人明尼苏达州总检察长呼吁谈论错误信息,因为他被发现使用了AI产生的假文章来支持该州的论点。
仍然很早
到目前为止,还没有向监督澳大利亚律师的各个州机构抱怨。
新南威尔士州法律服务专员的发言人说,这仍然是早期的日子,我们确实预计我们可能会收到更多的投诉。
昆士兰州法律服务专员梅根·马洪(Megan Mahon)表示,技术正在改变公众与律师的交流方式。
Mahon说:“一种自助方法是一回事,但是确保AI不会进一步实现非法和不合格的法律服务提供。”
因此,至关重要的是,任何寻求法律咨询的人都确保他们与合格且有执照的法律从业人员互动。”
周一,新南威尔士州最高法院发布的惯例票据对律师使用生成AI的使用限制,包括规定,不得不得用于生成宣誓书,证人陈述,角色参考或其他证据或交叉审查中的其他材料。
墨尔本大学法学教授兼AI与数字道德中心主任珍妮·帕特森(Jeannie Paterson)说,可能会从资源或经验更少的律师那里看到这些错误,这表明需要对律师进行培训使用AI。
她说,我认为这是一个AI识字问题,就像一个松弛的律师问题一样。”
``训练在有用的地方训练人们
如果我们没有这样的扫盲,我们的法律制度将爆炸。
维多利亚州法律服务委员会已确定律师不当使用AI是关键风险。
发言人说,律师对律师的重要责任是,提供准确的法律信息,而不是AI计划的义务。”
与经过专业培训的律师不同,AI可以行使卓越的判断或提供道德和机密服务。”