英语轻松读发新版了,欢迎下载、更新

内部律师人工智能的五个基础,第1部分|JD Supra

2025-02-12 05:55:44 英文原文

作者:S. McKinley Gray, III

在年度内部律师研讨会期间,沃德和史密斯认证AI治理专业人士和隐私和数据安全律师安吉拉·多蒂(Angela Doughty)对使用人工智能(AI)的潜在影响(AI)使内部律师在内部律师处有优势的全面概述。这种变革性技术。

研讨会遵循游戏主题,并在本次会议期间使用了扑克类比。

Doughty还是一位经过认证的信息隐私专业人员,也是北卡罗来纳州州律师委员会商标法专家。作为Ward和Smith的法律创新总监,她经常向律师事务所和客户提供有关数据隐私和安全,知识产权,人工智能以及与法律领域相关的技术应用程序的建议。

Royal Flush:内部律师的五个关键主题要考虑AI伦理

为了有效地为内部客户提供服务,Doughty内部律师必须理解以下内容:

  • 与AI相关的道德考虑因素
  • 对正在进行的实践的影响
  • 合规性问题
  • 监管框架
  • 建立损害控制程序的必要性

Doughty指出:“在利用这项技术和缓解风险之间走过界限是一个持续的挑战。”这一挑战与技术一起发展。

历史风险相当小。AI被用来对信息进行分类和自动化,做出预测,分析行业趋势,产生业务线索并自定义广告。

Doughty建议:“基本上,AI在过去的行为中预测了基于过去的行为的人类行为。”“现在,它可以模仿人们思考和产生大量产出的方式。这是每个人都在谈论的演变,生成的AI。”

常见的现代应用程序包括起草备忘录,信件和演示文稿,社交媒体帖子,网络内容,人力资源和管理任务等业务通信。从风险管理的角度来看,律师必须了解AI,潜在偏见,问责制以及隐私保护措施的重要性所带来的法律/道德风险的日益增加。

该技术还加剧了人们对当前诉讼,合同纠纷和新兴法律索赔的担忧。Doughty说:“无论您的练习领域如何,您都需要对生成AI的工作原理有基本的了解。”

她预计监管机构的审查水平会增加。Doughty解释说:“在管理风险方面,更多的监督和文档将增加难以创造创新的新产品和服务的障碍。”

内部律师的职责

Doughty概述了所有内部律师需要接受的几项关键职责,以管理其组织中的AI风险和福利:

  • 能力:有能力代表客户的道德义务,现在包括了解AI的福利,风险和影响。
  • 责任和问责制:即使使用AI,也要对服务的准确性负责。
  • 机密性和特权:AI工具必须采取强大的安全措施来保护敏感的客户信息。
  • 坦率的义务:相关时披露AI参与,确保风险和限制的透明度
  • 偏见与公平:解决潜在的AI偏见,例如反映有偏见数据的算法,以确保法律服务的公平性。

“委派不是一个选择。”

有效代表客户的需求对内部律师呈现了一系列道德影响。“委派不是一个选择。律师对能力的道德要求要求与所有这些变化保持最新状态。所有国家酒吧很明显,我们有责任跟上这一点,我们不能承担责任,”添加了Doughty。

一些法院提到律师必须证明在提交中没有使用AI。其他人则试图确定在某些情况下是否可以允许的。

Doughty评论说:“我们已经与诉讼人进行了许多对话,讨论如何影响证据验证,对新型专家的潜在需求以及其他AI问题(例如Deepfakes)。”

AI的使用并不能消除准确性的负担。同样,对于律师来说,了解AI必须具有强大的安全性以保护敏感的客户信息也是至关重要的。

律师必须披露使用AI的使用吗?

一位听众巧合地问:“律师可以将他们的卡握在胸前,还是必须透露使用AI的使用?”

“答案是取决于。” doughty笑着说。“坦率是一个更加困难,细微的领域。您可能不必在每个领域披露它,但是有必要披露它是否用于战略决策。客户也应该有机会选择退出。”

一些客户想知道是否使用AI简化运营是否会使法律服务更便宜。但是,与购买和实施该软件相关的成本很重要,因此对于许多公司而言,生成AI的使用尚未影响可扩展性或提供服务的成本。

当生成的AI纳入战略决策时,偏见和公平就会变得重要。与信誉良好的供应商合作并审查其数据收集实践至关重要。

为了说明AI如何出错,Doughty分享了两家使用它做出招聘决定的公司的示例。生成的AI技术使用了历史数据,并且公司在历史上以男性为主的行业中运作,因此AI被发现对男性有偏见。这与每个公司的目标相反,并陈述了公共招聘做法。

面对人工智能的内部律师和工作保障

律师中普遍的恐惧是AI会从事他们的工作。Doughty指出:“由于AI被用于研究,审查和制图之类的事情,因此许多律师询问了这一点。”

使律师有价值的传统方面将继续相关。Doughty解释说:“客户仍将向我们寻求建议和宣传。他们仍然希望我们开发创造性解决方案。”

她认为,AI可以腾出时间专注于战略目标:“在传统法律主张的背景下对生成AI进行分层可以提供更多的见解。”

由于AI已集成在许多领域,因此产品和服务责任是一个不断发展的问题。而且,许多案例正在解决,因为与完全掌握该技术的细微差别相关的学习曲线广泛。

例如,在涉及汽车驱动器的汽车残骸中,制造商应归咎于制造商吗?使用该技术是消费者的错吗?组件制造商或编码器是否有故障?

确定如何使客户整体代表不断发展的挑战。Doughty说:“所有这些都采用法律知识,批判性思维,理解法学,具有背景和经验的情况,而AI没有。”

在购买AI软件时,许多合同条款(例如赔偿和保证)都是相同的。但是,通常不了解的是这些术语适用于AI的方式不同。这意味着从其他类型的技术依靠样板合同语言可能是有问题的。

Doughty评论说:“这是划分风险分配的地方。”“ AI拥有的自主权越多,您对风险的控制就越少。”

Doughty认为,这一因素可能会导致更多的责任,并向AI提供商带来风险。另一个问题与数据的所有权有关。由于AI固有的时间随着时间的推移而变化,因此输出的所有权和IP的所有权之间不再有明确的描述。

Doughty指出:“现在,AI提供者可以根据其匿名数据并继续向其学习的能力提供折扣。”“至关重要的是要解决前端,因为行业标准是,如果数据限制不在合同中,我们将对它做我们想做的事情。”

谁需要访问您公司的AI工具?

最大程度地减少获得AI是减轻风险的重要措施。各个不同组织级别的人们都使用AI工具,这使公司面临一系列负面结果,包括数据泄露,隐私索赔,歧视和偏见索赔。

“这在每个人都只是想完成工作的商业情况下很难。他们想在需要时从中获得所需的东西。事实,我们中的许多人已经优先考虑了多年的便利性,甚至使它变得更加封闭信息更困难,” Doughty补充说。

“正如沃德(Ward)和史密斯(Smith)的共同管理主任威廉姆斯(Williams)所说的那样,'直接是善良的;人们想做您要求他们做的事情。”考虑到这一点,制定严格的政策至关重要,直到数据类型和工具,” Doughty提到。

出于人力资源的目的,该技术越来越多地用于雇用决策,终止,薪水,奖金,消除候选人和工作场所监控。人工智能正在推动前所未有的决策,但组织的问责制仍然存在,因此审查所有内容很重要。

IP,版权和AI信息数据

知识产权的所有权可能是生成AI的持续问题,一位内部律师应特别关注。法院很久以前决定,一只猴子不能拥有图片的版权,但是机器呢?

Doughty用AI在她的演讲中创建了所有幻灯片:“这是否意味着我拥有版权?如果您重复使用,我可以起诉您侵权吗?”

目前,版权办公室指出,生成AI创建的任何内容均未附加任何版权。许多人认为,AI窃了作家生成文章的工作,并且对该技术缺乏信任,这实际上只能从现有内容中汲取思想。

就商业秘密而言,法院仅保护公司保护的内容。Doughty说:“有时候,员工将商业秘密投入到这些系统中,并提出摘要,项目符号或演讲。。

政策需要直接和具体。需要批准AI工具,并且还应对使用它的人员进行测试和批准,以确保其按预期使用方式使用。

建议表示是否可以在合同中使用AI。“我们在营销公司中看到了很多。您不希望您的网站上发布一些带来需求信的内容。那里有很多版权巨魔,他们都渴望起诉。这可以是处理非常昂贵。”

对于那些与保险公司谈判经验的人,得知他们经常寻求漏洞以避免付款可能不足为奇。限制员工获取信息可能是增强网络保险要求的有效方法。

AI已经对从风险评估和保险承销到保单和索赔处理的一切都会产生影响。使用该技术的公司应审查其网络覆盖范围,以确保涵盖与AI相关的事件。

值得注意的是,某些网络保险政策不涵盖由AI引起的数据泄露和/或工作停止。在以最低风险的最低风险寻求竞争优势的无休止的搜索中,对AI感兴趣的公司应实施两种策略。

一个人应该在内部集中精力,另一个人应该在外部集中精力,因为每个人都承担着不同的风险水平。每种策略也有可能使公司前进,因此忽略该技术在机会成本方面是有风险的。

本文是一系列介绍我们2024年内部顾问研讨会的见解的一部分。下面有更多见解。

关于《内部律师人工智能的五个基础,第1部分|JD Supra》的评论


暂无评论

发表评论

摘要

将AI集成到业务运营中既带来了重大的机遇和重大风险,尤其是在数据安全,知识产权和法律遵守方面。以下是研讨会的关键见解,内容涉及内部律师如何应对这些挑战:### 1。**最小化对AI工具的访问** - **战略访问控制:**限制对AI工具的访问对于缓解风险至关重要。组织中的不同角色应根据其职责和所处理数据的敏感性具有不同级别的访问权限。 - **策略和培训:**实施严格的策略,这些策略指定谁可以使用AI工具,这些系统中允许哪些类型的数据以及应如何处理数据后处理。为员工提供培训以了解使用AI的含义至关重要。### 2。**数据安全和隐私** - **内部监控:**确保由AI驱动的人力资源决策,例如招聘,终止,薪金调整和工作场所监控,并遵守法律标准。该组织的问责制仍然存在。 - **访问控制:**通过限制可以访问AI工具的人,减少数据泄露或滥用的风险来最大程度地减少对敏感数据的接触。### 3。**知识产权(IP)和版权** - **所有权问题:**澄清有关通过AI生成的IP的所有权。由于当前的实践没有为机器生成的内容分配版权,因此清楚地记录过程非常重要。 - **商业秘密保护:**对AI系统中如何处理商业秘密要谨慎。当使用AI工具进行汇总或分析时,员工可能会无意间披露专有信息。### 4。**合同注意事项** - ** AI用法条款:**将有关AI使用的特定条款纳入合同中,尤其是在与营销机构等第三方服务提供商打交道时。 - ** IP和责任规定:**确保合同解决数据所有权,滥用或违规责任以及遵守法律标准等问题。### 5。**网络保险和风险管理** - **覆盖范围审查:**验证网络保险政策是否涵盖了与AI相关的事件,包括该技术引起的数据泄露。 - **战略规划:**制定全面的风险管理策略,该策略考虑内部(员工访问控制)和外部(第三方合同)风险。### 6。**法律合规性和监管监督** - **监管意识:**请了解有关AI使用不断发展的法规,特别是在数据隐私(GDPR,CCPA),IP法和就业实践等领域。 - **内部审核:**定期审核AI系统和用法,以确保遵守法律标准和组织政策。### 7。**员工培训和意识** - **定期更新:**为员工提供有关适当使用AI工具的持续培训,数据安全的重要性以及与滥用相关的潜在风险。 - **文化转变:**培养一种优先级优先于便利性的文化,强调需要严格的访问控制和负责任的使用。### 8。**道德考虑** - **偏见和歧视:**监视AI驱动的决定,以防止偏见或歧视性实践。实施保障措施以确保人力资源过程中的公平性。 - **透明度:**对组织中的AI使用方式透明,并主动解决任何道德问题。通过实施这些策略,内部律师可以帮助其组织利用AI的福利,同时减轻风险并确保遵守法律标准。