人工智能季度更新 - JD Supra

2024-09-27 20:13:50 英文原文

在本季度更新中,我们回顾了企业使用人工智能 (AI) 的三个重要主题的最新进展。首先,我们讨论与人工智能相关的风险、董事会监督的理由以及董事会如何对管理层实施人工智能进行监督。其次,我们回顾了人工智能知识产权(IP)诉讼的最新趋势。最后,我们概述了广泛规范人工智能的三项州法律以及潜在人工智能立法中的新兴主题。

董事会的人工智能监督

为什么人工智能是董事会的一个问题?

董事会负责监督公司的整体事务和风险策略。当公司使用像人工智能这样具有影响力的新技术时,董事会有责任确保这些使用符合公司的目标,并管理固有风险。

董事会负责监督公司遵守法律和道德义务的情况。至少三个州已经通过了监管私营部门人工智能使用的立法,至少有 35 个州将于 2024 年推出人工智能法案。世界上多个国家也通过了人工智能立法,包括中国、加拿大和欧盟的新法律。美国最近与欧盟、英国、加拿大、澳大利亚、以色列、日本和其他几个国家签署了一项条约,规定个人反对有害人工智能使用的权利,同时责成参与国解决私营部门与人工智能相关的风险。

根据美国现行法律法规,联邦贸易委员会 (FTC) 和证券交易委员会 (SEC) 都警告公司不要不当使用人工智能或误导公众。美国证券交易委员会 (SEC) 于 2024 年 3 月就两名投资顾问因人工智能使用方面的虚假陈述而提出的指控达成和解。2024 年 6 月,美国证券交易委员会 (SEC) 就一家人工智能招聘初创公司因人工智能方面的虚假声明而提出的指控达成和解,美国证券交易委员会 (SEC) 称,这构成了使用人工智能和自动化等新流派流行语的老派欺诈行为。

上市公司有关人工智能的披露必须准确并公平地描述风险。2024 年 6 月,SEC 公司财务部主任强调了公司 10-K 文件中可能存在的人工智能披露要求,包括披露业务描述、风险因素、管理层讨论和分析、财务报表和董事会的部分发挥风险监管作用。SEC 主席加里·詹斯勒 (Gary Gensler) 多次警告公司不要进行人工智能清洗,包括最近在 SEC 于 2024 年 9 月 9 日发布的办公时间视频中,詹斯勒主席在视频中强调了公司在讨论人工智能使用时必须保持准确性,他表示、投资顾问、经纪自营商也不应该误导公众,说他们没有使用人工智能,也不应该说他们正在以特定方式使用人工智能,但实际上却没有这样做。

还针对人工智能披露的公司提起了集体诉讼证券诉讼,其中至少包括借贷市场 Upstart、代码开发平台 GitLab 和机器人流程自动化公司 UiPath(该公司提供自动化重复业务任务的工具)。每项投诉中的原告均指控被告就人工智能的使用做出了重大虚假或误导性陈述,违反了《证券交易法》第 10(b) 和 20(a) 条,导致原告以虚高的价格购买了被告的股票。价格。

忽视人工智能的风险可能会让董事会承担潜在的责任。未能监督关键任务的公司风险导致了因董事会违反 Caremark 原则下的忠诚义务而产生的派生索赔。例如,特拉华州法院最近审查了 Caremark 针对董事会提出的指控,指控其未能充分监督网络安全风险。尽管迄今为止,Caremark 的责任仅限于董事会未能监督导致违法的风险的情况,但新的人工智能法律法规的激增,以及人工智能使用带来的固有风险,凸显了潜在的风险。缺乏人工智能监督来构成 Caremark 索赔的基础。

人工智能风险

由于人工智能在公司内部潜在用途的广度和深度(可能跨越财务、法律、产品开发、营销、合规、运营和供应链部门),董事会对人工智能关键任务风险的监督变得复杂。客户的信心和公司的声誉也可能受到威胁。此外,虽然董事会应随时了解情况并对关键风险进行监督,但实施公司战略并保持对其业务的运营权力则取决于管理层。也就是说,董事会应考虑的与人工智能相关的风险可能包括:

  • 偏见和歧视:防止偏见和歧视已成为寻求监管人工智能的立法者最关心的问题(见下文)。大多数新的人工智能法律都要求对人工智能系统进行人工审查或审计,特别是当人工智能用于提供基本商品和服务时,例如住房、医疗保健、就业、保险、信贷或金融服务、法律服务以及政府计划或援助.
  • 透明度:继反偏见措施之后,透明度似乎是人工智能监管机构最关心的问题。美国大多数新的和拟议的人工智能法律都要求公司告知公众他们正在交互的内容是否是人工智能生成的。欧盟人工智能法案还要求所有不被视为高风险的人工智能用途具有透明度和标签,并且欧盟的所有高风险用途都必须遵守透明度要求和严格的反偏见控制。
  • 责任和义务:人工智能生成的内容可能并不总是最新的或准确的。公司应确保他们有适当的流程来验证人工智能输出的准确性和适当性。如果不这样做,可能会导致效率低下或削弱公众信任。此外,大多数新兴人工智能立法将需要某种形式的记录保存和问责措施。
  • 保密性:任何人工智能输入都不应具有保密性。将人工智能与机密信息结合使用可能会导致一系列后果,包括违反保密协议、失去对公司机密的保护、收入损失、公司形象和声誉受损以及不利的法律行动或处罚。
  • 数据隐私:许多现有隐私法限制对个人数据的自动分析,以做出对消费者有重大影响的决策。隐私法要求公司保护个人数据免遭泄露,并披露所使用数据的来源、使用目的以及个人数据的共享方式。在个人数据上使用人工智能的公司应实施政策以确保遵守隐私法。
  • 知识产权和使用条款:使用人工智能生成公司材料可能会引起此类材料所有权的问题,或者可能侵犯第三方的版权和其他知识产权,如下文进一步讨论。

董事会成员可以确保公司拥有有效的保障措施来防止人工智能滥用,从而帮助利用人工智能的优势,同时降低这些风险。

董事会成员可以做什么?

董事会应考虑以下几个步骤来确保安全有效的人工智能部署:

  • 了解人工智能:董事会成员应该对人工智能是什么、它如何运作以及它可能为公司带来什么好处有基本的了解。董事会应考虑招募具有人工智能知识的成员,以识别管理层的机会以及如何最大限度地降低相关风险。
  • 制定人工智能战略:董事会应帮助制定公司的人工智能使用战略,并确保其符合公司的整体使命、目标和道德标准。董事会应熟悉人工智能机遇,并定期收到管理层关于人工智能潜在用途和优势的报告。
  • 设定风险承受能力:董事会了解人工智能的工作原理以及它如何为公司带来好处后,应该有助于设定公司对人工智能的风险承受能力,以确保任何潜在收益都值得承担相关风险。
  • 跟踪监管趋势:董事会应关注影响人工智能使用的人工智能特定法规和现有法律,例如隐私和知识产权法以及联邦贸易委员会或美国证券交易委员会的指导,以及未来人工智能法律的立法动向。现有和未来的法律应塑造和指导公司的人工智能部署和治理战略。
  • 建立人工智能护栏:董事会应审查公司的人工智能政策和程序,以确保符合组织的风险承受能力。董事会应定期审查高层政策,特别是在公司部署新的人工智能工具或对其人工智能使用进行实质性改变时。董事会应考虑公司是否投入了足够的资源来管理人工智能的使用。
  • 更新业务连续性计划:董事会应将人工智能考虑因素纳入现有的数据管理、事件响应和业务连续性计划中,并监督涉及人工智能的任何安全事件的恢复策略。
  • 实施定期更新:董事会应将人工智能作为定期会议议程的一个主题,进行持续监督,或定期接收管理层关于公司人工智能使用情况的更新信息。这些更新可能包括内部审计或测试报告,以确保公司的人工智能使用安全有效,还可能包括主题专家的报告或不同部门的意见,包括 IT、人力资源、法律、风险、隐私和合规部门,根据需要。

资源可帮助董事会完成这些任务。白宫科技政策办公室发布了《人工智能权利法案》,阐述了安全有效使用人工智能的五项原则,并解释了相关风险。美国国家标准与技术研究院(NIST)发布了人工智能风险管理框架,旨在帮助各行业的公司设计、开发、部署或使用人工智能系统,帮助管理人工智能的诸多风险,促进值得信赖和负责任的发展和使用人工智能系统。国际标准化组织 (ISO) 发布了许多人工智能治理材料,从关于人工智能如何工作的基本入门到关于如何确保负责任的人工智能治理和部署的技术手册 (ISO/IEC 42001)。

对于大多数公司来说,董事会考虑人工智能机会以及如何监督管理层在组织中实施人工智能的情况并不算太早。

有关人工智能的知识产权诉讼

版权

版权问题已成为人工智能知识产权纠纷的主要原因。虽然这些案件大多数都指控侵权,但至少有一个案件揭示了人工智能生成作品的作者权问题(以及专利发明人问题)。

作者

2022 年,Stephen Thaler 博士对美国版权局 (USCO) 提出投诉,质疑其注册申请被拒绝,因为他声称该艺术品是由他构建和拥有的算法创作的,版权应转让给他作为雇佣工作。哥伦比亚特区地方法院对泰勒做出了简易判决,根据几个世纪以来的共识和美国宪法,认定人类作者身份是有效版权主张的重要组成部分。塞勒于 2023 年 10 月提出上诉,并于本月在华盛顿特区巡回上诉法院进行了口头辩论。

在口头辩论中,泰勒斯的律师辩称,美国最高法院所依据的 1884 年美国最高法院关于奥斯卡·王尔德肖像的案件,代表了应广泛解读《版权法》以适应技术进步的原则,该案件是 USCO 所依据的。陪审团的法官质疑塞勒为何不在登记表上将自己列为作者,并暗示他可能已经放弃了雇佣工作的论点。在该案中充当法庭之友的几位教授认为,未能将版权保护范围扩大到人工智能生成的作品可能会扼杀创新,并迫使海外创意公司保护其作品。

可能是为了回应 Thalers 的投诉,2023 年 3 月,USCO 发布了指南,澄清其审查和注册包含人工智能生成材料的作品的做法。该指南规定,USCO 可以为部分使用人工智能工具创作的作品授予注册,其中人类被列为作者,但不会为完全由人工智能生成的作品授予注册。申请人有责任披露在作品中使用生成式人工智能并解释人类作者的贡献。

作者、艺术家和出版商的侵权行为

作者和艺术家对人工智能开发者提起了许多侵权诉讼,声称人工智能平台在受版权保护的作品上接受了不当的培训,以产生原告风格的输出。在 Andersen 诉 Stability AI Ltd. 的早期侵权诉讼中,地方法院驳回了与人工智能生成的输出相关的替代侵权和诱导侵权理论,但保留了基于未经许可复制数百万张图像以训练人工智能输出的直接侵权理论。人工智能模型。

后来的案件也同样被简化为基于人工智能未经许可复制的直接侵权理论。例如,在针对 OpenAI 的联合诉讼中,其中包括喜剧演员 Sarah Silverman 成为头条新闻的案件,原告放弃了替代侵权理论,转而支持单一的直接侵权罪名。In Re OpenAI ChatGPT Litigation 中经过修改的投诉现在指控被告复制并摄取受版权保护的文学作品中的大量文本来训练 ChatGPT。2024 年 4 月和 5 月,加州北区已针对 Google、Databricks 和 Nvidia 等公司提起了类似案件,所有这些公司均指控复制并用于训练人工智能的文学或视觉作品直接侵权。

出版商和媒体公司已开始针对人工智能开发者提出版权索赔,但并未选择将他们的理论限制为基于复制的培训材料的直接侵权。这可能是因为出版商在加利福尼亚州北区以外提起了这些案件,而安德森法院驳回了诱发侵权和替代侵权理论。例如,《纽约时报》于 2023 年 12 月在纽约南区对 OpenAI 和微软提起诉讼,指控其未经许可复制《纽约时报》出版物以训练 ChatGPT,从而构成直接侵权、替代侵权和共同侵权。Getty Images 于 2024 年 7 月在特拉华州对 Stability AI 提出了第二次修改后的投诉,指控 Stability AI 出于创建目的而复制了 Getty Images 收藏中超过 1200 万张照片以及相关的标题和元数据,其行为规模惊人,无耻侵权。竞争性业务。在 Concord Music Group, Inc. 诉 Anthropic PBC 案中,一群音乐出版商于 2023 年 10 月在田纳西州中区提起诉讼,指控被告复制音乐作品和歌词来训练其聊天机器人。

许多版权侵权诉讼仍处于诉讼的早期阶段。法院将如何对待用于训练人工智能系统的在线作品的各种版权侵权理论还有待观察。

源代码侵权和开源问题

针对人工智能开发者的侵权诉讼并不仅限于艺术品。2023 年 11 月,由匿名原告领导的一个假定团体起诉 GitHub 和微软,指控被告使用存储在代码存储库 GitHub 上的受版权保护的源代码来创建其生成式 AI 源代码产品 Codex 和 Copilot。这些原告进一步指控 GitHub 和微软未能遵守管理该代码的开源软件许可证,该许可证通常允许复制源代码,只要用户将代码归因于其来源并包含许可证和通知的副本任何下游使用的版权。最后,针对 GitHub 的投诉还包括违反数字千年版权法(DMCA)和违约的索赔。地区法院于 2024 年 6 月 24 日有偏见地驳回了 DMCA 的索赔,因为经过多次尝试,原告未能证明他们的代码被完全相同地复制。

数字千年版权法

许多早期的版权侵权诉讼指控违反了 DMCA,该法案禁止删除或更改版权管理信息 (CMI),因为他们知道这样做会诱发、促成、促进或隐瞒版权侵权行为。例如,Andersen 原告指控 Stability AI 不仅复制作品来训练 AI 模型,还从网络上抓取相关的 CMI,例如作品标题、作者姓名和其他识别数据。安徒生法院驳回了 DMCA 的主张,但准许原告进行修改,以确定据称删除了哪些特定类型的 CMI,并提出足够的事实来表明每个被告都了解这样做将有助于侵权。

在 Andersen 被驳回后,一些原告放弃了 DMCA 主张,转而针对训练人工智能的未经许可的复制行为采取直接侵权诉讼。然而,在安徒生判决所在地区之外提起的某些案件,包括 Getty Images、纽约时报和 Concord Music Group 的诉讼,都继续主张 DMCA 主张。

商标淡化

除了版权主张之外,《纽约时报》和 Getty Images 的投诉还包括商标侵权和商标淡化的诉讼理由。例如,Getty 声称,使用其图像来训练 AI 导致 AI 生成的输出包含 Getty 水印的修改或扭曲版本,这会造成混乱,并错误地暗示 AI 输出与 Getty 相关。Getty 进一步声称,被告 AI 生成的一些图像质量低得多,范围从怪异到怪诞或冒犯性,与 Getty 水印相结合会导致商标淡化。

专利

除了以人工智能为作者的版权注册申请(如上所述)之外,泰勒博士还提交了两项以人工智能软件为唯一发明人的专利申请。美国专利商标局 (USPTO) 驳回了这两项申请,地方法院维持了原判,认为国会打算将发明人的定义限制为自然人或人类。

在上诉中,联邦巡回法院解释说,《专利法》将发明人定义为发明或发现主题的个人,根据最高法院的判例,个人是指人类,除非有迹象表明国会另有意图。但联邦巡回法院也为人工智能辅助发明敞开了大门,表示它并不面临人类在人工智能辅助下做出的发明是否有资格获得专利保护的问题。

2024 年 2 月,美国专利商标局发布指南,明确指出,如果自然人对所要求保护的发明做出了重大贡献,则在发明过程中使用人工智能并不排除该发明具有可专利性。

州法律人工智能更新

现有的州法律

到目前为止,科罗拉多州、犹他州和田纳西州三个州已经通过了旨在监管私营部门人工智能的法律。科罗拉多州的人工智能法案是三者中最强有力的,旨在防止因使用高风险人工智能系统而产生的算法歧视。它将高风险人工智能系统定义为成为做出相应决策的重要因素的系统,该决策对提供教育或就业机会、金融或借贷服务、基本政府服务具有重大法律或类似重大影响、医疗保健、住房、保险或法律服务。科罗拉多州要求此类系统的开发者和部署者保护消费者免受算法歧视的风险,包括通过偏见影响评估、风险管理政策、通知消费者人工智能用于后续决策、分析和发布有关可预见风险和缓解措施的声明.

犹他州人工智能政策法案是一项透明度法,制定了两套人工智能披露要求。受监管职业(需要许可证或认证的职业)的成员必须从一开始就向客户显着地披露他或她正在与生成人工智能进行交互。对于所有其他商业用途,人工智能系统的部署者必须清楚、明显地向客户披露他或她正在与生成式人工智能进行交互,但前提是有提示或询问。

田纳西州确保肖像、语音和图像安全 (ELVIS) 法案旨在通过禁止深度伪造来保护音乐产业和艺术家,其中包括人工智能生成的个人肖像和声音内容,以创建虚假视频或音频剪辑。田纳西州扩大了个人姓名、照片或肖像的个人财产权,以涵盖个人声音的使用,无论是真实的还是模拟的,并针对任何出版、分发或以其他方式向公众提供深度伪造品的人或任何人制定了私人诉讼权。主要目的是在未经个人事先授权的情况下创建深度伪造品的软件工具。

一些州已经通过了影响人工智能使用的法律,但范围更为有限。例如,《伊利诺伊州人工智能视频面试法案》规范了人工智能在求职者视频面试中的使用,并要求受访者在解释人工智能将如何在其视频中使用或评估其候选人资格后通知并征得其同意。其他州,包括加利福尼亚州、康涅狄格州、路易斯安那州、德克萨斯州和佛蒙特州,都颁布了法律,指示政府机构研究人工智能的使用方式,并向州长报告任何意外或有害的后果。要求政府分析的州法律的总体目标是告知最终的人工智能道德准则或其他潜在的立法,以解决已确定的问题,例如科罗拉多州、犹他州和田纳西州今年通过的人工智能法律。

立法趋势和发展

2024 年,18 个州的州立法机构至少提出了 35 项旨在广泛规范人工智能在私营部门使用的法案。这些法案涵盖了从简单的透明度要求(如犹他州人工智能法中的要求)到严格的反歧视要求(如科罗拉多州法律中的要求)的范围。这些法案中的绝大多数都要求人工智能开发人员将其输出标记为人工智能生成,防止偏见或歧视,并保留某种形式的记录或评估以记录其反偏见措施。

上周,加利福尼亚州州长加文·纽森 (Gavin Newsom) 签署了两项法案,保护艺术家的数字肖像权。AB 2602 要求合同指定使用人工智能生成的表演者声音或肖像的数字复制品,并且表演者必须在合同谈判中拥有专业代表。AB 1836 禁止在未事先获得表演者财产权的同意的情况下,将已故表演者的数字复制品用于电影、电视节目、录音等的商业用途。

两天后,纽瑟姆州长又签署了三项与深度造假和生成人工智能透明度相关的人工智能法案。SB 926 规定,创建和传播看起来真实并导致该人严重情绪困扰的色情图片属于非法行为。SB 981 要求社交媒体平台为用户提供举报自己露骨色情深度假货的方法,之后平台必须在调查期间暂时屏蔽这些内容。SB 942 要求广泛使用的生成 AI 内容的系统附带出处披露,以便用户更轻松地识别此类内容。这些水印可能肉眼看不见,但应该可以通过人工智能系统提供的免费工具检测到,以便用户可以确定内容是否是人工智能生成的。

政府。纽森还签署了两项旨在限制人工智能在政治竞选内容中使用的法案。AB 2839 扩大了禁止个人和实体故意分享包含人工智能生成或操纵的欺骗性内容的选举材料的时间范围。AB 2355 要求选举广告披露是否使用人工智能生成或经过重大更改的内容。

在 9 月 30 日的截止日期之前,还有其他几项人工智能法案等待纽瑟姆州长签署或否决。一项开创性但有争议的法案将为最大的人工智能模型设定安全标准,以防止灾难发生。SB 1047(《前沿人工智能模型安全创新法案》)将要求涵盖模型(包含特定计算能力水平并满足特定成本阈值的人工智能模型)和某些衍生模型的开发者,除其他外:

  • 实施网络安全保障措施,包括书面安全协议、及时关闭模型的能力以及防止可能导致大规模人员伤亡或超过 5 亿美元损失的严重损害的措施。
  • 评估该模型是否能够造成严重损害,记录评估结果并制定缓解措施。
  • 如果模型可能造成严重伤害,请勿使用或训练该模型。
  • 聘请第三方审核员来审查开发商是否遵守适用的职责。
  • 向加州总检察长和公众提供书面安全协议和第三方审计报告的经过编辑的副本,并在 72 小时内向总检察长报告所有安全事件。

该法案将为举报违规行为的人工智能开发人员员工提供举报人保护,禁止价格歧视,并建立一个名为 CalCompute 的新公共计算集群,以帮助其他人获取该技术并推进人工智能的开发和部署。

最后,一些地方政府正在采取积极主动的做法。纽约市是最早对就业领域人工智能使用进行监管的地方政府之一。第 144 号地方法规定,纽约市雇主和就业机构使用人工智能来确定在招聘或晋升过程中是否应选择或晋升候选人是非法的,除非 (i) 人工智能工具在使用之前经过独立审计员的偏见审计。使用并此后每年;(ii) 最近一次审计的结果公布在雇主网站上;(iii) 在使用 AI 工具之前至少 10 个工作日向接受 AI 筛选的申请人和员工发出通知。其他城市,包括西雅图、波士顿和加利福尼亚州圣何塞,都颁布了政策规范市政雇员如何在工作中使用人工智能。

虽然本报告提供了大部分动态 AI 景观的快照,但我们将继续跟踪与企业使用 AI 相关的重要问题。

[查看源代码。]

关于《人工智能季度更新 - JD Supra》的评论


暂无评论

发表评论

摘要

在本季度更新中,我们回顾了企业使用人工智能 (AI) 的三个重要主题的最新进展。首先,我们讨论与人工智能相关的风险、董事会监督的理由以及董事会如何对管理层实施人工智能进行监督。2024 年 4 月和 5 月,加州北区已针对谷歌、Databricks 和 Nvidia 等公司提起了类似案件,所有这些公司均指控复制并用于训练人工智能的文学或视觉作品直接侵权。2024 年 2 月,美国专利商标局发布指南澄清,如果自然人对所要求保护的发明做出了重大贡献,则在发明过程中使用人工智能并不排除该发明具有可专利性。这些法案中的绝大多数都要求人工智能开发人员将其输出标记为人工智能生成,防止偏见或歧视,并保留某种形式的记录或评估以记录其反偏见措施。