生成式AI、美国工人和工作未来的展望

2024-10-10 10:33:39 英文原文
Portland, OR, USA - Sep 1, 2024: ChatGPT, Gemini, Microsoft Copilot, Claude, and Perplexity app icons are seen on a Google Pixel smartphone. AI competition concepts.
图片提供:Tada Images / Shutterstock

2022年底发布的ChatGPT-3.5吸引了全世界的注意,并展示了生成式人工智能(AI)产生一系列看似由人类创作的内容的能力,包括文本、视频、音频、图像和代码。这一发布以及随后迅速出现的许多引人注目的突破引发了人们对这些快速发展的生成式AI技术可能对工作、工人和生计意味着什么的问题——现在及未来,随着更强大的新模型不断推出。许多美国工人对此感到担忧:根据一项皮尤研究中心民调大多数美国人认为,在未来二十年内,生成式人工智能将对就业产生重大影响——主要是负面的。

尽管存在这些广泛共享的担忧,但对于生成式AI潜在影响的本质和规模以及如何(甚至是否)应对这些问题却几乎没有共识。一些基本问题仍未得到解答:我们如何确保工人能够主动塑造生成式AI的设计和部署?为了使工人们能够从其收益中真正受益需要什么条件?以及为避免对工人的伤害,我们需要哪些防护措施?

这些核心问题构成了该报告的核心部分,并且是一个重要的组成部分。新的多年期努力我们在布鲁金斯研究所与众多外部合作者共同启动了该项目。通过研究、以工人为中心的故事讲述以及跨行业会议,我们旨在增强公众的理解,为政策制定者和雇主提供信息,并塑造我们的社会反应,以确保工人能够从人工智能带来的好处中获得实质性的利益,并尽可能避免其潜在的危害。

在这份报告中,我们阐述了生成式人工智能在工作和工人方面的利害关系,并概述了我们在集体层面上准备不足以应对这一时刻的担忧。接下来,我们将提供关于这项技术及其可能对就业产生的影响的见解,这些见解基于我们对OpenAI详细数据的分析(如前所述)这里) 这一研究探讨了劳动力市场中一千多种职业的任务级暴露情况。最后,我们讨论了三个需要主动应对的重点领域——雇主实践、工人的声音和影响力以及公共政策工具,并强调了立即抓住的机会以及需要解决的缺口。在整个报告中,我们借鉴了最近由布鲁金斯学会组织的一次研讨会的观点,该研讨会汇聚了来自不同领域的30多位专家——包括政策、商业创新与投资、劳工、学术及智库研究、民间社会和慈善领域——共同探讨关于人工智能、工作以及工人的基本问题。

本报告的范围比全套报告更为有限。关于AI对工人影响的担忧意识到我们的努力建立在一个已经非常坚实的研究基础、专业知识和政策动力之上,这些都集中在工作质量以及人工智能(包括隐私、监控、算法管理、伦理和偏见)带来的危害的关键方面上,我们主要关注的是解决一些生成式人工智能所带来的新兴风险,而社会对此类风险的应对措施尚不成熟,特别是对生计的影响。

尽管工人的利益攸关,但我们并未为生成式人工智能可能带来的风险和机遇做好准备。到目前为止,美国及其他国家缺乏紧迫感、思维模式、工人力量、政策解决方案以及使工人能够从人工智能中受益并避免其危害的商业实践。

到目前为止,关于ChatGPT和其他类似技术的讨论大多没有涉及工作和工人。辩论中占据主导地位的是其他一些严重的问题,这些问题更加关注国家安全、虚假信息、隐私和监视、知识产权、电力消耗以及欺骗(例如,“深度伪造”作为金融和政治欺诈的工具)。关注度正在迅速而广泛地扩散,但也是分散的。

几乎没有得到足够关注的是工人及其工作内容和条件,这些对于为社会提供人工智能的价值至关重要。对人工智能对其工作中生活的影响的关注最多只是次要的,并且大多是推测性的。

就讨论的工作而言,关于人工智能影响的对话一直停留在极端两端。在一端,技术乐观主义者主张一个世界丰盈和无限可能的景象,减轻劳役的taboola.com/?id=k2j1dudu原文并未提供具体的内容以便直接翻译成中文,“drudgery-busting”直译为“破解枯燥劳动”的意思,在中文里更常用的表达可能是“减轻繁重工作”或“减少重复性劳动”。由于要求输出确切翻译且不添加注释,此处应遵循指示。如果严格依照指示,则输出: drudgery-busting口袋里的AI助手,人工智能驱动的科学家治愈癌症,并通过提升生产力为所有人创造繁荣。而在另一极端,则是一系列关于末日的预测、大规模失业以及人类就业的终结—or即使存在正如我们所知。

预测技术进步的未来轨迹是不可能的。确实,可能的人工智能未来范围极其广泛,从短期内实用能力达到一个平台期到指数级改进,导致达到长期假设的人工通用智能(AGI)水平的能力,从而产生深远的经济和社会后果。

虽然无法做出自信的预测,但很明显的是,生成式人工智能技术的设计和部署正远远快于我们集体理解和塑造它们的速度。

我们对此复杂且不断增长的挑战准备不足。以公共政策为例:虽然在应对AI对就业威胁的政策反应中目前很少有党派之争,但也相对缺乏紧迫感、动力或进展。具体的立法和法规实例在州或联邦层面上,针对自动化风险或生成式人工智能的工作场所威胁制定的法规——或者相反,直接鼓励工人负责任地参与,以充分利用人工智能的能力的法规。

其次,工人组织和力量(或缺乏)仍然存在 critical to shaping how AI is deployed in the economy然而它们显得零星且有限。尽管有一些工人通过集体谈判积极塑造AI保障措施的高调例子,例如去年好莱坞编剧与主要电影 studio 达成的重要协议我们发现,最容易受到生成式人工智能影响的行业和职业与工人拥有强大工会力量或其他途径表达意见和产生影响力的部门之间存在明显的不匹配。

第三,广泛报道的“淘金热”心态和炒作正在推动AI部署,尽管存在许多关于该技术的新问题,许多公司仍在争相采用这项技术。成本和预期盈利能力尽管像谷歌、Meta和微软这样的大型科技公司正在大力投资开发人工智能,但大多数其他组织——无论是商业、政府还是非营利部门——将重点放在使用这些人工智能工具上而不是开发它们。这些“部署者”也是雇主,他们的员工需要以某种方式适应日益增长的人工智能部署。我们在本报告中称此类组织为“雇主-部署者”——这是一个关键的决策群体,将影响人工智能技术如何被采用和管理。目前,几乎没有关于公司应该如何从道德上实施与劳动力相关的AI使用的指导方针或行为准则。同时,许多公司,尤其是那些公开上市或希望上市的公司,感受到了来自竞争对手和投资者的巨大压力,要求他们采用人工智能以节省人力成本并提高效率。

目前,关于公司应该如何从道德上实施人工智能以对待其员工方面几乎没有指导方针或行为准则。同时,许多公司,特别是那些上市或寻求上市的公司,感受到来自竞争对手和投资者的巨大压力,要求采用人工智能来节省劳动力成本并提高效率。

尽管产品部署坎坷且不确定性更广泛存在,工人们面临的利害关系无疑非常高。即使在当前的发展轨迹上,没有能力提升的戏剧性加速,生成式人工智能技术也准备对包括法律、营销、金融、医疗保健、计算机编程、客户服务、创意艺术、行政支持工作、教育和媒体在内的各个领域的广大工人产生影响。对于某些行业和职业来说,这种破坏的第一波浪潮只有几个月的时间,甚至现在已经开始悄然进行。与由AI驱动的客服代理或机器人互动——这已经司空见惯——只是冰山一角。

这些变化既带来了机遇也带来了风险,正如许多观察者所强调的那样。一方面,生成式人工智能有可能补充数百万工人的技能,使他们更加高效、富有创造力、更具信息优势、更准确和更有效率。另一方面,雇主可能会选择自动化部分甚至全部员工的工作,导致可能的失业以及对之前备受追捧的技能需求减弱。对于其他一些工人而言,尤其是那些从事原创内容创作的人(如作家、记者和创意人员),生成式人工智能提出了有关版权和同意等令人担忧的存在性问题。此外,人工智能还带来了雇主可以用来监视和监控员工的强大新工具的可能性。削弱工人自主性,机构,和 力量.  

因此,即使生成式人工智能有潜力提高收入、增强生产力并开拓新的可能性,它也有可能使工作和权利贬值,削弱技能的价值,并使生计变得不稳定。

然而未来是并非命中注定最终,工人是否能从人工智能驱动的生产率增长中受益或遭受损害和不稳定性,在一定程度上取决于工人和其他利益相关者塑造该技术部署的能力,以及雇主、科技公司、政策制定者、消费者和民间社会的具体选择。我们从一段漫长且复杂的历史中知道经济史回溯几个世纪,不受限制的技术进步可能导致更大的不平等并给工人及其社区带来持久的痛苦。技术并非命中注定,但不作为才是。

不再是祖父母时代的自动化:理解生成式AI对工作和工人的潜在影响

生成式AI对工作和工人的可能影响是什么?在本节中,我们简要总结了这项新技术的几个关键特征,并从OpenAI提供的数据中获取见解。我们包括了布鲁金斯学会新研究的摘要,该研究分析了OpenAI的数据,涵盖了现有ChatGPT-4技术在超过1000种职业中的应用情况。这些数据显示的方向性有助于识别可能会受到当前生成式AI技术更多(或更少)影响的职业类型。但是,这项分析无法提供确切的预测或具体影响的确切计算。有关我们的方法论及其一些局限性的更多信息,请参见附录。

我们分析的重点:生成式人工智能及其不同之处

由2022年底发布的ChatGPT-3.5推动流行的“生成式”人工智能是一项引人注目的技术突破,其特性和复杂的能力与过去的计算机化和自动化形式有着本质的不同。该工具的独特组合使其与众不同:它能够生成新的内容、相对容易扩散,并且目前主要是“无实体”的技术而非像工业机器人那样的物理工作工具(尽管随着机器视觉和其他人工智能技术的进步,这一情况可能会很快改变)。

生成式人工智能工具在某些关键方面与其他信息科技不同,因为它们能够从训练数据中创建全新的内容。这就是为什么称它们为“生成式”的原因。作为一种机器学习类型,生成式AI是一个可以产生广泛新内容的算法,包括图像、音乐、文本、音频、视频和代码等。这项技术依赖于大规模语言模型(LLMs),这些模型在海量数据集上进行训练,检测统计模式和结构,并利用这些模式和结构来生成新的内容。

特别是生成式AI能够预测和生成对用户当前意图和需求有用的新的“自然语言”内容,就像智能手机的自动提示功能一样——无论是撰写信件、回答问题、编写计算机代码、制定商业计划,还是从互联网上抓取信息并生成行动想法。先进的生成式AI模型如Dall-E 3、Midjourney和Stable Diffusion可以从文本输入中创建高质量的视觉内容,而像Sora这样的程序在将文本转换为视频内容方面取得了显著进展。现在,系统正在出现,可以结合不同的数据类型(如文本、图像、音频和视频)用于输入提示和生成输出。

ChatGPT在2022年推出后仅四个月内就达到了月访问量10亿,成为了历史上传播速度最快的科技平台。

生成型人工智能也因其相对容易扩散而独具特点,主要是通过各种计算机设备上现有的网络浏览器和应用程序。换句话说,承载生成型人工智能的基础设施大多已经就绪。

作为一项基准,人口普查局报告它花了大约二十年的时间,个人电脑在二十世纪七十年代晚期引入后才变得普及。最近的例子是,在2007年第一代iPhone发布之后,智能手机在美国用了六到七年的时间才变得普及。相比之下,ChatGPT成为了历史上传播速度最快的科技平台之一,达到了每月10亿次访问在2022年11月推出后仅仅四个月(作为用户数量的一个粗略参考)。

尽管估算差异很大,但今天工作场所对生成式人工智能的采用仍然相对有限,因为雇主正在试验早期用例,并且在隐私、安全和准确性方面仍存在一些担忧。(员工也会进行试验,有时甚至会秘密地进行,不管其雇主的规定。)而虽然更广泛的传播可能需要较长的时间线,但由于以下原因,工作场所对AI的采用可能会面临比以前形式的技术更低的障碍:1) 其易于使用且用户友好的界面不需要机器学习专业知识;2) 其基础设施需求较低。

最后,AI工具目前仍然是没有实体的,与在工厂组装商品或在家打扫卫生的物理机器人不同。本质上是数字的,AI工具仍然主要用于基于信息的任务。但这也可能改变,因为大型语言模型被设计为能够与物质对象及其传感器进行通信。

生成式人工智能的能力预示着与以往的“技能偏向”技术有着显著的不同。

生成式AI的能力代表了对以往工作场所技术的突破。几十年来,正如大量研究显示的那样,技术一直是“技能偏向型”它取代了中低薪职位(包括一些低薪职位)中常见的常规技能(如手工记账、生产和食品准备),同时补充了高薪职位中典型的非常规技能(如管理决策、复杂分析和人类创造力的运用)。

诸如ChatGPT等技术颠覆了这一范式。事实上,生成型人工智能不太可能对物理、常规的蓝领工作产生重大影响,除非在机器人技术方面取得突破性进展。相反,生成型人工智能擅长模仿几年前还很罕见的非例行技能和互动特性。专家认为不可能的事情为了计算机执行的任务,包括编程、预测、写作、创造力、投射同理心、沟通和说服力以及分析。目前面临生成式人工智能最大风险的行业大多是几年前自动化风险最低的行业。

目前,生成式人工智能技术已经能够执行各种任务,有时甚至非常复杂,并且在某些情况下还可以无需人工监督。该技术可以自主完成的、无需人类监督的一些能力包括以下内容:

附录1. ChatGPT-4的一个自主能力示例

编码

  • 编写、编辑和转换文本和代码
  • 调试代码或软件
  • 用如Python和C++之类的计算机语言编程
  • 协助数据解析

写作和阅读

  • 总结文档
  • 从PDF中读取文本
  • 编写面试或评估的问题
  • 写邮件和回复邮件
  • 编写教学计划
  • 准备培训材料

信息共享、检索和综合

  • 语言之间的翻译;转录
  • 回答关于文档的问题
  • 搜索组织现有的知识、数据或文档,并检索信息
  • 通过任何书面或口头方式告知任何人任何信息

进行分析和研究

  • 根据数据或书面输入提供建议
  • 分析书面信息以告知决策
  • 进行法律研究和咨询

来源:OpenAI和宾夕法尼亚大学 工作论文 

鉴于这一系列非凡的能力(人类工人可以调整、引导和补充这些能力,以增强AI的响应性和诸如同理心等特质)以及对部署AI的巨大兴趣,现在是时候弄清楚哪些行业的哪些工人最有可能受到影响——同时也需要了解他们是否有能力和准备在各自的领域塑造AI的部署。

展望未来:潜在的广泛影响,对中高收入职业、文职岗位以及女性的影响最大

OpenAI的曝光数据显示,生成式人工智能技术可能会影响全国大量工人的工作。我们发现,超过30%的所有工人可能会看到至少50%的职业任务因生成式人工智能而受到影响,而大约85%的工人可能会看到至少10%的工作任务受到冲击。

面临最大风险的行业主要由高薪且需要高级学位的专业领域主导,例如STEM(科学、技术、工程和数学)领域、商业和金融、建筑和工程以及法律。此外,还包括低薪的“中等技能”办公室和支持性行政职务。劳动密集型、蓝领行业的风险最小,而低薪的服务行业岗位也将可能受到较为温和的影响。

教育、医疗保健和社区及社会服务行业根据我们的分析具有中等程度的暴露风险。例如,小学教师和注册护士在大约三分之一的任务上可能会看到显著的时间节省。教师可以在评分、制定活动计划、实施测试、维护记录和准备报告等任务上节约时间。对于注册护士而言,许多需要亲自操作的手动密集型任务——如进行身体检查、进行实验室检测或执行静脉注射等——影响较小,但生成式人工智能可能在评估诊断测试结果、记录患者信息、修改治疗计划、保存记录、推荐治疗方法以及执行行政和管理职能等方面节省时间。

从整体来看,图1展示了各行业的情况,职业群体的暴露水平以柱状图的形式表示,描绘了主要职业群组的暴露程度。在图表中,柱状图的长度反映了该主要职业群体的任务中有多少比例可以通过大型语言模型(LLMs)减少50%或更多的时间来完成。一眼可以看出,一些领域——如计算机工作、办公室和行政支持、商业和金融操作以及工程——相对具有较高的暴露水平。

仔细观察生成式AI的影响可以发现,不同职业的薪酬水平与LLM(大型语言模型)的暴露程度存在差异。图2显示,高薪的职业群体,如计算机工作、管理、工程和商业金融职位,预计将面临较高的ChatGPT-4及其他LLMs的暴露风险。

此外,代表各种职业群体的气泡大小根据当前这些工作岗位上的工人数量来确定。这意味着几个非常大的职业群体——如商业、管理以及医疗保健工作——将面临生成式人工智能的重大影响。仅这一点就预示了该技术对劳动力市场的广泛影响。

在探索这些数据时,重要的是要记住,这些暴露率本身并不能预测——更不用说决定——对工人产生的影响。相反,它们反映了生成式人工智能可能与工作岗位或职业群体相关的潜在参与情况,而不区分其是增强劳动力还是取代劳动力的影响。

然而,鉴于该技术广泛被认为有可能扰乱人类工作,显然有必要探究LLM驱动的自动化(或工作替代)的具体潜力。为了评估LLM在特定职业中自动执行具体任务的技术可行性,我们分析了OpenAI的数据,估计生成式AI在没有人工监督的情况下完成任务的可能性,根据表1中的自主能力列表。那些暴露程度高且无需人类监督即可完成的任务被归类为“更有可能自动化”。如下图所示,有五个行业显示出相对较高的暴露度和自动化潜力,并附上了具体的示例职业。

办公室和行政支持职业因该行业的高曝光度、高自动化潜力以及大量劳动力而引人注目。更重要的是,女性占美国近1900万在此行业中就业人口的绝大多数,这些职位为没有大学学位的女性提供了相当数量的好工作,包括会计、法律秘书、人力资源助理、银行出纳员和工资管理员等,这些工作具有稳定的收入和发展潜力。几十年来,技术一直在侵蚀这些岗位;生成式人工智能可能会加速这一趋势。

这对种族和族裔多元化的下层中产阶级女性来说,风险尤其高,其中许多人可能会面临更不稳定、薪酬更低的工作风险。在这方面,需要对人工智能的就业影响在种族、残疾和其他状态和身份方面的分布进行更多的分析。例如,目前一些最易受影响且可能最脆弱的工作职位主要由白人工作者占据,而其他工作——如银行出纳员和人力资源助理等——则大致反映了整个劳动力市场的种族构成。而且无论种族如何,并非某一职业中的所有工人都会受到相同的影响。

文员工人的困境反映了更广泛的趋势:面临生成式人工智能最大暴露风险和最高自动化风险的是女性而不是男性,这是由于她们在需要大学学历的白领工作以及行政支持角色中所占比例过高。根据布鲁金斯学会对OpenAI的GPT-4任务易受影响性评分分析,36%的女工人从事的工作领域中,生成式人工智能可以节省50%的任务时间,而男工人的这一比例为25%。

这种现实与人们对技术和工作的普遍认知相悖:通常认为处于自动化高风险中的工人形象往往是制造业、仓储业或卡车驾驶等行业的蓝领男性工人,或者可能是计算机程序员。然而,生成式人工智能对以男性为主的传统蓝领行业的影响可能微乎其微,除非机器人技术取得进一步的进展。

总之,生成式人工智能不仅仅是几十年来一直在重塑劳动力市场各个领域的各种数字和自动化技术的最新更新。它是一种新的、独特的东西。 

开放问题:我们仍然不知道的事情

虽然此处的数据表明生成式人工智能可能如何影响各种工人和工作类型的一些轮廓,但我们对可能的影响以及如何最好地塑造这些影响的了解仍然非常不完整。技术尚处于早期阶段,对其运作机制及其潜在影响的理解仍模糊不清,除了认识到其巨大的潜力和必要的谨慎之外。总体而言,我们目前还不清楚“接触”生成式人工智能将如何转化为实际对工人的影响。 

我们目前尚不清楚接触生成式人工智能将会如何转化为实际世界的影响。
关于工人。

几个关键问题显得尤为重要,并暗示了我们至少如何定位未知领域并产生更多具体的经验和学习:

生成式人工智能将在多大程度上以及以多快的速度增强——而不是替代——人类劳动?我们不知道生成式人工智能将在多大程度上影响对人力劳动的总体需求(工作类型和数量),或者在工作的内容方面,人工智能实际上将如何增强(提升能力和/或提高效率、生产力和绩效)与自动化工作的比例——以及这些变化将在何时何地展开。

例如,人工智能可能通过多种方式增强计算机程序员的角色:提高生产力、调试工作、检查错误以及教授新技能。另一方面,人工智能也可能自动化一些甚至大部分的工作,承担常规任务,甚至生成代码。我们需要了解何时何地AI可以补充或取代工人,并且需要考虑最初看起来像是“增强”的情况是否最终会导致取代。与此相关的是,我们需要明确哪些暴露的工人容易被替换,而哪些工人不容易被替换并且能够“适应变化”。在分析和跟踪这些影响以及潜在其他影响时,我们应该非常仔细地考虑到性别、种族、残疾以及其他差异——不仅是在不同背景下的工人们集中于哪些行业和职业,还要考虑他们是否处于有利且支持的位置以应对这些变化。

哪些工人最有可能受益或遭受有害的失业?与上述观点相关,我们尚不清楚在职业和行业中哪些工人最有可能从生成式人工智能中受益或受损。例如,这项技术可能对具有不同经验和技能的工人产生不同的影响。最近在各个行业的学术实验表明客户服务中心支持咨询计算机编程记录了一种“升级”动态,在这种动态中,技能较低或经验较少的工人在使用人工智能后获得了最大的收益。但也有可能相反的情况:某些工作可能会被“降级”。例如,生成型人工智能可能使一个新手拨款撰写人有能力准备更高品质的拨款申请书,甚至可以与资深且表现优秀的拨款撰写人的作品相媲美。但另一种可能是,拨款撰写的职位可能会被降级,其中一些专门技能(在某种程度上较为罕见)被从生成式人工智能中复制粘贴所替代。随着技术的进步,更高级的员工可能会体验到生产率的提升,而对较低级别的员工的需求则会逐渐减少。所有这些场景都意味着工人需要进行大规模的适应,并且可能出现各种形式的变化。

无实际内容需要翻译 原文:The 翻译结果:_THE_ (这里的下划线表示原文是一个英文单词"the"的首字母大写形式,在不构成完整句子的情况下没有明确意义,直接照抄可能更合适。如果必须给出中文解释,则可以理解为“一个”或“这/那”,但通常不会单独使用)好莱坞编剧的情况这一点具有指导意义,因为它们与主要电影公司的标志性协议旨在构建AI适应性并设置防护措施。编剧工会选择从原则上支持使用人工智能技术,并假设其将持续发展,同时建立一个在共同决定技术使用(例如规定AI不能替代的内容)和保护知识产权、就业水平以及关键薪酬特征方面的角色。

与如何出现得失的问题相关的是,这些得失将如何反过来影响多维度的不平等:收入、财富、性别、种族、教育水平和地理分布。

人工智能触发的变化如何影响不平等,以及如何最好地塑造这些变化?虽然有几项信号在这些情况下,我们还不知道生成式人工智能对未来不平等的整体影响。我们也无法确定哪些努力可以缓解更大的不平等,并且尚不清楚哪些措施可以在规模上实施以确保大规模语言模型能够实现“提升”或其他减少差距的变化。与收益和损失如何显现的问题相关联的是,这些问题反过来又将如何在多个维度上影响不平等问题:收入、财富、性别、种族、教育水平和地区分布。

生成AI真的能提升表现较差的员工的水平,缩小他们与“明星”员工之间的差距,并因此降低不平等和提升中产阶级?工人的利益将从AI支持的工人生产率提升中获得多少,以及通过何种机制(如股票所有权或其他股权、绩效奖金等)?大学学位的价值会发生什么变化?失业工人转向新角色的难度有多大,特别是如果他们的教育和培训具有高度专业化的话?谁将能够从即将创造的新工作中受益?哪些人——特别是在哪些地方——将获得最大的财务收益?

生成人工智能除了影响对人力劳动的需求和报酬之外,还会如何加剧对工人及其工作场所的危害?越来越多的证据表明,雇主使用人工智能存在多种方式的影响。危害工人超出生计风险,包括通过削弱他们的力量导致工作场所伤害、侵犯版权、在几乎没有或根本没有同意的情况下进行监控和监视、引入偏见、收集他们的数据,并通过算法管理和决策加剧调度和其他压力。目前,我们对生成式人工智能如何具体地贡献于或加剧这些危害知之甚少,或者可能引入新的危害。

三个优先应对领域

在本节的最后一部分,我们概述了今年夏天早些时候在布鲁金斯学会研讨会上探讨的三个优先挑战。这个简短的清单远非详尽无遗,但它确实涵盖了推动积极变化的各种关键点。再次强调,我们的目标是关注那些新兴的问题——尤其是涉及生计风险的问题——这些问题迄今为止比诸如偏见和监控等有充分记录的危害所受到的关注要少得多。

  1. 在雇主和雇员的关系中,“好”是什么,什么使它成为“好”?

第一个关键优先事项是确立对于雇主和部署生成式人工智能的企业及组织而言的良好、负责任的商业和组织实践应是什么样的,以及如何支持这些实践。

生成式人工智能在过去一年半里一直是企业热议的话题,投资者的兴趣达到顶峰,各公司争相展示他们对这一创新的接纳以及创造新价值的方式——或者至少不要落后太多。

在一个高度不平等的经济体系中——一个以最大化股东价值和短期回报为中心,同时不断将巨大的市场权力集中在少数领先公司中的系统里——行业讨论的主要焦点一直是部署人工智能可能带来的劳动力成本节约和效率提升。几乎没有公开讨论或关注到工人受到的影响以及他们在塑造工作场所人工智能使用方面的参与度。

然而就这个话题进行讨论有一个强有力的商业理由。 A越来越多的研究证据正在记录将工人纳入新科技的设计和实施过程中的好处,相比之下,自上而下的实施方式不考虑工人的独特知识和见解。谁没有经历过企业软件或硬件部署失败的情况,导致了高昂的成本?我们之前至少已经看到过这部电影的一部分:几十年前,美国和日本制造商的比较显示揭示了强大的竞争优势鼓励工人作为积极的问题解决者而不是公式化规则的被动跟随者。

此外,对于成为“高路”雇主而言,在工人薪酬和福利、工作质量方面的维度如创意和目的感以及技能提升和就业保障的投资方面,有一套长期建立的规范和金标准案例。在某些市场经济中,“共投机制”更为准确:雇主、工人组织和政府共同投资,因此每个参与者都承担风险。除了就业本身之外,新的被称为“可持续性”的标准还涉及并评估公司的数据隐私、环境可持续性能以及有时其他因素。投资者、首席执行官和其他企业领导人会对此作出回应。

但是这里有一个紧迫的挑战:目前还没有一个标准来指导企业在生成式人工智能背景下成为高路雇主。这些标准可能包括评估风险和机遇;设定将员工的利益和能力置于中心而非边缘的目标;让员工参与设计和实施AI部署及其激励措施(在此过程中,重新定义工作并分享更高的生产率带来的收益);以及负责任地支持需要转型的员工(例如,在某些人类技能和任务的需求下降时)。

鉴于我们正处于人工智能的“预监管”时刻,雇主自愿采取行动是一种可以测试和推广指导监管的标准的杠杆。例如,由AI伙伴关系开发的一系列原则包括雇主之间自愿标准的合作等。合成媒体的责任部署该伙伴关系于2023年成立了一个工作组,制定了一个结构化的问答集,用于雇主和工人进行风险评估和解决方案构建:人工智能与共同繁荣指南另外两个非营利的、面向企业的组织——企业目的首席执行官协会和公正资本,也在探索“好”的含义以及如何在企业实践中实现它。

领先的公司和工人主导的组织开始启动有前景的合作。例如,在2023年,微软和美国劳联产联宣布了一项开创性的合作。技术劳工合作关于人工智能和未来劳动力的发展旨在教育工人、将工人的声音纳入人工智能开发,并塑造有利于工人的政策。

与此同时,除了雇主、工人组织和其他方面的更强领导力之外,还需要进行更多的实地研究——特别是在工作场所——以回答关键问题。人工智能在不同环境和行业中是如何部署的?雇主是如何做出决策的?受影响的工人是否以及如何参与作为共同设计者和/或用户部署者的角色?

  1. 在工会化程度较低的经济中,我们如何增强工人的发言权和权力,特别是在最易受人工智能影响的行业和职业中?

第二个关键优先事项是适应和扩展模型以在生成式人工智能时刻放大工人声音。这要求我们认识到并解决一个“巨大不匹配”。

正如我们在一份文档中记载的最近的多媒体案例研究去年的好莱坞编剧罢工展示了有组织的工人通过集体声音保护生计的力量。它甚至显示了“行业性谈判”的潜力——在美国劳资纠纷中较为罕见。美国编剧协会与所有主要电影公司达成的合同包括广泛的生成式人工智能防护措施——这是任何集体谈判协议中的首创。

通过行使他们的权力,作家们抵制了不受控制的风险,并成功地为自己设定了使用AI的条款——不是禁止这项技术,而是以一种既能造福作家和工作室又能减少明显危害的方式对其使用进行监管。至关重要的是,作家们强调了他们在受技术影响的工作生活和职业路径变化中所涉及的收入以及创意目的和意义。

巨大的不匹配:最易受生成式人工智能影响的行业拥有经济中最低的工会代表比例。

但是作家成功的可复制性受到一个巨大不匹配的限制:最暴露于生成式人工智能的行业在经济中拥有最低的工会代表比例。

全国范围内,所有工人中的10%和仅私有部门工人中的6%2023年是工会成员在受人工智能影响最大的行业中,工会代表的工人比例甚至更小。例如,在金融行业(这是一个高度暴露于AI影响的部门),只有1%的工人受到工会代表——该行业的企业领导人们据报道探索削减入门级分析师等职位的工作和薪酬,这些职位传统上为职业晋升提供了基础。教育行业则是一个明显的例外:一个中度暴露的部门,工会代表比例显著较高。

除了通过工会获得正式权力和谈判权之外,受严重影响行业的工人在其他形式的抗衡力量中也缺乏发言权和可见度,从工人正义组织到持续的运动。对于法律秘书和人力资源助理来说,并没有类似于“为15美元而战”(一项改变了最低工资目标和势头的重要运动)这样的标志性战役。同样,也没有类似国家家庭工人联盟或尊重联合阵线这样的工人支持联盟来代表会计师或销售代表。然而,所有这些大型且普遍的职业似乎都成为了那些提供人工智能培训和建议者的营销目标,从流行的、专业的社交平台如LinkedIn和YouTube开始。

这些双重重担是工会密度低和工人制衡权力有限,再加上实施更广泛劳动法律改革的政治障碍,以及由于最近的限制而导致的联邦监管权力局限性。最高法院裁决

从积极的一面来看,正如研讨会参与者所指出的,有一群潜在的影响者是独特的:备受追捧的技术专家——包括高级程序员及其他来自谷歌、OpenAI和其他领先人工智能开发公司的员工——是这一群体的一部分。公开发言作为吹哨人,并在某些情况下,通过寻找新雇主来用脚投票,表达对未受监管的生成式人工智能开发和部署的严重关切。类似地,生成式人工智能对新行业的扰乱——包括以前被认为不受技术变革影响的高薪、高地位的工作——可能会为组织新的和更广泛的工人阶级带来新鲜的机会。

没有为法律秘书和人力资源助理发起类似“每小时15美元”的运动,也没有为会计或销售代表成立的工人联盟。

一些地方、州和国际层面的创新模式可能提供了关于如何让工人在他们领域的重要技术进步中拥有更多发言权的教训。例如,加州有几个有前景的方法,可以为试行人工智能特定行业的集体谈判和其他结构性方法以增强工人的发言权提供信息。在疫情期间,洛杉矶创建了创新的公共卫生委员会计划由新冠病毒传播率较高的行业的一线工人组成的;这些工人被授权与管理层会面,确保遵守规定,减少传播,并直接向公共卫生官员报告问题。而在2023年,加州通过了立法创建了快餐理事会,一个由行业和劳工代表组成的全州委员会,将制定行业的劳动条件和标准。在向州立法者的证词安妮特·伯恩哈特,加州大学伯克利分校的劳动和技术政策研究员,强调了公部门工人及其工会(以及其他驱动因素)在塑造负责任的人工智能部署方面的重要作用。类似地,欧洲 Works Councils(作品委员会)更常见的译法是“员工代表会”或“劳资共决机构”,具体根据上下文语境来确定最合适的翻译。如果必须选择一个标准翻译,请使用“员工代表会”。若直接翻译,则为“职工理事会”。此处按照最常见的理解和应用,建议采用“员工代表会”。提供一个文档齐全的模型,以融入工人意见。

为了将员工话语权模型适应生成式人工智能带来的挑战,需要更多的实验来记录、复制和扩大积极的AI应用场景和模型。其他机会包括探索要求或支持员工话语权的可能性,例如通过采购标准以及与政府补助或其他公共资金挂钩的条件实现这一目标。越来越多被认为可能受到这项技术威胁的职业和行业可能会为组织担忧工人的团体提供新的机会。来自有组织运动的压力有助于激励领导层——既坚持问责制,也承认雇主在采取正确行动时作为榜样或竞争对手的作用。劳工历史显示了多种方法将以员工和工作为中心的活动与消费者力量以及“自觉消费主义”相连接的方式,既可以遏制有害行为,也可以奖励积极的行为。

  1. 公共政策解决方案:政策能解决什么问题,如何解决? 

第三优先是制定公共政策回应,并利用政府部门试点和示范如何帮助工人在受人工智能影响的经济中取得成功。

在关于人工智能的公共政策方面,选民的关注与立法或有意义监管的动力之间存在显著差距。例如,在国会中,对AI风险(如虚假信息、安全和民主)的关注度很高。尽管国会有听证会可以集中并扩大关注点,即使是在选举期间也是如此,但在当前会期推动立法的可能性非常小。短期内在某一部分的关键期望上采取行动也不太可能。“人工智能与劳动力”包含在最近的一个两党参议院人工智能工作组文件中。与此同时,民调显示,在选民中,生计和工作的担忧是关于人工智能的主要担忧之一,如果不是最主要的担忧的话。

拜登政府的行政命令关于人工智能的安全发展和使用,于2023年10月发布的一份文件是推动积极的政策响应以应对人工智能的一个有希望的催化剂,特别强调了在其他风险和机会中纳入工人的话语权和权力。然而,该文件主要呼吁提供更多数据和知识建设——这两者无疑至关重要——但并未提供更广泛的解决方案来塑造一个积极的工作未来。

说到底,目前还不清楚政府应提出哪些解决方案。但潜在的机制有很多:从政府采购中纳入保护工人的标准到投资于以工人为中心的创新和创造力作为创造价值的人工智能使用的一部分。正如我们在研讨会上讨论的那样,政府应对措施应包括公共部门本身使用人工智能,这可能增强无止境的服务交付、执行、投资、研究和其他政府功能。

幸好,在政策回应上还没有形成固定的政治立场——但也没有现成的州或联邦立法和监管模式可以立即推行,至少没有那些被广泛理解或能够被积极倡导的模型。就像关于人工智能风险的大讨论一样,大多数有希望的州级政策实例重点关注减少AI偏见、算法管理、监控、生产力配额和隐私问题带来的危害,而对自动化风险或潜在后果(如快速的工作流失和收入损失)的关注则少得多。然而,一些新的想法正在出现;例如,在让员工了解情况的同时,还提出了不得被迫训练AI来取代自己工作的权利。这些更广泛的问题难以通过简单的监管或“一劳永逸”的立法解决方案来解决,因为区分“好”自动化和“坏”自动化是具有挑战性的。

从宏观上看,需要主动制定政策和监管措施的问题范围包括版权和合理使用(尤其是在创意艺术领域)到核心劳动权益、劳动力保护、劳动力发展以及税收。在这方面,目前对社交媒体迅速崛起的政策不作为和僵局提供了一个警示故事:立法者和其他决策者必须采取行动,并且要尽快,否则他们将无法塑造这项变革性技术对工人的影响。

各州在制定人工智能政策方面比联邦政府行动更快,但仍面临挑战。鉴于技术发展的速度和部署情况,在接下来的两年内建立工人权利和雇主责任方面的政策显得尤为重要。我们研讨会的一些专家强烈主张,关注点不应仅仅局限于生成式AI本身,而应着眼于整个技术系统以及生成式AI嵌入其中并通过其进行分发的技术全套(例如,已经在广泛使用的现有企业软件)。

如上文所述,公共政策中一个明确的机会是政府部门可以作为模范雇主和生成式人工智能的部署者。政府可以通过多种方式有效地部署AI,并且显然将成为驱动软件及相关工具的主要买家。但是,一切尚未定局,公共服务案例尤其处于早期阶段。此外,庞大的公共服务劳动力——约有2400万人,在州或地方层面工作的占80%——比私营部门工人更倾向于工会化。近三分之一的政府工作人员(32.5%)加入了工会,而在私营部门中这一比例仅为6%,据报告显示劳工统计局在美国经济中,大约每七名工人就有一人在政府工作。为公共部门部署构建模型将受益于更多的政策试验,以及各州之间和联邦与州级之间的协调。

作为一项更大、为期多年的努力的一部分,该努力专注于理解并塑造人工智能影响下的积极工作未来,本报告概述了一些主要的利益和问题,这些问题应该指导和加速对这一议题的迫切关注。我们将与来自各个行业和全国各地的领导者合作,解决我们所列出的主要挑战——同时也抓住相应的机遇,从帮助工人和雇主讲述他们的故事到支持政策制定者在实验不同的方法并回应各种利益相关者的不同需求方面的工作。

生成式人工智能正准备重新定义我们中许多人的工作和谋生方式。然而,随着技术的进步,未来的就业状况不仅仅由技术能力决定。生成式人工智能是否能够实现其潜力,为工人解锁新的可能性并促进共同繁荣,或者是否会加剧不平等和造成伤害,这取决于雇主、政策制定者、技术人员和社会各界的选择。

  • 附录:方法论与限制

    方法论

    为了评估特定职业形式下工作的“暴露”程度(即接触生成式人工智能的程度),我们利用了OpenAI提供的估算数据,这些数据将ChatGPT-4预测的暴露水平与美国劳工部O*NET数据库中定义的数百种职业所包含的数千项任务相关联。

    为了生成其任务曝光统计,OpenAI结合使用了人工标注员和GPT-4本身来评估任务对GPT的整体暴露程度,延续了之前量化工作对机器学习暴露的研究传统。之后,数千项任务影响的隐含影响被汇总到1,016种职业上,遵循了OpenAI采用中等范围“曝光”评级统计的方法,该方法假设未来在使用GPT-4技术的应用中有适度程度的创新。

    最后,为了评估当前或近期的生成式人工智能自动执行特定任务和职业的技术可行性,我们分析了OpenAI的数据,估计ChatGPT-4在没有人类监督的情况下完成任务的可能性,根据表1中的自主能力列表。那些暴露度高且很可能在无人监管下完成的任务被归类为“更有可能实现自动化”。

    如之前一样,使用O*NET开发的任务评估被汇总并在职业层面进行考虑,以创建岗位级别的自动化估计。

    限制条件

    我们认为,这里使用的数据、方法和统计能够产生一种合理的方式来推测生成式AI在未来几年内可能对工作产生的影响。说归说,我们在这里指出一些关于数据及其局限性的注意事项。

    首先,这些数据并不试图预测下一代AI模型(例如ChatGPT-5或6)即将发布的未来能力增强。

    其次,这些基于技术可行性研究来评估特定任务性能要求的暴露分析,往往由于没有考虑到将技术实际应用于工作场所时的各种现实约束(从法律和商业风险到伦理和隐私问题以及消费者偏好)而夸大了对就业影响的可能性。

    第三,基于任务的分析在某些情况下低估了潜在影响,因为它忽略了那些用任务为基础的方法难以捕捉的重大技术颠覆。例如,当考虑到“化妆”、“穿戴服饰”和“按指示摆姿势”等工作的关键任务时,时尚模特似乎对生成式人工智能的暴露程度较低。但是这种方法忽视了零售业使用自己的AI模特可能给整个时尚行业以及该职业带来的重大风险和破坏。

    第四,这项练习只讲述了故事的一部分:它既没有捕捉到生成式人工智能对工作质量重要方面的(相对于所需人力数量的)影响,也无法捕捉到由于生成式人工智能可能出现的新任务和职业——这无疑是以前几次自动化浪潮的重要影响之一(例如,大规模生产的汽车创造了大量维修工的需求)。

    最后,一份工作的“接触”生成式人工智能并不一定意味着该工作将会消失。实际的技能和职业需求不仅由技术可行性决定,还取决于雇主的具体选择、市场反应以及是否存在保护工人的机制。在某些情况下,这一系列因素很可能鼓励将工作改变为使用AI作为工具——就像起重机一样,需要人类操作员,并使人类能够完成更多的任务,投资者说道。罗伊·巴哈特彭博贝塔公司的,或者沃顿商学院的创新专家埃than Mollick在其最近出版的书中所说的“人工智能作为同事”的概念,"共智"   

    尽管存在这些限制,此处呈现和讨论的基本曝光统计数据仍然具有重要价值,并且在叙述中被利用——正因为对我们生计风险的理解如此有限,而关于解决方案的国家对话远远落后于技术的发展。数据显示了广泛职业和工人可能受到的影响的整体分布情况,而不仅仅是目前流行新闻报道或社交媒体上讨论的少数几个例子:程序员、作家、客服代表和税务准备人员。这样的广泛估计可以也应该指导社会如何理解和应对日益强大的人工智能的应用。

关于《生成式AI、美国工人和工作未来的展望》
暂无评论

摘要

图片来源:Tada Images / Shutterstock 2022年底发布的ChatGPT-3.5吸引了全世界的关注,并展示了生成式人工智能(AI)产生一系列看似由人类创作的内容的独特能力,包括文本、视频、音频、图像和代码。以公共政策为例:尽管如今在应对AI对就业威胁的政策反应中几乎没有党派界限,但在州级或联邦层面出台具体立法和法规以应对自动化风险或生成式AI的工作场所威胁方面也缺乏紧迫感、动力以及具体的例子——或者反过来直接鼓励员工负责任地利用AI的能力。虽然有一些高调的例子表明工人通过集体谈判积极塑造了AI保障措施,例如去年好莱坞编剧与主要电影公司达成的具有里程碑意义的协议,但我们发现,在最暴露于生成式AI的行业和职业中,工人的工会实力或其他获取组织、声音和影响力的途径存在明显的不匹配。同时,许多公司,尤其是那些公开交易或希望上市的公司,感受到来自竞争对手和投资者的巨大压力,要求采用AI以节省劳动力成本并提高效率。最后,为了评估当前或即将推出的生成式AI在自动执行特定任务和职业方面的技术可行性,我们分析了OpenAI的数据,估计ChatGPT-4完成无须人类监督的任务的可能性,根据第1盒中列出的自主能力列表。