加州第一场关于人工智能的劳工斗争正在 Kaiser 上演
作者:By Queenie WongStaff Writer Follow Feb. 6, 2026 3 AM PT
加州最强大的工会之一的工人正在组建反对人工智能的早期战线,警告人工智能可能会抢走工作并损害人们的健康。
作为与雇主正在进行的谈判的一部分,凯撒永久员工一直在反对这家大型医疗保健提供商人工智能的使用。他们围绕这个问题和其他问题提出要求,利用纠察线和绝食抗议来帮助说服凯撒负责任地使用强大的技术。
凯泽表示,人工智能可以让员工摆脱繁琐、耗时的任务,例如记笔记和文书工作。工人们表示,这可能是导致裁员和损害患者健康的滑坡的第一步。
“他们正在绘制一张地图,以减少对人类工作者和人类临床医生的需求,”持有执照的临床社会工作者伊拉娜·马尔库奇-莫里斯 (Ilana Marcucci-Morris) 说,他是全国医疗工作者联盟谈判小组的成员,该联盟正在争取针对人工智能的更多保护。
这位 42 岁的奥克兰治疗师表示,她知道技术很有用,但警告说,当人工智能犯错时,会给患者带来“严重”的后果。
Kaiser 表示,人工智能可以帮助医生和员工专注于为会员和患者服务。
“人工智能不会取代人类评估和护理,”Kaiser 发言人 Candice Lee 在一封电子邮件中表示。– 人工智能具有巨大的潜力,可以通过支持更好的诊断、增强患者与临床医生的关系、优化临床医生的时间以及通过满足个人需求来确保护理体验和健康结果的公平性,从而使医疗保健受益。”
对人工智能的担忧正在震动全国各地的行业。
根据布鲁金斯学会和人工智能治理中心最近的一项研究,医疗行政助理是最容易接触人工智能的人群之一。助手们从事人工智能正在变得更擅长的工作。与此同时,研究称,他们不太可能拥有过渡到新工作所需的技能或支持。
据该机构称,还有数百万其他工作最容易受到人工智能的影响,例如办公室文员、保险销售代理和翻译。研究上个月发布。
在加利福尼亚州,工会本周敦促州长加文·纽瑟姆和立法者通过更多立法,以保护工人免受人工智能的侵害。加州工会联合会发起了一系列法案来解决人工智能的风险,包括失业和监视。
该组织在与不同州的 AFL-CIO 领导人的联合信中表示,这项技术“有可能剥夺工人的权利并导致广泛的失业”。
Kaiser Permanente 是加州最大的私人雇主,在全州拥有近 19,000 名医生和超过 180,000 名员工。它在华盛顿、科罗拉多、佐治亚、夏威夷和其他州有主要业务。
代表 Kaiser 员工的全国医护人员联盟是最早认识到人工智能对工作场所的侵蚀并做出反应的联盟之一。随着公司就更好的薪酬和工作条件进行谈判,人工智能的使用也成为工人和管理层之间讨论的重要新点。
Kaiser 已经使用人工智能软件来转录医护人员和患者之间的对话并做笔记,但治疗师对记录高度敏感的言论存在隐私问题。该公司还使用人工智能来预测住院患者何时可能病情加重。它为参与者提供心理健康应用程序,其中至少有一款带有人工智能聊天机器人。
去年,凯撒心理健康工作者在洛杉矶举行绝食抗议,要求医疗保健提供者改善其心理健康服务和患者护理。
去年,工会批准了一份新合同,涵盖南加州 2,400 名心理健康和成瘾医学员工,但马库奇-莫里斯和其他北加州心理健康工作者的谈判仍在继续。他们希望凯撒承诺人工智能仅用于协助工人,但不能替代工人。
凯撒表示仍在与工会讨价还价。
“我们不知道未来会怎样,但如果任何新的人工智能技术导致工作条件发生变化,我们的提案将使我们必须进行讨价还价,”李说。
医疗保健提供商还因使用人工智能工具记录医生和患者之间的对话而面临诉讼。11 月向圣地亚哥县高等法院提起的诉讼称夏普医疗保健未经同意,使用名为Abridge的AI笔记软件非法记录医患对话。
Sharp HealthCare 表示,它保护患者的隐私,并且在治疗过程中不使用人工智能工具。
一些 Kaiser 医生和临床医生(包括治疗师)在患者就诊期间使用 Abridge 做笔记。其风险投资部门 Kaiser Permanente Ventures 投资了 Abridge。
该医疗保健提供者表示,“投资决策与 Kaiser Permanente 做出的其他决策明显不同。”
据工会称,北加州近一半的 Kaiser 行为健康专业人士表示,他们对在临床实践中引入包括 Abridge 在内的人工智能工具感到不安。
该提供商表示,其工作人员会审查人工智能生成的笔记的准确性并获得患者的同意,并且录音和文字记录都是加密的。数据“在经过批准的合规环境中存储和处理最多 14 天,然后才会被永久删除。”
立法者和心理健康专业人士正在探索其他方法来限制人工智能在心理健康领域的使用。
加州心理学会。正在努力突破立法保护患者免受人工智能侵害。它与其他人一起支持一项法案,要求在记录或转录客户的治疗过程之前获得明确的书面同意。
该法案还禁止个人或公司,包括使用人工智能的个人或公司,在没有获得许可的专业人士的情况下在加州提供治疗。
提出该法案的参议员史蒂夫·帕迪拉(D-Chula Vista)表示,需要针对人工智能的使用制定更多规则。
– 这项技术非常强大。它无处不在。它正在迅速发展,”他说。“这意味着您的窗口时间有限,以确保我们进入那里并将正确的护栏安装到位。”
贝斯以色列女执事医疗中心数字精神病学主任约翰·托鲁斯博士表示,人们正在使用人工智能聊天机器人来获取如何处理困难对话的建议,这不一定要取代治疗,但仍需要更多的研究。
他正在与国家心理疾病联盟合作制定基准,以便人们了解不同的人工智能工具如何应对心理健康。
医护人员表示,他们担心当患有心理健康问题的人们与人工智能聊天机器人过多互动时,他们已经看到的情况可能会发生。
OpenAI 的 ChatGPT 等 AI 聊天机器人并未获得许可或被设计为治疗师,因此无法取代专业的心理健康护理。尽管如此,一些青少年和成年人已经开始使用聊天机器人来分享他们的个人挣扎。人们长期以来一直使用谷歌来处理身心健康问题,但人工智能似乎更强大,因为它可以在对话中自信地提供看起来像诊断和解决方案的信息。
孩子在与聊天机器人交谈后自杀身亡的父母起诉了加州人工智能公司Character.AI和OpenAI,指控这些平台提供了损害年轻人心理健康的内容并讨论了自杀方法。
“它们没有接受过像人类一样做出反应的训练,”加州心理学协会主席达斯汀·韦斯曼博士说。“许多细微差别可能会被忽视,因此可能会导致灾难性的结果。”
可以肯定的是,一些用户在与聊天机器人谈论心理健康和其他问题时发现了价值,甚至感觉像是陪伴。
事实上,一些人表示,人工智能机器人让他们更容易获得心理健康建议,并帮助他们以对话方式理清想法和感受,否则可能需要预约治疗师和数百美元。
根据 NAMI/Ipsos 于 2025 年 11 月进行的一项调查,大约 12% 的成年人可能在未来六个月内使用人工智能聊天机器人进行心理健康护理,而 1% 的成年人已经这样做了。
但对于像 Marcucci-Morris 这样的心理健康工作者来说,人工智能本身还不够。
“人工智能不是救世主,”她说。