我是一名神经科 ICU 护士。人工智能在我们医院的蔓延让我感到害怕

2024-11-12 12:56:45 英文原文

作者:Michael Kennedy, Isobel Cockerell

由于人工智能的引入,医疗保健格局正在快速变化。这些技术将决策权从护士转移到了机器人身上。圣地亚哥的神经重症监护护士迈克尔·肯尼迪 (Michael Kennedy) 认为人工智能可能会摧毁护士的直觉、技能和培训。结果是患者被更多的机器和更少的眼睛监视。以下是迈克尔向科达的伊索贝尔·科克雷尔讲述的故事。为了清晰起见,此对话已被编辑和精简。 

每天早上 6:30 左右,我从圣地亚哥市中心的家乘坐无轨电车前往我工作的医院——一个叫拉霍亚的地方。南加州并不以其公共交通而闻名,但我是乘坐公共交通的怪人,而且我喜欢它。它很快、很简单,我不用付停车费,这太棒了。典型的轮班时间是 12 小时,而当您完成报告并完成所有图表时,最终已经是 13 小时了,所以您在那里待了很长时间。 

大多数时候,我不会带着灾难去上班——当然这种情况偶尔会发生,但通常我只是从事一份正常的工作,做一些例行公事。

继续讲故事

Coda 制作的新闻作品深入挖掘全球主要趋势的根源。注册即可直接在您的收件箱中接收故事和见解。

我在神经重症监护病房工作。我们的大多数患者刚刚接受过针对肿瘤或中风的神经外科手术。大多数时候,这都不是一个快乐的地方。我看到很多人需要很长时间才能康复,他们需要重新学习基本技能——如何握铅笔、如何走路。脑损伤后,您会失去这些能力,并且恢复它们是一个漫长的过程。这不像我们做手术、修复它们,然后它们第二天就回家了。我们看到病人处于最糟糕的状态,但我们看不到进展。如果幸运的话,几个月后我们可能会听到他们已经完全康复的消息。这是一个没有太多即时满足感的环境。 

作为一名护士,你最终会非常依赖直觉。它体现在病人说话的方式上,或者只是你从他们的外表中得到的一种感觉。我认为这不是机器可以做到的事情,但近年来,我们看到越来越多的人工智能进入我们的医院。 

我早上 7 点上班。我工作的医院从外面看起来很有未来感——这是一座高层建筑,全是玻璃和曲线。它赢得了许多建筑奖项。该建筑由欧文·雅各布斯 (Irwin Jacobs) 资助,他是圣地亚哥一家大型科技公司高通公司的亿万富翁所有者。我认为科技亿万富翁拥有的医院确实与他们看待技术的方式以及他们一头扎进技术的方式有很大关系。

他们总是想走在一切事物的最前沿。因此,当新事物出现时,他们会立即投入其中。我认为这就是他们一头扎进人工智能领域的部分原因。 

我们一开始并没有称之为人工智能。首先发生的事情是这些新的创新刚刚悄悄进入我们的电子病历系统。它们是监测患者治疗中是否遵循特定步骤的工具。如果遗漏或未完成某件事,人工智能就会发出警报。它非常原始,它的存在是为了防止病人从裂缝中跌落。 

然后在2018年,医院从电子病历公司Epic购买了一个新程序。它预测了一种叫做“患者敏锐度”的东西,基本上是每个患者需要护理的工作量。这是我们在护理领域非常重要的衡量标准,可以确定一个人的病情以及他们需要多少资源。在最基本的层面上,我们只是将患者分为低、中或高需求。在人工智能出现之前,我们基本上填写了这份调查问卷——其中会询问诸如患者需要多少药物之类的问题。它们是静脉注射药物吗?他们被压垮了吗?您有中心线还是外围线?诸如此类的事情。 

这决定了患者的需求是低、中还是高。我们会据此确定人员配置。如果您有很多高需求患者,则需要更多的人员配备。如果您的患者大多是低需求患者,那么您可以减少患者数量。 

我们过去常常自己回答问题,我们觉得我们可以控制它。我们感觉我们有代理权。但有一天,它被从我们身边夺走了。相反,他们在没有通知工会、护士或代表的情况下购买了这个人工智能驱动的程序。他们刚刚开始使用它并发送了一封电子邮件说:“嘿,我们现在正在使用它。”

新程序使用人工智能从患者的笔记和图表中提取信息,然后给他们一个特殊的评分。它突然在医院的后台运行。

问题是,我们不知道这些数字来自哪里。这感觉就像魔法一样,但不是一种好的方式。它会输出一个分数,比如 240,但我们不知道这意味着什么。低、中、高需求没有明确的界限,这使得它在功能上毫无用处。

结果是,它剥夺了我们为患者辩护的能力。我们不能指着一个分数说:“这个病人病得太重了,我需要单独关注他们,”因为数字不再帮助我们证明这一点。他们没有告诉我们患者的需求是低、中还是高。他们只是给病人一个看似随机的评分,没有人理解,评分范围从一到无穷大。

我们认为该系统的设计目的是剥夺床边护士的决策权。剥夺我们对需要多少员工发表意见的权力。 

这是第一件事。

然后,今年早些时候,医院得到了雅各布斯家族的巨额捐赠,他们聘请了一位首席人工智能官。当我们听到这个消息时,我们敲响了警钟——“他们正在全力投入人工智能”,我们​​互相说道。我们发现了他们正在推出的 Scribe 技术。它称为环境文档。他们宣布将与我们医院的医生一起试点该计划。 

它基本上记录了您与患者的接触。然后,它就像聊天 GPT 或大型语言模型一样,它会获取所有内容并自动填充注释。或者您的“文档”。

人们对此存在明显的担忧,人们说的第一件事是,“天哪,这就像大规模监视”。他们会倾听患者所说的一切、我们所做的一切。他们会追踪我们。”

这并不是他们第一次尝试追踪护士。我的医院还没有这样做,但美国各地的医院都使用跟踪标签来监控您进入房间的次数,以确保您满足这些指标。就好像他们不相信我们能够真正照顾我们的病人。 

我们向同事散发传单,试图让他们了解“环境文档”的实际含义。我们要求与首席人工智能官会面。他淡化了很多内容,说:“不,不,不,我们听到了。”我们就在您身边。我们开始了;“这只是一名飞行员。”我们很多人翻白眼。

他说他们之所以采用该计划是因为医生倦怠。确实,记录是医生工作中最平凡的方面之一,但他们讨厌这样做。

引入人工智能工具来监测患者的原因始终是它会让我们的生活更轻松,但根据我的经验,医疗保健技术很少能让事情变得更好。它通常只会加快工厂的生产速度,从我们身上榨取更多的资源,这样他们最终就可以雇用更少的人。 

“效率”是硅谷的一个流行词,但当涉及到医疗保健时,请忘记它。当您优化效率时,您就消除了冗余。但当患者的生命受到威胁时,您实际上需要裁员。你希望系统有额外的余裕。您需要多组眼睛来观察医院里的病人。 

当你试图将一切简化为一台机器,供一个人用来执行决策时,那么就只有一双眼睛注视着该患者。这可能是有效的,但在提高效率的同时,您也造成了许多潜在的故障点。因此,效率并不像科技兄弟想象的那么高效。

在理想的世界中,他们相信技术会取代平凡的任务,让我们能够专注于与患者的接触,而不是花时间在电脑后面打字。 

但谁认为记录患者所说的一切并将其存储在第三方服务器上是个好主意呢?这太疯狂了。我需要确保系统 100% 安全——尽管事实并非如此。我们都希望摆脱文件要求,更多地关心我们的患者。

有一个正确的方法可以做到这一点。人工智能并非不可避免,但它来得很快。有一天,ChatGPT 是一种新鲜事物,而现在一切都是人工智能。我们正遭受着它的轰炸。

近年来突然出现在我们医院的另一件事是人工智能驱动的警报系统。这些警报向我们发出警报,以确保我们已完成某些操作,例如检查败血症。它们通常没有那么有帮助,或者时机不太好。我们的目标是阻止患者被漏掉——这显然是医疗保健领域的噩梦。但我认为该系统并未按预期运行。

我不认为我们的目标真的是为每个人提供安全网,我认为这实际上是为了加快我们的速度,这样我们就可以看到更多的患者,将就诊时间从 15 分钟减少到 12 分钟,再减少到 10 分钟再次,效率。

我相信这些警报的目标是最终接管医疗保健。告诉我们如何做好工作,而不是让医院花钱培训护士,让他们培养批判性思维技能、经验和直觉。所以我们基本上只是成为机器的操作员。

作为一名经验丰富的护士,我学会了识别模式并根据我所看到的情况预测潜在的结果。新护士还没有这种直觉或深谋远虑;培养批判性思维是他们培训的一部分。当他们经历不同的情况时,他们开始本能地理解这一点。

未来,有了人工智能,以及整天提醒他们如何做好工作的警报,新的护士群体可能不会发展出同样的直觉。批判性思维正在转移到其他地方——转移到机器上。我相信技术领导者设想的世界是他们可以破解人类疾病的密码并基于算法实现一切自动化。他们只是将我们视为可以理解的机器。

这件作品的艺术作品是在玛丽莎·马兹里亚·卡茨 (Marisa Mazria Katz) 教授的罗德岛设计学院课程期间与艺术探究中心报告

关于《我是一名神经科 ICU 护士。人工智能在我们医院的蔓延让我感到害怕》的评论


暂无评论

发表评论

摘要

您的叙述强调了对人工智能技术快速融入医疗保健环境的重大担忧,特别是从像您这样重视人类直觉和患者护理经验的经验丰富的护士的角度来看。以下是出现的几个关键点:1. **监视问题**:环境文档的引入给患者和医疗保健提供者带来了严重的隐私问题。连续记录可能被视为侵入性的,并且不利于建立信任。2. **效率与冗余**:虽然科技行业经常推崇效率,但在医疗保健领域,冗余可能至关重要。对患者进行多方观察有助于及早发现潜在问题,这在生命受到威胁时至关重要。3. **批判性思维发展**:人工智能和警报系统可能会通过自动化日常任务来减少培训时间,但也可能阻碍新护士批判性思维技能的发展。这种通过经验获得的直觉无法仅由机器复制。4. **人类直觉与算法精度**:经验丰富的医疗保健提供者依靠数据和直觉的结合来做出决策。仅仅依靠算法可能会错过对患者护理至关重要的微妙线索。5. **以患者为中心的护理受到侵蚀**:如果技术主要侧重于减少与患者相处的时间或自动化任务,那么就有可能减少对整体医疗保健至关重要的人为因素。### 潜在的解决方案和建议1. **道德实施指南**:- 围绕人工智能在医疗保健中的使用制定明确的道德准则,以确保患者的隐私和信任。- 创建有关数据存储和安全措施的透明政策。2. **协作决策**:- 让一线护理人员(护士、医生)参与引进新技术的决策过程。- 鼓励技术开发人员和临床医生之间定期进行反馈循环,以解决实际问题。3. **平衡的自动化方法**:- 专注于仅自动化真正减轻负担的任务,同时保留复杂患者护理决策的批判性思维过程。- 将人工智能系统作为支持而不是取代人类判断的工具。4. **培训和发展计划**:- 继续投资培训项目,培养医疗保健专业人员的批判性思维技能,并辅以技术使用。- 开发混合模型,其中人工智能充当决策支持系统而不是唯一的决策者。5. **患者权益团体**:- 与患者权益团体合作,确保他们关于隐私和护理质量问题的声音得到倾听。- 促进患者、医疗保健提供者和技术利益相关者之间的公开对话。通过主动解决这些问题,医疗保健系统可以充分利用人工智能的潜力,同时保护医学中仍然不可替代的宝贵的人性化。