OC

Knowledge OS
鹦鹉螺口语
毫不奇怪,将您的医疗保健信息提供给聊天机器人是一个糟糕的主意
2026-01-23 16:07:24 · 英文原文

毫不奇怪,将您的医疗保健信息提供给聊天机器人是一个糟糕的主意

作者:Robert Hart

每周有超过 2.3 亿人次询问 ChatGPT根据 OpenAI 的说法,获取健康和保健建议。公司许多人将聊天机器人视为“盟友”,可以帮助您浏览保险迷宫、归档文书工作并成为更好的自我倡导者。作为交换,它希望您信任其聊天机器人,提供有关您的诊断、药物、测试结果和其他私人医疗信息的详细信息。虽然与聊天机器人交谈可能开始感觉有点像在医生办公室,但事实并非如此。科技公司不受与医疗提供商相同义务的约束。专家告诉边缘明智的做法是仔细考虑是否要交出您的记录。

健康和保健正在迅速成为人工智能实验室的一个关键战场,也是对用户是否愿意欢迎这些系统进入他们的生活的一个重大考验。本月,该行业的两家最大参与者公开进军医药领域。开放人工智能发布 ChatGPT 健康,ChatGPT 中的一个专用选项卡,旨在让用户在更安全和个性化的环境中提出与健康相关的问题。人择介绍克劳德医疗保健,这是一款“符合 HIPAA 标准”的产品,据称可供医院、医疗服务提供者和消费者使用。(值得注意的是谷歌的缺席,其 Gemini 聊天机器人是世界上最有能力和最广泛使用的人工智能工具之一,尽管该公司宣布为开发人员更新了 MedGemma 医疗人工智能模型。)

OpenAI 积极鼓励用户与 ChatGPT Health 分享来自 Apple Health、Peloton、Weight Watchers 和 MyFitnessPal 等应用程序的敏感信息,例如医疗记录、实验室结果以及健康和保健数据,以换取更深入的见解。它明确指出,用户的健康数据将保密,不会用于训练人工智能模型,并且已采取措施确保数据安全和私密。OpenAI 表示,ChatGPT Health 对话也将在应用程序的单独部分进行,用户可以随时查看或删除 Health“记忆”。

OpenAI 保证将保证用户敏感数据的安全,这在很大程度上得益于该公司几乎与 ChatGPT Health 同时推出了一款听起来相同、安全协议更严格的产品。该工具名为 ChatGPT for Healthcare,是更广泛的工具的一部分产品出售用于支持直接与患者合作的企业、医院和临床医生。OpenAI 建议的用途包括简化行政工作,例如起草临床信函和出院摘要,以及帮助医生整理最新的医学证据以改善患者护理。与该公司销售的其他企业级产品类似,OpenAI 提供的保护措施比向普通消费者(尤其是免费用户)提供的保护力度更大,OpenAI 表示,这些产品的设计旨在遵守医疗行业所需的隐私义务。鉴于相似的名称和发布日期(ChatGPT for Healthcare 是在 ChatGPT Health 的第二天发布的),很容易将两者混淆,并假设面向消费者的产品与更面向临床的产品具有相同级别的保护。我在报道这个故事时采访过的很多人都这样做了。

即使您信任一家公司保护您数据的誓言……它也可能会改变主意。

然而,无论我们采取哪种安全保证,它都远非无懈可击。专家表示,ChatGPT Health 等工具的用户除了使用条款和隐私政策之外,通常几乎没有任何防范措施来防止违规或未经授权的使用边缘。由于大多数州尚未颁布全面的隐私法,而且也没有全面的联邦隐私法,ChatGPT Health 等人工智能工具的数据保护在很大程度上取决于公司在隐私政策和使用条款中的承诺,”伊利诺伊大学厄巴纳-香槟分校法学教授 Sara Gerke 表示。

即使您相信一家公司会保护您的数据的誓言(OpenAI 表示它默认对健康数据进行加密),但它也可能会改变主意。“虽然 ChatGPT 在其当前的使用条款中确实声明他们将对这些数据保密,并且不会使用它们来训练模型,但您不受法律保护,并且可以随着时间的推移更改使用条款,”瑞士巴塞尔大学数字健康法研究员 Hannah van Kolfschooten 解释道。“您必须相信 ChatGPT 不会这样做。”哈佛法学院临床法学助理教授 Carmel Shachar 同意:“保护非常有限。”其中一些是他们的话,但他们随时可以回去改变他们的隐私做法。”

Shachar 表示,确保产品符合健康保险流通与责任法案 (HIPAA) 等管理医疗保健行业的数据保护法,也不应该提供太多安慰。她解释说,虽然作为指南很重要,但如果自愿遵守的公司不这样做,也没有什么危险。自愿遵守并不等同于受约束。“HIPAA 的价值在于,如果你搞砸了,就会得到强制执行。”

医学是一个受到严格监管的领域是有原因的

这不仅仅是隐私。医学是一个受到严格监管的领域,这是有原因的——错误可能是危险的,甚至是致命的。不乏例子显示聊天机器人自信地散布虚假或误导性的健康信息,例如当一个男人患上了一种罕见的病症在他向 ChatGPT 询问如何从他的饮食中去除盐之后,聊天机器人建议他用溴化钠代替盐,这是历史地用作镇静剂。或者当 Google 的人工智能概述时错误的建议胰腺癌患者避免食用高脂肪食物——这与他们应该做的完全相反。

为了解决这个问题,OpenAI 明确表示,他们面向消费者的工具旨在与医生密切合作使用,而不是用于诊断和治疗。用于诊断和治疗的工具被指定为医疗设备,并受到更严格的监管,例如证明其有效的临床试验以及部署后的安全监测。Gerke 解释说,尽管 OpenAI 完全公开地意识到 ChatGPT 的主要用例之一是支持用户的健康和福祉,但回想一下每周有 2.3 亿人寻求建议,该公司声称其无意作为医疗设备的说法受到监管机构的重视。她表示,“制造商声明的预期用途是医疗器械分类的关键因素”,这意味着即使产品用于医疗目的,声称工具不用于医疗用途的公司也将在很大程度上逃脱监管。它强调了聊天机器人等技术带来的监管挑战。

至少目前,这一免责声明使 ChatGPT Health 脱离了美国食品和药物管理局等监管机构的管辖范围,但 van Kolfschooten 表示,询问这样的工具是否真的应该被归类为医疗设备并接受监管是完全合理的。她解释说,重要的是要了解它的使用方式以及公司的说法。在宣布该产品时,OpenAI 建议人们可以使用 ChatGPT Health 来解释实验室结果、跟踪健康行为或帮助他们推理治疗决策。她说,如果一种产品做到了这一点,人们可以合理地认为它可能属于美国对医疗器械的定义,这表明欧洲更严格的监管框架可能是该产品尚未在该地区上市的原因。

“当一个系统感觉个性化并具有权威光环时,医疗免责声明不一定会挑战人们对该系统的信任。”

尽管声称 ChatGPT 不用于诊断或治疗,但 OpenAI 已经做了很多努力来证明 ChatGPT 是一个漂亮的工具。有能力的医生并鼓励用户点击它进行健康查询。该公司强调健康是一个主要用例启动 GPT-5,首席执行官萨姆·奥尔特曼甚至邀请了一位癌症患者和她的丈夫上台讨论该工具如何帮助她理解诊断。该公司表示,它根据自己与数十个专业的 260 多名医生共同制定的基准来评估 ChatGPT 的医疗实力,健康台,这“测试了人工智能模型在现实健康场景中的表现”,评论家指出它不是很透明。其他研究——通常规模较小、有限,或者由公司自己进行——也暗示了 ChatGPT 的医疗潜力,表明在某些情况下它可以通过医疗执照考试,与患者更好地沟通, 和在诊断疾病方面胜过医生,以及帮助医生制作更少的错误当用作工具时。

van Kolfschooten 表示,OpenAI 将 ChatGPT Health 呈现为健康信息的权威来源的努力也可能会破坏任何免责声明,其中包括告诉用户不要将其用于医疗目的。“当一个系统感觉个性化并具有权威光环时,医疗免责声明不一定会挑战人们对该系统的信任。”

像 OpenAI 和 Anthropic 这样的公司希望能够获得这种信任,因为他们在人工智能的下一个大市场中争夺着主导地位。显示有多少人已经在使用人工智能聊天机器人来促进健康的数据表明,他们可能正在做一些事情,并且考虑到严重的健康不平等以及许多人面临的困难甚至获得基本护理,这可能是一件好事。至少,如果这种信任到位的话,可能是这样。我们将我们的私人信息信任给医疗保健提供者,因为这个行业赢得了这种信任。目前尚不清楚一个以快速发展和打破常规而闻名的行业是否也能获得同样的回报。

关注主题和作者从这个故事中可以在您的个性化主页源中看到更多类似内容并接收电子邮件更新。

关于《毫不奇怪,将您的医疗保健信息提供给聊天机器人是一个糟糕的主意》的评论

暂无评论

发表评论

摘要

据 OpenAI 称,每周有超过 2.3 亿人向 ChatGPT 寻求健康建议。该公司鼓励用户分享敏感的医疗信息以获得个性化见解,但警告科技公司不受医疗提供商义务的约束。本周,OpenAI 和 Anthropic 等主要参与者推出了专门的医疗保健工具,突显了人工智能在健康领域日益重要的作用,尽管存在隐私问题。由于缺乏法律执行以及公司改变政策的可能性,专家们对信任数据保护保证提出了警告。尽管存在这些风险,人工智能聊天机器人正在成为健康管理不可或缺的一部分,这引发了人们对医学等受到严格监管的领域的监管和可信度的质疑。