在健康AI中,解释性不会推动信任

2025-10-07 13:54:44 英文原文

作者:Online: www.sensalhealth.com, LinkedIn

您听到了信任,但要验证。真的相信它。如果你验证它,您可能根本不需要信任!

在咨询国家DIY汽车商店连锁店时,我们发现了一种共同的模式。可以评估备件技术并自行验证质量的汽车爱好者(齿轮)并不关心他们光顾的商店,只要始终可用的产品。另一方面,缺乏足够技术知识的相对业余爱好者和新手对零售商店的忠诚度发展了他们,他们认为他们获得了值得信赖的指导,以帮助选择合适的产品满足他们的需求。

在医疗保健讨论中,最经常重复的主张之一(接近格言)是“解释性”是信任的基础。但是我想解释为什么这可能会误解用户行为,并使AI开发人员朝错误的方向发展。

解释性从来都不是信任的关键驱动力

如果真是这样,那么数百万日常交易将永远不会像他们那样普遍,平稳。有无数的流程使公司无法或不使消费者(甚至其技术用户)透明。考虑一下,年轻的父母可能对他们所依赖的婴儿食品的生产过程有多大了解,旅行者对确保飞机安全的护栏的了解很少,如何不透明化学成分(或行动机理)抗抑郁药药物是对患者的,驾驶员可能对新混合动力汽车引擎盖下的复杂电子设备的了解程度很少,或者植入了心脏逆变器 - 信念(ICDS)的运作方式是对患者和家庭的模棱两可的。

这些是充满不确定性,歧义和复杂性的产品和服务的示例。这将需要专业知识,大量精力和大量时间来充分了解特定产品和服务的工作方式。典型的消费者将没有时间过着生活!通过验证和了解他们面临的新产品和服务选择,他们的时间将被消耗掉。

这是信任进入图片的地方。 如果一切都清晰,透明,理解和可以解释,患者将不需要信任。例如,对医疗保健的信任是最重要的,并且在患者面临信息不对称并感到脆弱时,品牌或提供商的可信度至关重要。在解释性不可行的情况下,信任是个人依赖的替代品。这些可能包括患者没有的情况动机试图了解很多细节或缺乏了解基本过程的能力。

信任为患者提供持续信息不对称的路径

考虑人工智能(AI)解释性是对AI产品和服务的信任的先决条件,是适得其反的。相反,AI公司应专注于加强对品牌和组织的信任,并帮助维持对患者关键接触点的临床医生的信任。正如我们自己的研究和其他研究所表明的那样,他们可以(并确实)通过证明能力和仁慈(或亲定量意图)来强化信任,在与患者和其他利益相关者互动的所有互动领域中。

此外,这可能是信任的亲密表弟,是患者最初印象和AI驱动医疗保健的首次体验的主要驱动力。通过大众媒体,口碑故事和社交媒体。公司应通过谨慎和纪律监视和管理其声誉。

我的关键建议是,AI提供者不再将解释性视为信任的先决条件,而是最好将信任和可信赖的声誉视为克服方式持续存在的 - 遥不可及的。提供者具有既定的技术可信度,例如Google或Microsoft或医疗保健,例如Cleveland Clinic或Duke Health,已经具有必要的风险降低身份,可以很好地为他们服务。在护理点,患者对医生和其他临床医生的信任将帮助他们克服任何焦虑或者,随着AI的一部分,他们可能会感到脆弱感。

在面向患者的过程中采用AI时要谨慎行事的临床医生和医疗保健系统应受到赞扬,而不是因规避风险而受到批评。他们正在保护自己的可信赖性,这是一种可以很好地为他们和患者服务的关键而艰苦的资源,因为AI在医疗保健方面变得更加普遍,并且患者和提供者之间的信息不对称继续持续存在。

参考

Sirdeshmukh,D.,Singh,J。,&Sabol,B。(2002)。在关系交流中,消费者信任,价值和忠诚度。营销杂志,,,,66(1),15â37。https://doi.org/10.1509/jmkg.66.1.15.18449(2002年出版的原始作品)。

Mansur Khamitov,Koushyar Rajavi,Der-Wei Huang,Yuly Hong,消费者信任:50年实证研究的荟萃分析,消费者研究杂志,第51卷,第1期,2024年6月,第7页,第7页,https://doi.org/10.1093/jcr/ucad065

关于《在健康AI中,解释性不会推动信任》的评论


暂无评论

发表评论

摘要

本文挑战了以下观点:解释性对于建立对AI和其他复杂系统的信任至关重要。它认为,在公司和消费者之间存在重大信息不对称的情况下,信任会发展出不切实际的详细说明。当充分理解不可行时,信任成为至关重要的替代品。文章表明,AI开发人员应该专注于建立声誉,并展示能力和仁慈来增强信任,而不是仅仅追求解释性。鼓励临床医生和医疗保健系统谨慎地进行AI整合,以保护其对信息不对称的信任度的声誉。