作者:Abigail Paulnock
人工智能正被用于治疗和管理任务,但代价是什么?
2024 年 12 月 23 日晚上 11:30
“人工智能本质上是有偏见的。它是通过人类生成的数据开发出来的,这些数据不完整或不均匀地偏向某一群体。这会导致一名患者根据性别或种族等因素接受与另一名患者不同的、可能更好的建议,”阿比盖尔保罗诺克写道。(太阳能七)
在某些时候,如果您还没有经历过的话,您将会遇到心理健康挑战。每年,五分之一的美国成年人患有精神健康障碍,而且这个数字还在持续增长。为了跟上步伐,治疗师已将人工智能纳入他们的实践中。虽然人工智能让治疗变得更容易,但它也引发了一些伦理问题。这些担忧包括偏见以及缺乏隐私、透明度和有意义的关系。
人工智能已经融入我们社会的结构中。它可能是有益的,但前提是要符合道德规范。到目前为止,情况并非如此。人工智能正被用于治疗和管理任务,随后取代人类。聊天机器人与患者交谈,其他类型的人工智能对文档进行分类。人工智能还可以快速分析脑部扫描等数据。但代价是什么?
人工智能本质上是有偏见的。它是通过人类生成的数据开发的,这些数据不完整或不均匀地偏向某一群体。这会导致一名患者根据性别或种族等因素接受与另一名患者不同且可能更好的建议。这尤其成问题,因为用户倾向于相信人工智能提供的任何信息。人工智能在医疗保健领域的实施常常掩盖知情同意。用户,尤其是那些已经因心理健康障碍而脆弱的用户,应该意识到所有的风险和好处。这些知情同意问题表明人工智能缺乏透明度。
人工智能做出的决策也缺乏透明度。他们不提供证据或解释。这在医疗保健领域尤其令人担忧,因为临床医生无法确定如何或为何给出建议。无法证明或复制人工智能的解释,因此很难调整治疗计划。
人工智能的另一个问题是它会收集和存储你的个人数据。这包括敏感信息,例如您的地址。许多人工智能系统无需人类支持即可独立工作。人工智能不受控制的运行可能会导致您的数据泄露。一些公司还向第三方出售数据。例如,人工智能可以跟踪您的位置以个性化广告。用户通常不同意这种情况,也不知道这种情况正在发生。
人工智能在理解人与人之间的联系方面也不够。它不能有效地响应人类的情绪。人工智能在提出建议和诊断时仅考虑经验证据。这些建议并不总是准确的,因为人工智能没有考虑人类行为的细微差别。人际关系不仅可以解决这些问题,而且应该被优先考虑,因为它具有更长的寿命和更高的自尊等好处。
2023 年,美国饮食失调协会部署的人工智能聊天机器人 Tessa 的一位用户分享了她的经历。这个聊天机器人的目的是提供建议并帮助那些患有饮食失调症的人。当她询问泰莎如何为饮食失调患者提供支持时,泰莎回答说,为她提供了如何减肥的建议。这个建议可能对那些试图从饮食失调中恢复的人不利,因为它会引发对身体形象的负面想法。这种情况强调了知情同意和人工援助的重要性。尽管人工智能有很多好处,但它并不完美。用户应该知道这一点,并明白他们不能仅从表面上理解人工智能生成的每一个响应。
已经制定了一些指导方针来应对人工智能的道德问题。例如,《值得信赖的人工智能道德准则》制定了保护公平、问责制和尊重人类自主权的规则。然而,当前的政策未能考虑到完全的透明度。最好的解决方案是人类和人工智能的协作。人类可以确保患者充分理解人工智能的工作原理并解释其诊断的复杂性。这也解决了其他几个问题。人类可以监控人工智能并在必要时介入,以减少人工智能的不准确反应。人类的参与还可以提高人工智能建议的敏感性,同时与患者建立关系。
人工智能将继续融入我们的生活。它可以是破坏性的,也可以是革命性的。当前人工智能技术在医疗保健伦理实践中取得成功的最大希望是通过人类干预来支持它。我们不能仅仅依靠人工智能来保护我们的信息并为我们提供准确的响应。与真实的人的联系是、而且永远是无法替代的。
来自伊甸草原的阿比盖尔·保罗诺克 (Abigail Paulnock) 是巴克内尔大学心理学和语言学专业的大四学生。