作者:Angelica Stabile
人工智能比真正的医生更能赢得家长的信任。
这是根据堪萨斯大学寿命研究所的一项新研究得出的结论,该研究发现,父母会寻求有关他们的孩子的信息。儿童健康与人类医疗保健专业人员相比,更多人转向人工智能。
这项发表在《儿科心理学杂志》上的研究还显示,父母认为人工智能生成的文本“可信、道德且值得信赖”。
超过 100 名年龄从 18 岁到 65 岁不等的家长被要求在专家的监督下对人类医生或 ChatGPT(OpenAI 制造的人工智能聊天机器人)生成的文本进行评分。
该研究得出结论,ChatGPT“能够影响行为意图用于药物、睡眠和饮食决策。”
该研究的主要作者在一份新闻稿中写道:“我们担心,如果没有适当的专家监督,人们可能会越来越依赖人工智能来提供健康建议。” (iStock)
也有“一点区别”ChatGPT 之间研究发现,专家们对道德、可信度、专业知识、准确性和可靠性的基准进行了评估。
但当发现差异时,ChatGPT 的响应在可信度和准确性方面被评为更高,参与者表示他们更有可能依赖聊天机器人的信息。
越来越多的医生使用 CHATGPT 来帮助处理繁忙的工作量,但人工智能是可靠的助手吗?
该研究的主要作者、堪萨斯大学临床儿童心理学博士生卡丽莎·莱斯利·米勒 (Calissa Leslie-Miller) 指出,研究ChatGPT 推出后立即开始。
她在一份新闻稿中写道:“我们担心父母如何使用这种新的、简单的方法来收集孩子的健康信息。”
“家长经常向互联网寻求建议,因此我们想了解使用 ChatGPT 会是什么样子以及我们应该担心什么。”
研究参与者表示,他们更有可能依靠 ChatGPT 来获取有关孩子健康的答案。 (弗兰克·鲁彭霍斯特/图片联盟来自盖蒂图片社)
Leslie-Miller 表示,研究结果令研究人员感到惊讶,因为 ChatGPT 尚处于推出初期。
她指出:“我们开始看到人工智能正在以一种可能不会立即显现的方式进行整合,人们甚至可能无法意识到他们正在阅读人工智能生成的文本与专家内容。”
研究人员警告说,尽管 ChatGPT“在许多情况下都能很好地工作”,但人工智能模型“不是专家”,仍然可能生成错误的信息。
“人们甚至可能无法识别自己正在阅读人工智能生成的文本和专家内容。”
“在儿童健康方面,后果可能很严重,我们解决这个问题至关重要,”她说。
“我们担心人们可能会越来越依赖人工智能健康建议没有适当的专家监督。”
莱斯利-米勒建议人工智能用户对聊天机器人提供的信息保持谨慎,他们应该只依赖“与来自非生成人工智能来源的专业知识一致”的信息。
一位研究人员建议父母只依赖“与非生成人工智能来源的专业知识一致”的信息。 (美联社照片/理查德德鲁,档案)
德克萨斯州的急诊科医生兼人工智能专家 Harvey Castro 博士告诉 Fox News Digital,他理解为什么父母可能会转向 ChatGPT 等工具来寻求“快速医疗保健建议”,因为这项技术已经“越来越融入我们的生活”。
“人工智能的即时性和便利性非常有吸引力,特别是对于那些随时寻求答案的忙碌父母来说。”
他说:“人工智能的即时性和便利性非常有吸引力,特别是对于忙碌的父母来说,他们随时都在寻找答案。”
卡斯特罗同意研究人员的观点,即人类专业知识和人工智能的结合比依赖无监督的人工智能“有效得多”,特别是在涉及到儿童健康。
他指出:“人工智能可以提供有价值的初步信息,但它无法完全掌握孩子独特的病史、微妙的症状以及多年专业训练的细微差别。”
卡斯特罗继续说道:“这就是人为因素不可替代的地方——合格的医疗保健专业人员,特别是儿科医生的参与,可以确保信息准确、个性化和安全。”“让合适的人参与进来至关重要。”
一位医生表示:“人为因素是不可替代的,需要合格的医疗保健专业人员,特别是儿科医生的参与,才能确保信息准确、个性化和安全。” (iStock)
卡斯特罗补充说,儿科医生可以解释人工智能生成的有关儿童健康的信息,并做出人工智能无法做出的“明智决定”。
单击此处获取福克斯新闻应用程序
这位专家鼓励父母在寻找有关孩子健康的答案时使用人工智能工具作为起点,但之后“始终咨询儿科医生”。
卡斯特罗说,通过将两者结合起来,医疗保健专业人员可以“提高护理质量,抓住否则可能会错过的细微差别。”
欲了解更多健康文章,请访问 www.foxnews.com/health
“我们可以共同利用技术提供更快、更有效的护理,而不牺牲只有人类才能提供的个人风格和批判性思维。”
福克斯新闻数字媒体联系了研究人员征求意见。
安吉丽卡·斯塔比尔 (Angelica Stabile) 是福克斯新闻数字频道的生活记者。