你的人工智能复制品应该帮助决定你的生死吗?

2025-10-20 11:00:09 英文原文

“它将结合人口统计和临床变量、记录的预先护理计划数据、患者记录的价值观和目标,以及有关具体决策的背景信息,”他说。

– 包含文本和对话数据可以进一步提高模型的学习能力为什么偏好会产生并改变,而不仅仅是什么患者的偏好是在某个时间点的,”斯塔克说。

艾哈迈德建议,未来的研究可以侧重于验证临床试验中的公平框架,通过模拟评估道德权衡,以及探索如何将跨文化生物伦理学与人工智能设计相结合。

艾哈迈德写道,只有到那时,人工智能代理人才能做好部署的准备,但只能作为“决策辅助”。艾哈迈德写道,任何“有争议的输出”都应该自动触发道德审查,并得出结论:“最公平的人工智能替代者是能够引发对话、承认怀疑并留出照顾空间的替代者。”

“人工智能不会赦免我们”

艾哈迈德希望在未来五年内在威斯康星大学的各个地点测试他的概念模型,这将提供“某种方法来量化这项技术的好坏”,他说。

“在那之后,我认为,作为一个社会,我们会做出集体决定,决定如何整合或不整合这样的东西,”艾哈迈德说。

在他的论文中,他警告不要使用聊天机器人人工智能替代品,因为它们可以被解释为对患者的模拟,并预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的“舒适性和熟悉性”可能会模糊“援助和情感操纵之间的界限”。

斯塔克同意患者和医生之间需要进行更多的研究和“更丰富的对话”。

“我们应该谨慎,不要不加区别地应用人工智能作为寻找问题的解决方案,”斯塔克说。–人工智能不会免除我们做出艰难的道德决定的责任,尤其是关乎生死的决定。 –

生物伦理学专家特鲁格 (Truog) 告诉 Ars,他“可以想象人工智能有一天可以”为代理决策者提供一些有趣的信息,这会很有帮助。

但“所有这些途径的一个问题”是,它们将是否进行心肺复苏的决定视为二元选择,无论心脏骤停的背景或情况如何,”特鲁格的社论说。“在现实世界中,患者在失去意识时是否愿意进行心肺复苏(几乎在所有情况下)”这个问题的答案是“这取决于情况”。

当特鲁格思考他最终可能遇到的情况时,他知道他不会只考虑自己的价值观、健康和生活质量。他告诉 Ars,他的选择“可能取决于我的孩子们的想法”或者“我的预后细节将带来怎样的经济后果”。

“我希望我的妻子或其他熟悉我的人做出这些决定,”特鲁格说。“我不希望有人说,“嗯,这就是人工智能告诉我们的。”——

关于《你的人工智能复制品应该帮助决定你的生死吗?》的评论


暂无评论

发表评论

摘要

研究人员正在开发人工智能模型,以替代临床环境中的患者决策。这些模型旨在整合人口统计和临床数据以及记录的偏好和背景信息,以更好地了解患者随着时间的推移的价值观和目标。尽管在验证、道德权衡和跨文化考虑方面仍然存在挑战,但包含文本和对话数据可以增强模型的学习能力。艾哈迈德建议,只有在严格的测试和伦理审查之后,人工智能才应被用作“决策辅助”,并强调透明度和以患者为中心的护理的必要性。专家警告不要过度依赖人工智能,强调它有可能模糊道德界限并过度简化复杂的医疗决策,特别是那些涉及生死场景的决策。

相关新闻

相关讨论