“它将结合人口统计和临床变量、记录的预先护理计划数据、患者记录的价值观和目标,以及有关具体决策的背景信息,”他说。
– 包含文本和对话数据可以进一步提高模型的学习能力为什么偏好会产生并改变,而不仅仅是什么患者的偏好是在某个时间点的,”斯塔克说。
艾哈迈德建议,未来的研究可以侧重于验证临床试验中的公平框架,通过模拟评估道德权衡,以及探索如何将跨文化生物伦理学与人工智能设计相结合。
艾哈迈德写道,只有到那时,人工智能代理人才能做好部署的准备,但只能作为“决策辅助”。艾哈迈德写道,任何“有争议的输出”都应该自动触发道德审查,并得出结论:“最公平的人工智能替代者是能够引发对话、承认怀疑并留出照顾空间的替代者。”
艾哈迈德希望在未来五年内在威斯康星大学的各个地点测试他的概念模型,这将提供“某种方法来量化这项技术的好坏”,他说。
“在那之后,我认为,作为一个社会,我们会做出集体决定,决定如何整合或不整合这样的东西,”艾哈迈德说。
在他的论文中,他警告不要使用聊天机器人人工智能替代品,因为它们可以被解释为对患者的模拟,并预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的“舒适性和熟悉性”可能会模糊“援助和情感操纵之间的界限”。
斯塔克同意患者和医生之间需要进行更多的研究和“更丰富的对话”。
“我们应该谨慎,不要不加区别地应用人工智能作为寻找问题的解决方案,”斯塔克说。–人工智能不会免除我们做出艰难的道德决定的责任,尤其是关乎生死的决定。 –
生物伦理学专家特鲁格 (Truog) 告诉 Ars,他“可以想象人工智能有一天可以”为代理决策者提供一些有趣的信息,这会很有帮助。
但“所有这些途径的一个问题”是,它们将是否进行心肺复苏的决定视为二元选择,无论心脏骤停的背景或情况如何,”特鲁格的社论说。“在现实世界中,患者在失去意识时是否愿意进行心肺复苏(几乎在所有情况下)”这个问题的答案是“这取决于情况”。
当特鲁格思考他最终可能遇到的情况时,他知道他不会只考虑自己的价值观、健康和生活质量。他告诉 Ars,他的选择“可能取决于我的孩子们的想法”或者“我的预后细节将带来怎样的经济后果”。
“我希望我的妻子或其他熟悉我的人做出这些决定,”特鲁格说。“我不希望有人说,“嗯,这就是人工智能告诉我们的。”——