当AI改变全球景观时,全球机构正在努力定义其道德界限。其中,梵蒂冈带来了独特的神学声音,不仅是技术问题,而且是道德和精神上的问题。关于人类尊严,代理和人格性质的问题对于将教会置于日益增长的国际努力的核心,以确保AI为共同的利益而言。
保罗·贝南蒂神父是意大利天主教神父,神学家,也是圣弗朗西斯第三阶常规的成员。他曾在宗座的格里高利大学(Gregorian University)任教,并曾担任前教皇弗朗西斯(Francis)和现任教皇狮子座的顾问,涉及梵蒂冈内人工智能和技术伦理问题。
以下是我们讨论的轻微编辑和删节的笔录。你可以听这和其他情节的向Shane解释在aei.org上,并通过您喜欢的听力平台订阅。如果您喜欢这一集,请给我们评论,并告诉您的朋友和同事们。
Shane Tews:您和梵蒂冈何时开始认真考虑人工智能的挑战?
鲍洛·贝南蒂神父:嗯,这是两件事,因为梵蒂冈和我是两个不同的实体。我来自技术背景。在1999年加入该命令之前,我是一名工程师。在我的宗教形成期间,包括哲学和神学,我的上级要求我学习伦理。当我攻读博士学位时,我决定专注于技术的伦理,以合并生活的两个方面。2009年,我开始了有关脚手架人类的不同技术的博士学位研究,并以AI为核心。
我完成博士学位并开始在格里高利大学(Gregorian University)任教后,我开始提供有关这些主题的课程。您能想象人们在2012年看到神学和艾格时的面孔吗?
但是这个过程非常有趣,当时情况已经快速发展。在2016 - 2017年,我们与美国和梵蒂冈的大型科技公司之间进行了首次联系。这在结构内产生了逐步的承诺,以了解正在发生的事情以及可能是什么影响。例如,当Chatgpt于2022年发行时,没有预期的AI时刻。
教皇在2019年首次与私人观众的一些科技领导者见面时,亲自参与了这一过程。这真的很有趣,因为其中一位只是没有协议,从他的夹克上拿了一些论文。这是教皇关于青年和数字技术的演讲。他强调了一些段落,并对教皇说:“你知道,我们在这里读了你说的话,我们也很害怕。让我一起做点什么。
这种承诺,这种对话不是关于AI本身的意义,而是关于AI在社会中的社会影响的起点是起点,也许是罗马教廷对技术采取的核心方法。
我知道大约三年前有重要的利益相关者召集。您能详细说明吗?
第一次主要聚会是在2020年,我们发布了所谓的罗马呼吁AI伦理,其中包含AI上六个原则的核心集。
这很有趣,因为我们不称其为“梵蒂冈呼吁AI伦理学”,而是罗马的呼吁,因为从一开始的想法是创造一种非宗派的东西,而这些事物可以最低限制。第一个签名是天主教会。我们在梵蒂冈的前面举行了仪式,但从技术上讲,出于后勤和实际原因,我们在技术上举行了仪式。但是微软,IBM,FAO和欧洲议会主席也出席了会议。
2023年,穆斯林和犹太人签署了电话,这是亚伯拉罕宗教达成协议的第一条文件。几个世纪以来,我们的立场已经非常不同。我想,好吧,我们可以在一起。这不是很有趣吗?当整个世界都害怕时,宗教试图团结一致,问:在这样的时代,我们该怎么办?
最近的签署是在2024年7月在广岛,那里有21种不同的全球宗教签署了罗马呼吁AI伦理。根据皮尤研究所(Pew Institute)的说法,地球上的大多数活人都是宗教信仰,而在2024年7月签署罗马呼吁的宗教则代表了其中的大多数。因此,我们可以说,这个六个原则的简单核心清单可以汇集地球上大多数生物。
现在,因为这是一个呼吁,就像是一种文化运动。电话的真正成功将是当您不再需要它时。使其具有运营效果,使其在世界各地实用。但是,您可以找到一个通用且共享的平台,使人们围绕如此具有挑战性的技术团结起来的想法是如此重要,以至于它是意想不到的。我们想产生文化效果,但是哇,这很大。
作为一名工程师,您是否根据人们的使用方式来看到这一点?
好吧,这是伦理学方面优先于工程技术的地方,因为我们在80年代后期发现,技术的伦理是一种观察不简单地判断技术的技术的一种方式。没有好的技术或坏技术,但是每种技术影响社会,它都可以作为权力的秩序和流离失所。
想想像地铁或地铁站这样的古典技术。您提出的地方决定谁可以访问地铁,谁不能进入地铁。这个想法是从对技术本身的思考转变为在社会背景下如何使用该技术。AI面临的挑战在于,我们面临的不是专用技术。这不是旨在做一件事情的事情,而是一种通用技术,这可能会改变我们做所有事情的方式,例如电力。
今天,很难找到没有电力的东西。AI可能会产生相同的影响。一切都会以某种方式进行。这是新的关键因素是复杂性的一个全球视角。您无法讨论此类技术。让我给出一个真正的意大利榜样,您可以在咖啡烘焙店中使用,以确定哪些咖啡豆可能具有霉菌,以避免咖啡中的味道不佳。但是,可以在急诊室中使用相同的技术来选择您要治疗的人以及您不想治疗的人。
这不是技术本身的问题,而是这种技术的社会界面。这是具有挑战性的,因为它使通常使用标准的技术人员感到困惑。当您有电插头时,它是用于许多不同用途的电插头。现在,它不仅是插头,而且是上下文中的插件。这使事情变得更加复杂。
在梵蒂冈文档中,您强调AI只是一种优雅的工具,但它不应该控制我们的思维或取代人际关系。您提到它需要仔细的道德考虑,以实现人类的尊严和共同利益。我们如何确定人类的尊严点,以及当我们偏离它时,哪些机制可以提醒我们?
我会尝试给出一个简洁的答案,但不要忘记这是一个复杂的元素,其中有许多不同的应用程序,因此您可以将其降低为一个答案。但是,人类尊严的核心要素之一是能够自决的生活轨迹的能力。我认为这是独立宣言中的核心要素。所有人类都有权利,但是您有权追求幸福。这可能是对人权的第一个描述。
在这个方向上,我们可能会在这种系统上遇到问题,因为从工程的角度来看,AI的第一个也是最相关的要素之一是其预测能力。随着流媒体平台的任何时候,我们可以观看接下来的内容,它会更改使用该平台或在线销售系统的人数。人类与机器之间的互动可以产生行为的想法可能会干扰我们的生活质量和追求幸福。这是需要讨论的事情。
现在,问题是:我们没有认知权可以知道我们是否有这样的系统?让我给你一些数字。当您65岁时,您可能每天服用三种不同的药物。当您达到68至70时,您可能患有一种慢性病。慢性疾病取决于您对治疗的坚持程度。考虑涉及胰岛素和糖尿病的辩论。如果您忘记服药,那么您的生活质量会大大恶化。想象一下使用该系统帮助人们坚持治疗。那不好吗?不,当然不是。或考虑在工作场所使用它来增强工作场所的安全性。那不好吗?不,当然不是。
但是,如果您将其应用于您的生活选择,您想要生活的地方,工作场所以及类似的事情变得更加激烈。该工具再次可以成为武器,或者武器可以成为工具。这就是为什么我们必须问自己:我们是否需要类似认知权的东西?您与具有影响您行为的机器有关系。
然后,您可以接受:``我患有糖尿病,我需要一些帮助我坚持胰岛素的东西。让我们走。当您必须关闭戒指时,智能手表也会发生同样的事情。该机器正在促使您拥有健康的行为,我们接受。好吧,现在我们没有像那个框架一样。我们应该考虑公共空间中的某些东西吗?这不是允许或防止某种技术的问题。这是认识到在如此强大的技术时代成为人类的意义的问题,只是为了给我问我的话一个小例子。