在关于人工智能与人类情报之间关系的说明中,信仰学说的宗教司机以及文化和教育的教义强调了人工智能在教育,经济,劳动,健康,人类和人类和人工领域的潜力和挑战国际关系和战争。
由Salvatore Cernuzio
近年来,教皇对人工智能的警告为Antiqua et Nova关于人工智能与人类智力之间关系的注释,它提供了信仰学说的迪卡斯特(Dicastery)之间相互反思的结果,而文化和教育的教义则提供了相互反映。新文件尤其针对那些委托传播信仰的人,但也要介绍那些认为科学和技术进步的人应针对为人类和共同利益提供服务的人。[5]。
在117段中,Antiqua et Nova强调了在教育,经济,工作,健康,人际关系和战争领域中人工智能(AI)发展的挑战和机遇。例如,在后一个领域中,该文件警告了AI的潜力 - 增加战争工具的远远超出了人类的监督范围,并引起了破坏稳定的军事竞赛,并对人权的灾难性后果[99]。
具体而言,该文件不仅列出了与AI相关的风险,还列出了与AI相关的进展,这鼓励了男人和女人与上帝的合作的一部分[2]。但是,它并不能避免所有创新所带来的担忧,这些创新仍然无法预测。
注释的几段致力于AI和人类智能之间的区别。该文件引用弗朗西斯的引用,肯定了“智能”一词与ai有关的一词可以证明误导性 - 鉴于此,不应将AI视为人造形式人类智慧,但产品它[35]。就像任何人类创造力的产品一样,AI也可以针对正或负端[40]。Ai可能会引入重要的创新[48],但它也有可能加剧歧视,贫困,数字鸿沟和社会不平等的情况[52]。•在少数功能强大的公司手中,主流AI应用程序的力量集中引起了重大的道德问题,包括可以操纵AI以获得个人或公司收益的风险或指导公众舆论特定行业的好处[53]。
关于战争,Antiqua et Nova强调,能够在没有直接人类干预的情况下能够识别和打击目标的自主和致命武器系统是引起严重的道德问题的原因[100]。它指出,教皇弗朗西斯(Francis)呼吁禁止使用他们,因为他们构成了一种存在的风险,他们有可能以威胁整个地区甚至人类本身生存的方式行事。[101]。该文件说,这种危险需要严重关注,反映出对战争的技术的长期关注 - 对众多无辜平民的不可控制的破坏力,甚至没有保留儿童[101]。
关于人际关系,该文件指出,人工智能可能导致有害的孤立[58],即拟人化AI为儿童的成长构成了问题[60],并且将AI作为一个人歪曲了如果是出于欺诈目的进行的严重道德违规。还必须被认为是不道德的,需要仔细的监督[62]。
经济金融领域也需要同样的警惕。Antiqua et Nova指出,尤其是在劳动领域,AI承诺提高生产力 - 当前对技术的方法可能会矛盾地自相矛盾桌子工人,对他们进行自动监视,并将其降级为严格而重复的任务[67]。
该注释还为医疗保健问题提供了足够的空间。召回医学领域各种应用中的巨大潜力,它警告说,如果AI要取代医生的关系,它可能会恶化经常伴随疾病的孤独感。它还警告说,将人工智能整合到医疗保健中还带来了放大其他现有差异以获取医疗服务的风险,并冒着加强富人模型医学的风险,那些拥有财务手段的人从先进的预防性工具和个性化的健康信息中受益,而其他人则努力获得基本服务[76]。
在教育领域,Antiqua et Nova指出,AI提出了机会和挑战。[80]。一个问题是,许多程序仅提供答案,而不是促使学生自己得出答案或为自己写文字;”这可能导致未能发展批判性思维技能[82]。该注释还警告说,有偏见或捏造的信息,以及某些程序可以产生的假新闻[84]。
关于假新闻的主题,该文件警告说,AI产生操纵的内容和虚假信息的严重风险[85],当它传播时会变得更糟,目的是欺骗或造成伤害[87]。Antiqua et Nova坚持认为,生产和共享AI生成的内容的人应始终努力验证其散发出的真相,在所有情况下,都应避免单词共享和分享促进仇恨和不宽容的人类贬低的图像,使人类性行为的善良和亲密关系贬低或剥削弱和脆弱的人[89]。
关于隐私和控制,该说明指出,某些类型的数据甚至可以触及个人的内在性,甚至可能是他们的良心[90],而一切都变得危险可以检查和检查的一种奇观[92]。数字监视也可能被滥用,以控制信徒的生活以及他们如何表达信仰[90]。
Antiqua et nova说,关于创造的主题,AI有许多有前途的应用来改善我们与普通家庭的关系[95]。同时,当前的AI模型以及支持它们所需的硬件消耗了大量的能量和水,这对CO造成了很大的贡献2排放和紧张的资源[96]
最后,该说明警告说,人类被奴役的风险被奴役了[105]。Antiqua et Nova坚持人工智能,仅应将其用作补充人类智力而不是取代其丰富性的工具[112]。
感谢您阅读我们的文章。您可以通过订阅我们的每日新闻通讯来保持最新状态。只需单击此处