英语轻松读发新版了,欢迎下载、更新

方济各会人工智能专家警告道德挑战

2025-01-17 12:00:00 英文原文

作者:CNA

西班牙马德里,2025 年 1 月 17 日 / 上午 07:00

人工智能(AI)专家、方济会修士保罗·贝南蒂(Paolo Benanti)警告其道德风险在一次座谈会期间由马德里保罗六世基金会组织的会议指出,“控制此类技术的人就控制了现实。”

这位意大利牧师、意大利政府人工智能委员会主席强调,“我们面临的现实与10、15年前不同,这是由软件定义的现实。”

“这个出发点对我们行使与物品所有权相关的三项经典权利的方式产生影响:使用、滥用和用益权,”他解释道。(《剑桥词典》将使用权定义为“合法的 正确的使用别人的财产 暂时地并到保持任何利润由它制成。 –)

对于使用权来说尤其如此,因为“你使用这些设备产生的价值不是你的,而是进入云端”,贝南蒂指出。

——那么,那些没有物的使用权的人是谁呢?奴隶,”他解释道。 

因此,他鼓励反思生活在软件定义的现实中意味着什么。他说,“我们必须对技术采取道德的态度,特别是与人工智能相关的技术,因为它们是塑造我们世界现实的人,也是控制这种技术的人”技术控制现实。”

– 我们必须认识到我们生活在不同的现实中。软件不是次要的,而是质疑现实是什么、财产是什么、我们拥有什么权利,”方济会士说。

权力集中与分散

其次,方济各会解释了第二次世界大战后计算机技术的发展如何产生了与权力、民主和隐私相关的不同进程。

20 世纪 70 年代,美国和欧洲出现了去中心化进程,导致数年后个人计算机的诞生,“让每个人都可以访问非常简单的东西。”

20 世纪 90 年代,柏林墙倒塌后,人们的想法是更加自由化的市场——将带来更大的福祉,并在其他模式的国家推广自由民主模式。然而,这项政策“让中国变得更加富裕,但并没有变得更加民主”,这位人工智能专家继续说道。

因此,当西方民主价值观意识到“不实行民主也能变得富有和幸福”时,它就陷入了危机,他观察到。

在所谓的 2011 年阿拉伯之春中,手机的使用展示了“个人电脑的力量”。但不久之后,这种力量开始受到怀疑:“手机不再是盟友”民主的最坏盟友,但也是假新闻、两极分化、后真相以及诸如此类的事情的最坏盟友,”贝南蒂指出。

随着 COVID-19 大流行和封锁的到来,“借助个人电脑的强大功能,我们能够通过使用视频通话或开发银行支付应用程序以及其他有用的工具来适应我们的生活”替代亲自做事的工具。 

“我们意识到,从 2012 年到 2020 年,智能手机悄然融入了现实,现在现实中发生的事情直接发生在手机上,”他回忆道。

计算机时代的民主风险

(下面故事继续)

订阅我们的每日时事通讯

在 21 世纪的第二个十年,“我们的智能手机内置了人工智能”,贝南蒂表示,古典自由民主正在转变为“基于计算机的民主”。

其中,“我们正在使用人工智能来剥夺一个人单独使用计算机的能力,并将其带到一个我们称之为数据中心的集中位置”,从而形成一种新的道德观念挑战出现:“现在所有流程再次集中在云端。”

这位专家强调,这些“云”或数据中心“属于五家公司”,它们拥有“所有数据”,这不仅是个人挑战,也是对企业的挑战。民主进程。 –

关于这些挑战,神父解释了人工智能如何通过其对行为进行预测的能力对人们的自由构成威胁。

“你可能感兴趣的建议不仅是预测你能买什么,而且还能产生你要买的东西,”他总结道。

这种可能性带来了“一个真正的问题”,因为我们口袋里这种类型的系统的存在“能够强制和塑造公共空间的自由。”

这些关于人工智能的弱点、机遇、优势和威胁的问题构成了“我们应该对此类创新进行治理”的原因。 

对于未来,贝南蒂预测人工智能将对信息获取、医疗和劳动力市场产生重大影响。关于后者,他指出:“如果我们不规范人工智能对劳动力市场的影响,我们可能会摧毁我们现在所知的社会。”

这个故事首次发表由 CNA 的西班牙语新闻合作伙伴 ACI Prensa 报道。它已被CNA翻译和改编。

Nicolás de Cárdenas

尼古拉斯·德·卡德纳斯 (Nicolás de Cárdenas) 自 2022 年 7 月起担任 ACI Prensa 驻西班牙记者。在他的新闻职业生涯中,他专门研究社会宗教话题,还曾为当地和国际民间协会工作。

关于《方济各会人工智能专家警告道德挑战》的评论


暂无评论

发表评论

摘要

人工智能专家、意大利人工智能委员会主席、方济各会修道士保罗·贝南蒂 (Paolo Benanti) 在马德里研讨会上就与人工智能相关的道德风险发出警告,他指出,控制此类技术的人就控制了现实。他指出,软件现在定义了我们的现实并影响财产权,用户的数据将进入云服务而不是个人所有。贝南蒂强调了对科技公司集中权力及其对民主和隐私的影响的担忧,并强调人工智能治理需要采用道德方法,因为它对塑造社会现实和对自由的潜在威胁有影响。他还警告劳动力市场中人工智能不受监管的风险,可能导致社会破坏。