作者:Dariusz Jemielniak
1942年,传奇人物科幻小说作者艾萨克·阿西莫夫介绍了他的三定律机器人技术在他的短篇小说“Runaround”中。这些法则后来在他的开创性故事集中得到普及。我,机器人。
虽然这些法律源自小说作品,但几十年来一直影响着机器人伦理的讨论。随着人工智能系统(可以被视为虚拟机器人)变得更加复杂和普遍,一些技术专家发现阿西莫夫的框架对于考虑与人类交互的人工智能所需的潜在保障措施很有用。
但现有的三部法律还不够。今天,我们正在进入一个史无前例的人类与人工智能协作的时代,这是阿西莫夫几乎无法想象的。的快速进步生成式人工智能能力,特别是在语言和图像生成方面,所带来的挑战超出了阿西莫夫最初对身体伤害和服从的担忧。
人工智能欺骗的泛滥尤其令人担忧。根据 FBI 2024网络犯罪报告其中,涉及数字操纵和社会工程的网络犯罪造成的损失超过 103 亿美元。欧盟网络安全局 2023 年威胁态势特别强调深度造假“看似真实的合成媒体”是对数字身份和信任的新兴威胁。
社交媒体误传正在像野火一样蔓延。疫情期间我研究过广泛地只能说扩散生成式人工智能工具使其检测变得越来越困难。更糟糕的是,人工智能生成的文章同样具有说服力或更有说服力与传统宣传相比,使用人工智能创建令人信服的内容需要非常一点点努力。
深度造假在整个社会中呈上升趋势。僵尸网络可以使用人工智能生成的文本、语音和视频来制造对任何政治问题的广泛支持的错误认知。机器人现在能够拨打和接听电话冒充他人。模仿熟悉声音的人工智能诈骗电话越来越多常见的,现在任何一天,我们都可以预见基于人工智能渲染的叠加头像的视频通话诈骗将会激增,诈骗者可以冒充亲人并针对最脆弱的人群。有趣的是,我的父亲看到我的视频时感到很惊讶说一口流利的西班牙语,因为他知道我是这门语言的一名自豪的初学者(Duolingo 已经 400 天了!)。可以说这段视频是经过人工智能剪辑的。
更令人担忧的是,儿童和青少年正在对人工智能代理形成情感依恋,有时无法区分与真实朋友和在线机器人的互动。已经,已经有自杀归因于与人工智能聊天机器人的互动。
在他 2019 年的书中人类兼容,杰出的计算机科学家斯图尔特·拉塞尔认为人工智能系统欺骗人类的能力对社会信任构成了根本挑战。这种担忧反映在最近的政策举措中,最引人注目的是欧盟人工智能法案,其中包括要求人工智能交互透明度和人工智能生成内容透明披露的条款。在阿西莫夫时代,人们无法想象人工智能如何利用在线通讯工具和化身来欺骗人类。
因此,我们必须对阿西莫夫定律进行补充。
我们需要明确的界限。虽然人类与人工智能的合作可以是建设性的,但人工智能欺骗会破坏信任,并导致时间浪费、情绪困扰和资源滥用。人工智能代理必须识别自己的身份,以确保我们与他们的互动是透明且富有成效的。人工智能生成的内容应清晰标记,除非经过人工大量编辑和改编。
第四法的实施需要:
当然,这一切说起来容易做起来难。大量的研究工作已经在进行中,以寻找可靠的方法来加水印或检测人工智能生成的文本,声音的,图像和视频。创造我所呼吁的透明度远非一个已解决的问题。
但人类与人工智能协作的未来取决于保持人类和人工智能体之间的明确区别。正如 IEEE 2022 中所述 —符合道德的设计� 框架,人工智能系统的透明度是建立公众信任和确保负责任的发展的基础人工智能。
阿西莫夫的复杂故事表明,即使是试图遵守规则的机器人也经常发现其行为的意想不到的后果。尽管如此,拥有试图遵循阿西莫夫道德准则的人工智能系统将是一个很好的开始。