作者:Oren Bar-Ner|Add a commentPrintFind an error? Report us
Murderbot 是一个有感知能力的“安全单位”,由其贪婪的联合公司霸主设计,旨在不惜一切代价保护其客户,包括在必要时杀死任何被视为威胁的人或自己。玛莎·韦尔的《谋杀机器人日记》讲述了阴沉、愤世嫉俗的谋杀机器人入侵其无情且完全不道德的“州长模块”,以摆脱“公司”的束缚后的故事。以及 Murderbot 发现自己的星际旅程人性。谋杀机器人可能是一个极端的、虚构的案例,但它体现了人工智能带来的道德困境。
人工智能(AI)正在席卷科学技术,给我们生活的方方面面带来积极的变化。严峻的现实是,它也被以最糟糕的方式滥用于犯罪和恐怖活动。然而,最令人不安的可能是,人工智能的发展方式是为了“善”而不知不觉地通过内在偏见,最终产生不道德的结果,有时会带来最严重的后果。
作为人性的一部分,偏见和成见普遍存在于政府、企业、媒体……以及社会的各个方面。如果不加控制,人工智能有可能在其涉及的各个领域揭示不公平做法、加深偏见并加剧不平等。
假设但不需要人工智能、机器学习和深度学习的概念知识,本系列的两篇文章深入探讨了不道德人工智能的无底海洋,重点关注偏见。第一部分列出了最常见的不道德人工智能实例,探究其最阴暗的角落。下一篇文章将转向我们的主题:偏见。我们将看到人工智能中存在偏见的例子,了解它们是如何产生的,并看看正在采取哪些措施来试图控制人工智能偏见所固有的潜在灾难。
不道德的使用:现有的人工智能技术如何被用于从轻微犯罪到有组织犯罪和令人发指的恐怖活动等各种行为,并仔细研究深度伪造品。
人工智能编程中的有害错误 — 从 ChatGPT 提供的捏造法律案例到误导性的房地产估算,人工智能中的错误可能会带来可怕的后果。
人工智能被颠覆——人工智能可能会被黑客攻击,而且通常比“常规”计算机系统更加隐蔽,使得黑客攻击更难被发现。一旦遭到黑客攻击,将人工智能发送到错误的方向就足以造成严重破坏。
犯罪人工智能——很简单,人工智能系统的开发是为了帮助实施或实际实施犯罪或恐怖行为。更糟糕的是,人工智能系统是为了创造新的犯罪人工智能而构建的。
偏差 – 当人工智能系统假设存在偏差时,无论是通过逻辑(算法)还是数据,都会导致有偏差的输出。这将在本系列的第 2 部分中详细讨论。人工智能
Amazon Web Services 对 AGI 提供了很好的解释: 人工通用智能 (AGI) 是人工智能理论研究的一个领域,试图创建具有类人智能和自学能力的软件。目的是让软件能够执行不一定经过培训或开发的任务。– 诸如“我们如何确保通用人工智能始终处于人类控制之下并符合人类价值观?”等存在主义问题?– 我们如何定义这些价值观? – 我们如何确保 AGI 系统没有偏见并促进公平? – 我们如何防止 AGI 被恶意使用或造成意外伤害?”是所有人工智能开发的核心,被广泛讨论,因此不在本文的讨论范围之内。
首先,一些背景知识。正如人工智能有多种方法和算法一样,人工智能的应用也是无限的,人工智能也带来了无数与隐私、安全、透明度、人力资源、学术界、金融、等等。不用说,每一个都与一个或多个不道德使用人工智能的实例或人工智能本身本质上不道德的情况有关。
忽略邪恶的可能性、统治世界、终结者或类似矩阵的超级人工智能,以及可疑美德的行为和功能的巨大灰色地带,不道德的人工智能可以分为以下几大类,但绝非包罗万象分类列表。我们将简要讨论这些类别,因为每个类别本身都是一个巨大的主题,代表了整个研究领域。
人工智能的现有应用可以而且正在被用于轻微犯罪和轻罪,以及最令人震惊的重罪和难以形容的恐怖。一个生动的例子就是阴暗而可怕的深度造假世界。到目前为止,我们大多数人都对这个术语有一定程度的熟悉,但为了以防万一,这里是韦氏词典的定义:
深伪-经过令人信服地改变和操纵的图像或记录,以歪曲某人做了或说了一些实际上没有做过或说过的事情。
随着底层人工智能变得更加智能,深度造假技术日益完善,并已被用于从欺凌和盗窃到人格暗杀、影响选举和实施恐怖活动等各种行为。最近的例子包括在 X 上疯传的泰勒·斯威夫特 (Taylor Swift) 的露骨色情图片、人工智能生成的乔·拜登总统的虚假机器人电话,鼓励选民不要参加新罕布什尔州初选,以及哈马斯在被称为 Pallywood 的活动中一直在发布真实的渲染图,其中许多是人工智能生成的深度伪造品,虚假的爆炸和伤亡,以迷惑公众并加强宣传工作。
就后者而言,大多数假货很快就会被发现,但由于在社交和传统媒体上的快速传播,在假货被揭露之前就已经造成了巨大的、持续的损害。此外,正如《纽约时报》(NYT) 的一篇文章中提到的那样,“人工智能的可能性很小。”内容可能会传播,导致人们认为真实的图像、视频和音频不真实。— 例如不知情的群众不相信受害者和恐怖分子自己拍摄的 10 月 7 日大屠杀的令人反感的真实照片。
在《2001:太空漫游》的音乐剧开场“也讲查拉图斯特拉如是说”中,不祥的号角慢慢渐强?您是否还记得 HAL,即“启发式编程的算法计算机”,这是必读书籍/必看电影中的人工智能,它会攻击宇航员,杀死其中四名宇航员,然后被宇航员“杀死”。唯一的幸存者?
登录亚马逊,您将收到一份人工智能根据您的购买、搜索、浏览行为等生成的建议列表。打开您选择的社交媒体平台,人工智能将根据您之前的会话分析,根据您的喜好定制广告和您的整个体验。人工智能已经融入我们日常生活的领域不胜枚举。
此时您可能会问自己,“好吧,抛开科幻小说不谈,如果推荐人工智能出现问题,提供苏打水而不是高尔夫球杆,那又有什么大不了的呢?”当然,这是正确的,但后者是在人工智能不太重要的应用中犯下的相对无害的错误。在实践中,人工智能错误可能会带来可怕的商业、经济、社会、政治和法律后果等。依赖性越大,灾难的可能性就越大,更不用说加剧对人工智能的不信任了。
考虑以下示例:–ChatGPT 幻觉法庭案件 –(CIO 在线杂志) – 2023 年 5 月,律师 Steven A. Schwartz 代表其客户 Roberto Mata 对哥伦比亚航空公司 Avianca 提起诉讼。Schwartz 使用 ChatGPT 研究之前的案例以支持诉讼。审判过程中发现,ChatGPT 向 Schwartz 提供了 5 个虚构案例。法官最终对施瓦茨和他的合伙人彼得·洛杜卡处以 5,000 美元的罚款,随后又完全驳回了诉讼。