1984年,安静的印度博帕尔城市遭遇了一场令世人永远铭记的悲剧。联合碳化物农药厂发生致命气体泄漏,几天内造成数千人死亡,多人受伤或永久残疾。博帕尔灾难不仅仅是一场突然的灾难;而是一场灾难。这是忽视警告和忽视安全措施的结果——如果责任优先于利润,这场灾难本来是可以避免的。
今天,随着人工智能迅速融入我们生活的方方面面,我不禁感到一种熟悉的不安感。人工智能看似与农药工厂天壤之别,但它的风险却在我们眼前不断增加。从决定谁获得工作或贷款到在选举期间影响公众舆论,人工智能拥有塑造人类生活的巨大力量。紧迫的问题是:我们会根据警告信号采取行动,还是会走向另一场可预防的危机,让普通人承担企业选择的成本?
只是一个企业流行语?
“负责任的人工智能”已成为科技行业的最新流行语。就像“生态友好”或“企业社会责任”一样,这是公司用来向我们保证他们致力于道德实践的术语。但“负责任的人工智能”的真正含义是什么?它是否相当于真正的责任?
在许多情况下,“负责任的人工智能”最终更多地只是一种营销口号,而不是行动承诺。公司发布道德准则,但如果没有执行机制,这些准则往往只是纸上谈兵。与“漂绿”掩盖企业活动对环境的真实影响类似,“负责任的人工智能”允许企业进行自我监管,同时树立道德责任的形象。这种对自愿标准的依赖回避了真正的责任,并使公众容易受到不受控制的风险的影响。
两种视图
在关于人工智能安全的争论中,出现了两种主要观点。第一种观点认为人工智能只是另一种应该自然发展的技术,只需最少的监管即可鼓励创新。这一观点的倡导者认为,在“负责任的人工智能”原则的指导下,企业将能够有效地进行自我监管。他们专注于解决偏见和数据隐私等紧迫问题,但抵制严格的监管监督。
第二种观点警告说,人工智能最终可能对人类构成根本威胁。随着人工智能系统变得更加先进,它们可以自主运行并做出超出我们控制的决策。该组织敦促制定严格的、先发制人的法规,类似于管理核能或生物武器的法规。他们警告说,如果没有适当的保障措施,人工智能可能会实现意想不到的目标,或者以可能大规模伤害我们的方式发展。
作为一个对人工智能深感兴趣但对其不受控制的增长持谨慎态度的人,我认为这两种观点都有其优点。人工智能为社会进步带来了令人难以置信的希望,但历史表明,让企业自我监管往往会导致灾难。我们需要一种平衡的方法,确保人工智能安全发展,并以深思熟虑的监督为指导,而不是被动措施。
为什么人工智能风险迅速升级
人工智能与传统技术不同,因为它可以自行学习和做出决策。与仅执行编程任务的机器不同,人工智能系统可以根据新数据调整和改变其行为。这种自学能力意味着如果管理不当,小问题很快就会变成大问题。
如果没有适当的监督,人工智能可能会放大现有的偏见,忽视道德考虑,或者优先考虑效率而不是安全。例如,如果人工智能系统从有偏见的数据中学习,它可能会做出歧视某些人群的不公平决策。在金融、医疗保健或执法等敏感领域,此类结果可能会产生严重、深远的后果。
威廉姆斯、奥利弗和帕克斯的故事
这些风险不仅仅是理论上的——它们现在正在发生。考虑一下美国的罗伯特·威廉姆斯、迈克尔·奥利弗和尼吉尔·帕克斯的例子。由于面部识别技术的误识别,三名男子均被错误逮捕,造成严重的情感和经济困扰。尼吉尔·帕克斯 (Nijeer Parks) 在监狱里度过了 10 天,而迈克尔·奥利弗 (Michael Oliver) 则失去了工作。尽管指控最终被撤销,但逮捕对他们的人际关系和个人生活产生了持久影响。
这些事件凸显了有缺陷的人工智能系统如何对个人造成毁灭性的影响。事实证明,面部识别技术在识别深色肤色的人方面不太准确,导致错误逮捕和不公正地针对少数族裔。当旨在增强安全性的技术最终侵犯了个人权利时,就凸显了问责的迫切需要。
在金融领域,用于确定信用度的人工智能算法被发现存在种族和性别偏见。这意味着合格的申请人可能会被拒绝贷款,仅仅是因为人工智能已经学会将某些人口统计因素与风险联系起来。
OpenAI 的 Whisper 是一种旨在转录语音的工具,有时会通过发明从未说过的单词或短语来“产生幻觉”。在医学或法律等关键领域,此类错误可能会导致严重的误解或错误行为。
这些例子强调了一个至关重要的问题:当人工智能系统造成伤害时,谁该负责?当算法做出影响现实生活的决策时,责任不能成为事后的想法。
公民至上
在印度,从农业到人工智能驱动的教育平台,人工智能越来越多地被各个部门采用。虽然这些技术带来了显着的好处,但它们也引起了人们对隐私、数据安全和潜在滥用的担忧。
例如,人工智能在预测性警务中的使用引发了有关监视和公民自由的辩论。在教育领域,旨在个性化学习的人工智能工具因技术获取不均而加剧现有的不平等而面临批评。
这些当地例子表明,人工智能的影响不仅仅是一个全球性问题,而且影响到印度各地的社区和个人。应对这些挑战不仅需要技术解决方案,还需要保护公民权利的深思熟虑的政策。
超越流行语
如果“负责任的人工智能”不仅仅是一个流行词,我们需要采取具体行动:
- 内置安全机制:人工智能系统的设计应具有安全功能,以防止在没有人类监督的情况下出现不道德或自主行为。正如汽车配备刹车和安全带一样,人工智能也应该有内置的保护措施。
- 定期监控和审计:持续监控至关重要,特别是对于在高风险情况下使用的人工智能而言。独立审计可以在问题升级之前发现问题,评估技术性能和道德合规性。
- 分级监管:并非所有人工智能应用程序都具有相同程度的风险。我们应该有一个分层的监管框架,在医疗保健或金融等关键领域使用的人工智能经过严格的测试和认证。
- 独立监督和执行:仅仅依靠公司自我监管是不够的。有权执行标准的独立监管机构至关重要。
- 透明度和可解释性要求:人工智能面临的最大挑战之一是其“黑匣子”性质,即使是专家也无法总是解释它如何做出某些决策。要求透明度和可解释性可确保人工智能系统能够受到审查并承担责任。如果人工智能系统拒绝某人贷款或建议治疗,我们应该能够理解原因。
人工智能时代的人权
人工智能安全不仅仅在于防止技术错误;还在于防止技术错误。这是为了保障隐私、公平和平等等基本人权。算法可能会加剧歧视,通常在造成伤害之前没有人意识到这一点。
例如,如果人工智能招聘工具对女性存在偏见,它可以系统性地排除合格的候选人,从而使工作场所的性别不平等长期存在。保护人权意味着设计从头开始尊重这些权利的人工智能系统——这一概念被称为“设计符合道德”。
世界经济论坛白皮书强调将人工智能与正义和隐私等价值观结合起来,但这些原则需要得到执行,而不仅仅是拥护。仅仅以道德人工智能为目标还不够;还需要努力。我们必须确保人工智能开发和部署的每个阶段都融入道德考虑。
责任是共同的
确保人工智能问责制不仅仅是政府或企业的工作;也是政府或企业的责任。这是一项集体努力。国际合作可以帮助建立共同标准,就像有关环境保护或核不扩散的全球协议一样。此外,公众意识和参与也至关重要。通过及时了解情况并表达担忧,个人可以影响政策和实践。
博帕尔的悲剧告诉我们,忽视责任可能会导致灾难性的后果。造成这场灾难的并不是技术的缺乏,而是技术的缺乏。这是未能将人的生命置于公司利益之上的。对于人工智能,我们正处于类似的十字路口。
[Jibu Elias 是一位人工智能伦理学家、活动家、研究员,目前是 Mozilla 基金会负责任计算挑战赛的国家负责人(印度)]
免责声明:以上内容仅代表作者个人观点