联合国秘书长人工智能 (AI) 咨询委员会发布了关于人类人工智能治理的最终报告。
该报告提出了解决人工智能相关风险的蓝图,同时仍然能够发挥这项技术的潜力。它还呼吁所有政府和利益相关者采取行动,共同治理人工智能,以促进发展和保护所有人权。
从表面上看,这份报告似乎是人工智能向前迈出的积极一步,鼓励发展,同时减轻潜在危害。然而,报告的细节暴露了一些担忧。
联合国人工智能顾问委员会于 2023 年 10 月 26 日首次召开。该委员会旨在为人工智能的国际治理提出建议。
它表示,需要采取这种方法来确保人工智能的好处(例如开辟新的科学探究领域)均匀分布,同时避免人工智能带来的风险。这种技术,例如大规模监控和错误信息的传播,都得到了缓解。
顾问委员会由来自不同地区和专业部门的 39 名成员组成。其中包括来自微软、Mozilla、索尼、Colliner AI 和 OpenAI 的行业代表。
该委员会让人想起联合国政府间气候变化专门委员会 (IPCC),该委员会旨在为国际气候变化谈判提供关键投入
人工智能顾问委员会中包含知名行业代表,这是与 IPCC 的不同之处。这可能有好处,例如对人工智能技术有更深入的了解。但它也可能有缺点,例如有利于商业利益的偏见观点。
最近发布的关于人类管理人工智能的最终报告为我们对这个委员会的期望提供了重要的见解。
关于人类人工智能治理的最终报告是在 2023 年 12 月发布的中期报告之后发布的。它提出了七项建议,以解决当前人工智能治理安排中的差距。
其中包括创建一个独立的国际人工智能科学小组、创建人工智能标准交换以及创建全球人工智能数据框架。该报告最后还呼吁所有政府和相关利益相关者采取行动,共同治理人工智能。
该报告令人不安的是全文中提出的不平衡且有时相互矛盾的主张。例如,该报告正确地主张采取治理措施来解决人工智能对权力和财富集中的影响及其地缘政治和地缘经济影响。
但是,它还声称:
目前没有人足够了解人工智能的所有内部运作方式来完全控制其输出或预测其进化。
从许多方面来看,这一说法实际上并不正确。确实,存在一些黑匣子系统,其中输入已知,但生成输出的计算过程未知。但人工智能系统在技术层面上已经得到了广泛的理解。
人工智能反映了一系列能力。该范围涵盖从 ChatGPT 等生成式人工智能系统到面部识别等深度学习系统。所有这些系统都体现出同样程度的难以理解的复杂性的假设是不准确的。
这一说法的包含让人对将行业代表纳入顾问委员会的优势提出质疑,因为他们应该带来更多的意见。对人工智能技术的深入理解。
这种说法提出的另一个问题是人工智能自行进化的概念。近年来人工智能兴起的有趣之处在于随之而来的叙述,这些叙述错误地将人工智能定位为一个代理系统。
这种不准确的叙述将感知到的责任和责任从设计和开发这些系统的人身上转移开。,为行业提供了一个创造性的替罪羊。
尽管在面对人工智能技术时隐含着无力感,而且整个报告中提出的不平衡主张,但该报告确实在某些方面积极推动了这一讨论。
总体而言,该报告及其号召性用语是向前迈出的积极一步,因为它们强调人工智能可以受到治理和监管,尽管整个报告中存在相互矛盾的主张,暗示并非如此。
“幻觉”一词的加入就是这些矛盾的一个突出例子。
这个术语本身是由 OpenAI 首席执行官 Sam Altman 推广的,当时他使用这个术语来重新定义无意义的输出,将其作为人工智能的魔力。
幻觉并不是一个技术上可接受的术语,而是一个创造性的营销议程。推动人工智能治理,同时认可一个暗示技术无法治理的术语,这并不是建设性的。
该报告缺乏的是对人工智能的认知和理解方式的一致性。
它还缺乏应用特异性,这是许多人工智能计划的共同限制。只有能够捕捉应用程序和领域特殊性的细微差别,人工智能治理的全球方法才能发挥作用。
该报告是朝着正确方向迈出的一步。然而,它需要完善和修订,以确保它鼓励发展,同时减轻人工智能的许多危害。
Zena Assaad 是澳大利亚国立大学工程学院高级讲师
本文是根据知识共享许可从 The Conversation 重新发布的。阅读原文。