OC

Knowledge OS
鹦鹉螺口语
我是元监督委员会的成员。我们现在需要人工智能保护 |苏珊·诺塞尔
2026-03-02 11:00:00 · 英文原文

我是元监督委员会的成员。我们现在需要人工智能保护 |苏珊·诺塞尔

作者:Suzanne Nossel

人工智能改变我们生活的速度令人头晕目眩。与之前的技术革命(无线电、核裂变或互联网)不同,政府并没有起到带头作用。我们知道人工智能可能很危险;聊天机器人可以为青少年提供自杀建议,并且可能很快就能指导青少年自杀如何制造生物武器。然而,没有类似联邦药物管理局的机构可以在公开发布之前测试新模型的安全性。与核工业不同,公司经常 不必披露危险的违规行为或事故。科技行业的游说力量、华盛顿令人瘫痪的两极分化,以及如此强大、快速发展的技术的绝对复杂性,使联邦监管陷入困境。欧洲官员正面临一些规则的阻力,一些人声称这些规则阻碍了欧洲大陆的竞争力。尽管美国的几个州正在试行人工智能法律,但它们的运作都是试探性的,并且唐纳德·特朗普曾尝试过使它们无效。

OpenAI 的 ChatGPT 和 Google 的 Gemini 等人工智能平台的负责人表示,他们关心安全。但拥有人工智能的未来意味着将数十亿美元投入到连其创建者都没有完全理解的模型中,并做出添加广告等选择以及五角大楼正在开发的功能。现在从人类那里寻求– 会增加风险。Anthropic自诩为最认真的前沿AI公司,说它的型号经过训练,“想象一位深思熟虑的高级 Anthropic 员工”将如何权衡帮助与可能的伤害。该指令呼应了多年前对硅谷公司的批评,这些公司在孤立的董事会中塑造了全球用户的生活。消费者不相信自己得到了良好的照顾。整整 77% 的美国人去年的调查认为人工智能可能对人类构成威胁。

我们并没有陷入政府强有力监管的遥不可及的希望与历史上最强大的公司自我监管之间。至少在立法者采取行动之前,独立监督提供了在人工智能的潜力和危险之间做出裁决的可能性。通过接受独立监督,人工智能公司可以证明他们对公众信任足够重视,并愿意为之奋斗。

独立监督背后的逻辑很简单。无论企业高管的意图如何,他们对股东和投资者的责任决定了他们如何在成本和安全之间进行权衡,从而激励收入和利润。虽然对企业声誉、客户忠诚度和道德的长期考虑可能会起到减速带的作用,但赢得人工智能竞赛需要风险偏好。对社交媒体如何助长杀戮、破坏选举和损害青少年心理健康的迟来的清算表明,技术的令人陶醉的力量如何能够掩盖闪烁的警告信号。

对人工智能的独立监督提供了揭示、分析和解决其风险的潜力,让倡导者和社区对这些技术如何重塑社会有更多的控制权。社交媒体提供了一个例子。2020年,被伤痕累累它助长了指控缅甸罗辛亚危机,Meta(当时的 Facebook)设立了一个监督委员会,希望能让公司摆脱困境。次年初,公司采取了一项政策承诺遵守人权法。尽管该委员会已经成立五年了,但尚未达到一些人所希望的“Facebook 最高法院”,但其记录为人工智能有效独立监督的前景及其重要性提供了重要的教训。

监督需要多元化的视角。与其他前沿人工智能公司一样,Meta 在每个人口稠密的大陆都有用户。在门洛帕克校园的安全范围内决定他们可以或不可以发布什么内容会留下盲点并激起不满情绪。监督委员会的 21 名成员利用广泛的文化和专业知识来裁决内容审核的敏感问题(例如暴力视频是否应该作为新闻分享,或者作为对受害者尊严的侮辱而被删除)。董事会的成员包括居住在超过 27 个国家包括保守派和自由派、记者、法律学者、丹麦前首相和诺贝尔和平奖获得者。

监督委员会使用 Meta 自己的“社区标准”来评估帖子是否违反规则,包括禁止欺凌或支持恐怖分子。董事会持有元兑现其维护国际人权法的誓言,包括载有言论自由的《公民权利和政治权利国际公约》第十九条。人工智能公司应该做出同样的承诺,并建立监督机制来约束他们。与美国或欧盟在线上的“被遗忘权”第一修正案不同,人权法提供了跨国界的共同货币。其规范提供了推理方法来指导人工智能决策,例如机器人拒绝回答问题是否无理地剥夺了用户的信息权,或者用户数据的重新利用是否侵犯了隐私权。

可及性、协商和透明度是关键。监督委员会接受公众申诉,公布其选择审查的案件,邀请公众征求意见,并召开专家和相关社区会议。已发布200多项决定s详细的书面意见已被世界各地的法院引用。自愿监督机构的权力大小取决于其发起公司赋予它的权力。

尽管监督委员会希望拥有更广泛的权力,但它还是称赞 Meta 的做法远远超出了其他科技公司定期召集和解散的轻量级顾问委员会。Meta 的监督委员会有权决定特定内容是保留还是下架,尽管对个别帖子使用该权限感觉就像吹灭余烬来扑灭野火。其更重要的影响在于选择错误内容的标志性案例,为决策提供公共推理,并发布 Meta 必须回应的建议。据报道,Meta 已实施了董事会 75% 的 300 多项建议十二月,为数十亿用户带来重大变化。

其中包括在内容消失时提供有关用户被指控违反的政策的通知,确保言辞嘲讽和讽刺不会作为威胁而被删除,并确保公司在自然灾害和武装冲突等危机中增加资源。该委员会还就更大的政策问题发表详细的咨询意见,例如Meta对知名人士违反政策的行为扩大宽大处理,或者随着大流行的平息,应删除多少与新冠病毒相关的错误信息。尽管该委员会在制定决策和建议时独立运作,但它依赖 Meta 来获取关键信息,例如特定内容的确定是由人类还是自动化做出的,以及内容被错误删除时到底出了什么问题。人工智能公司必须提供至少同样多的可见性,以使监督具有任何意义。

一如既往,钱很重要。Meta 定期将监督委员会的资金存入信托基金,这样就不会在一夜之间被切断。但更加多元化和有保障的资源将增强董事会的独立性。对尖端技术的监督需要花钱。它需要为支持分析和决策的专家人员以及带来特定文化和语言专业知识的顾问提供资金。然而,考虑到人工智能领域的投资达数千亿美元,即使是强有力的监管,其成本也可以忽略不计。

人工智能正在接管我们的教室、大学和企业。独立监督是人工智能公司可以做的最起码的事情,以确保他们不会有意或无意地接管我们的权利。

  • 苏珊娜·诺塞尔 (Suzanne Nossel) 是美国笔会前首席执行官、元监督委员会成员以及《敢于发言:捍卫所有人的言论自由》一书的作者

关于《我是元监督委员会的成员。我们现在需要人工智能保护 |苏珊·诺塞尔》的评论

暂无评论

发表评论

摘要

人工智能的快速发展缺乏足够的政府监管,引发了人们对安全和道德影响的担忧。目前的监督机制不充分,没有与 FDA 或核工业法规相当的机制。尽管存在潜在风险,OpenAI 和谷歌等公司仍将发展置于公共安全之上。独立监督被提议作为解决这些问题的解决方案,为人工智能治理提供多样化的视角和透明度。这种方法与 Meta 的社交媒体内容独立监督委员会有相似之处,该委员会确保遵守人权标准并促进问责制。此类机制对于维护公众信任和管理人工智能技术的社会影响至关重要。时间