四种促进前沿人工智能开发透明度的方法

2024-10-15 14:18:15 英文原文

作者:By Dean W. Ball and Daniel Kokotajlo

T关于的辩论加州的人工智能监管法案SB 1047经过几个月的激烈讨论,它最终在九月下旬被加文·纽森州长否决,至此结束了。这是美国首次关于人工智能政策的重大公共对话,但这不会是最后一次。现在似乎是盘点、反思我们所学以及提出前进路径的适当时机。

作为一名专注于人工智能的政策分析师兼前开放人工智能基金会作为治理和对齐研究员,我们彼此之间在SB 1047的优劣问题上存在分歧,并且至今仍然如此。但在私下交流时,我们在评估当前人工智能的状态方面发现了广泛的共识点。这些观点是走向建设性未来道路的种子。

从根本上说,我们双方对人工智能的发展路径都存在深刻的不确定性。预测者认为在未来十年内可能发生的变化范围——既有好的也有坏的——提醒我们对于所从事的事业知之甚少。有人认为,在未来十年里,人工智能的影响将是适度的,也许类似于文字处理技术的出现。另一些人则认为它将更像是智能手机或互联网的到来。还有一些人相信,人工智能将发展成为通用人工智能(AGI)——一种比人类更聪明、更具普遍能力的新物种崛起。

深度学习这是一个发现,而不是发明。人工神经网络是通过训练获得的,而不是编程实现的。我们处于未知领域,并且每天都在探索其边界。可能会出现意外情况,甚至可能是很可能发生的。

不幸的是,洞察力的分布并不均匀。最前沿的人工智能研究越来越多地由最大的人工智能公司进行——比如OpenAI、Anthropic、DeepMind和Meta。与过去不同,这些研究很少公开发布。每一个前沿的人工智能公司之一已经沟通了that他们相信AI政策应当以审议和民主的方式制定。然而,如果公众甚至许多相关领域的专家都不知道正在建设什么,那么这种审议就根本不可能进行,因此他们甚至不知道我们要尝试监管的内容是什么,或者是如何监管的。监管

这种信息不对称可能导致许多可预见的负面影响。一个被误导的公众可能会通过一些无能为力甚至有害而非有益的法律。或者,当实际上需要某些政策回应时,我们却可能无所作为。更进一步地说,具有改变世界能力的系统几乎完全秘密地建立起来也是有可能的;事实上,这种情况比我们希望的要接近现实得多。一旦这些高度先进的未来系统建成,它们的存在或许只有在AI公司内部以及可能美国政府高层中为人所知。这将构成一种与我们的共和政体根本相悖的力量失衡。

透明度是风险较低且更有可能获得广泛支持的监管措施,它是确保人工智能健康发展的重要因素。我们提出了一种框架,使公众能够了解未来的人工智能系统将具备哪些能力——无论是有益的还是潜在有害的。

我们的提议包括四项措施。每一项都可以作为公共政策实施,或者由公司自愿承诺,并且每项单独来看都能在促进公众更好地了解前沿人工智能发展方面产生实质性影响。综合起来,它们将创建一个强大的透明度框架。

开发中功能的披露

与其迫使公司披露关于如何获得某一能力的专有细节,我们提议只分享该能力已被获得这一事实。其想法很简单:当一个前沿实验室首次观察到某项新的重大能力(根据实验室自身的安全计划衡量)被达到时,公众应被告知。联邦政府的人工智能安全研究所可以促进公开披露,在这种情况下,相关实验室的身份可以保持匿名。

训练目标/模型规格披露

Anthropic已发布宪法它用于训练模型,和_the_这个词似乎没有完整的句子上下文,可能是原文的一部分被省略了。根据指示,只输出可以翻译的内容部分: 它用于训练模型,系统提示它给了Claude。OpenAI发布了它的模型规格这是一份详细说明ChatGPT的理想行为的文档。我们支持监管、自愿承诺或行业标准,以期望创建并公开分享此类文件。

这是用于三个原因首先,它们使用户能够区分行为是故意的还是无意的。无意的行为案例可以被收集并用于推进基础对齐科学。其次,就像开源代码通常会使其更加安全一样,公开这些文档更有可能让人们快速发现和解决问题。第三,也是最重要的一点,在人工智能系统变得强大得多并在我们的经济和政府中广泛集成的情况下,人们有权了解它们正在遵循的目标和原则,这是基本民主权利的一部分。

公开讨论安全案例和潜在风险

该提案要求前沿人工智能公司公布他们的安全案例——他们对其模型将如何追求既定目标和遵守既定原则的解释或至少他们为其模型不会导致灾难的理由进行解释。因为这些安全案例涉及内部模型,可能包含敏感的知识产权,所以公开版本的文件可能会有删减。这些安全案例无需经过监管机构批准;相反,分享它们的目的是让公众和科学界能够对其进行评估,并通过提供反馈来潜在地做出贡献。

举报人保护措施

举报人保护措施对于追究AI公司的法律责任和履行其自身承诺至关重要。经过广泛的公众辩论和反馈,我们认为SB 1047中的举报人保护措施,尤其是针对报告法律违规或极端风险的AI公司员工的保护措施,已经相当接近理想状态。我们建议以该法案最新版本中规定的举报人保护措施作为进一步讨论的起点。

我们相信人工智能社区在很多方面达成的共识多于分歧。我们中的绝大多数人都对积极的技术变革前景感到兴奋。我们大多数人也认为当前的局面存在严重问题,无论是政治、治理还是科学和技术进步的状态。我们都希望由激进的人工智能发展带来的未来能够实现。简而言之,我们认为我们在长期目标上很可能是盟友,即使在关于SB 1047的优劣方面有许多人持强烈反对意见。

如果人工智能证明其变革性正如我们所相信的那样,它将挑战美国现状的许多方面。这将要求我们建立新的机构——甚至可能需要重新构思国家治理本身。这是一个巨大的智力任务,如果我们关于它的辩论沦落到党派争斗的地步,我们的社区无法应对这一挑战。从这个意义上说,人工智能不仅仅是一个技术机遇;它是让我们完善美国治理的机会。让我们抓住它。

德安·W·鲍尔是梅卡图斯中心的研究员,并且是通讯的作者超维度的丹尼尔·科科塔约洛是AI未来项目执行总监。

时代杂志必读文章


联系我们letters@time.com.

关于《四种促进前沿人工智能开发透明度的方法》的评论


暂无评论

发表评论

摘要

关于加州AI监管法案SB 1047的辩论已经结束——经过几个月的激烈讨论,该法案于九月下旬被州长加文·纽森否决。作为一名专注于AI政策分析的研究员以及前OpenAI治理和对齐研究者,我们彼此之间对于SB 1047的价值持不同意见,并且至今仍持有不同的观点。人工神经网络是通过训练而非编程来实现的。披露正在开发的能力 而不是强迫公司披露如何获得某项能力的专有细节,我们提议仅分享已获得该能力这一事实。如果AI证明像我们认为的那样具有变革性,它将挑战美国现状的许多方面。