需要更高的透明度确保公共安全和对开发这项强大技术的公司的问责制。AI正在迅速前进。虽然行业,政府,学术界和其他人努力制定约定的安全标准和全面的评估方法,这可能需要几个月至几年的时间,但我们需要临时步骤,以确保非常强大的AI安全,负责任,负责任,透明。
因此,我们提出了一个目标透明框架,可以在联邦,州或国际层面上应用,仅适用于最大的AI系统和开发商,同时确定安全实践的明确披露要求。
我们的方法故意避免了严重的规定。我们认识到,随着人工智能科学的不断发展,任何监管工作都必须保持轻巧和灵活。它不应阻碍AI创新,也不应放慢我们实现AI福利的能力,包括救生药物发现,迅速提供公共利益以及关键的国家安全职能。鉴于评估方法,严格的政府标准将特别适得其反几个月内过时由于技术变革的速度。
AI透明度的最低标准
以下是我们认为应该指导AI透明度政策的核心原则:
- 将应用程序限制到最大的模型开发人员:AI透明度应仅适用于正在建立最有能力的模型的最大边界模型开发人员 - 边界模型的区别是计算能力,计算成本,评估绩效,年收入和R&D的组合。为了避免为启动生态系统和小型开发人员负担对国家安全风险较低或造成灾难性伤害的模型,该框架应包括对较小开发人员的适当豁免。我们欢迎初创社区对这些门槛的意见。在内部,我们已经讨论了以下示例的阈值:每年收入临界值按1亿美元的订单;或每年10亿美元的研发或资本支出。这些范围的范围应定期审查,因为技术和行业的格局不断发展。
- 创建一个安全的开发框架:需要覆盖的边境模型开发人员拥有一个安全的开发框架,以列出他们将如何评估和减轻模型中不合理的风险。这些风险必须包括产生化学,生物学,放射学和核伤害,以及由未对准模型自主权造成的危害。安全开发框架仍然是不断发展的安全工具,因此任何提案都应为灵活性而努力。
- 公开安全开发框架:安全的开发框架应在AI公司注册并维护的公共面向公共网站上,但要披露公众,但要以合理的修订保护措施以供敏感信息进行合理的修订保护。这将使研究人员,政府和公众能够了解当今部署的AI模型。该披露应以自我认证的形式提出,即实验室遵守其已发表的安全开发框架的条款。
- 发布系统卡:系统卡或其他文档应总结所需的测试和评估程序,结果和缓解(如果有适当的修订,可能会损害公共安全或模型的安全性和安全性)。系统卡也应在部署时公开披露,并在对模型进行了实质性修订后进行更新。
- 通过禁止虚假陈述来保护举报者:明确使其违反法律,使实验室谎言其遵守其框架。这种澄清造成了明确的法律违规行为,使现有的举报人保护措施能够申请,并确保执法资源直接专注于从事有目的不当行为的实验室。
- 透明度标准:可行的AI透明度框架应具有最低的标准集,以便可以增强安全性和公共安全,同时适应AI开发的不断发展的性质。鉴于AI的安全和保障实践仍处于早期阶段,而诸如人类之类的边境开发人员会积极研究最佳实践,因此任何框架都必须设计用于进化。标准应从灵活,轻巧的要求开始,这些要求可以适应行业,政府和其他利益相关者之间出现的最佳实践。
这种透明度的方法阐明了行业最佳安全实践,并可以帮助为负责任的实验室训练其模型,确保开发人员符合基本问责制标准,同时使公众和政策制定者能够区分负责任的和不负责任的做法。例如,我们在此处描述的安全开发框架类似于人类自己负责任的缩放策略和领先实验室的其他人(Google Deepmind,,,,Openai,,,,微软),所有人在发布边境模型的同时已经实施了类似的方法。 将安全的开发框架透明度要求纳入法律,不仅将在不设置石头的情况下标准化行业最佳实践,还可以确保随着模型变得更加强大,将来无法撤回披露(现在是自愿的)。
AI模型是否以及何时构成灾难性风险的观点不同。安全开发框架和系统卡的透明度要求可以帮助决策者提供确定是否有必要进行进一步监管的证据,并为公众提供有关这项强大的新技术的重要信息。
随着模型的发展,我们有前所未有的机会来加速科学发现,医疗保健和经济增长。如果没有安全和负责任的发展,单个灾难性失败可能会停止数十年。我们的建议的透明框架提供实用的第一步:公众对安全实践的可见性,同时保留私营部门敏捷性,以发挥AI的变革潜力。