英语轻松读发新版了,欢迎下载、更新

Anthropic刚刚通过更新的安全政策使得AI偏离正轨变得更加困难

2024-10-15 19:16:26 英文原文

作者:Michael Nuñez

Credit: VentureBeat made with Midjourney

信用:VentureBeat 使用 Midjourney 制作

订阅我们的每日和每周通讯,获取最新的更新和独家行业领先的人工智能内容。了解更多


Anthropic,这家流行的人工智能公司背后的公司克劳德聊天机器人今日宣布对其进行了全面更新责任扩展政策(RSP)旨在缓解高度能力强的AI系统带来的风险。

政策,最初在2023年引入随着新协议的出现,人工智能模型在变得越来越强大时,其开发和部署也变得更加安全。

修订后的政策规定了具体的能力建设门槛——这些基准表明当人工智能模型的能力达到一定程度时,需要采取额外的安全保障措施。

阈值涵盖了高风险领域,例如生物武器制造和自主人工智能研究,反映了Anthropic防止其技术被滥用的承诺。更新还带来了更详细的职责分配给相关人员。负责任的扩展官,一个由Anthropic维持的角色,负责监督合规性并确保适当的安全措施到位。

Anthropic积极的举措表明,人工智能行业正在日益意识到需要在快速创新与严格的安全部署标准之间取得平衡。随着人工智能能力的加速发展,其重要性前所未有地提高。

为什么Anthropic的责任扩展政策对人工智能风险管理很重要

Anthropic的更新了负责任的扩展政策人工智能行业正处于一个关键节点,有益和有害的人工智能应用之间的界限变得越来越模糊。

公司决定正式化能力阈值相应的所需的安全措施表现出明确的意图,防止AI模型通过恶意使用或意外后果造成大规模的危害。

该政策重点关注化学、生物、放射性和核武器(CBRN)以及自主人工智能研究和开发(AI研发),突出了前沿人工智能模型可能被恶意行为者利用或无意中加速危险进展的领域。

这些阈值充当早期预警系统,确保一旦AI模型表现出潜在的风险能力,就会触发更高级别的审查和安全措施,在部署之前进行处理。

这种方法为人工智能治理设立了新的标准,建立了一个框架,不仅应对当前的风险,还预见了随着人工智能系统在力量和复杂性上的不断演进而可能出现的未来威胁。

Anthropic的c能力阈值可能会影响整个行业的AI安全标准

Anthropic的政策不仅仅是一个内部治理体系,它旨在成为整个AI行业的蓝图。该公司希望其政策能够“出口”,意味着它可以激励其他AI开发者采用类似的安全框架。通过引入类似于美国政府生物安全标准的人工智能安全等级(ASLs),Anthropic为AI公司如何系统地管理风险树立了先例。

分层的ASL系统,从ASL-2(当前的安全标准)到ASL-3(针对风险更大的模型采取更严格的保护措施),创建了一种结构化的方法来扩展AI开发。例如,如果一个模型显示出危险的自主能力迹象,它会自动移至ASL-3,需要进行更为严格的测试和监管。红队演练在部署之前需进行模拟对抗测试和第三方审计。

如果整个业界广泛采用这一系统,它可能会创建出Anthropic所说的“争当第一的比赛对于AI安全,公司不仅在模型性能上竞争,还在安全保障方面展开较量。这对于一个迄今为止一直不愿意在这个细节层面上进行自我监管的行业来说可能是具有变革性的。

AI风险治理中负责扩缩容官员的角色

Anthropic政策更新的一个关键特性是负责任扩展官(RSO)职责的扩大——这是一个角色,Anthropic将继续从原版政策中保留。更新后的政策现在详细说明了RSO的职责,包括监督公司的AI安全协议、评估AI模型何时跨越能力门槛以及审查模型部署的决定。

这一内部治理机制为Anthropic的运营增添了另一层责任,确保公司的安全承诺不仅仅是理论上的,而是被积极执行的。RSO有权在缺少ASL-3或更高标准所需的保障措施时暂停AI的训练或部署。

在这样一个快速发展行业中,这种监管水平可以成为其他人工智能公司的典范,特别是那些从事前沿人工智能系统工作的公司,这些系统的误用有可能造成重大危害。

为什么Anthropic的政策更新是对日益增长的人工智能监管的及时回应

Anthropic更新的政策出台之际,人工智能行业正面临着增加的压力来自监管机构和政策制定者。美国和欧洲的政府都在讨论如何监管强大的AI系统,像Anthropic这样的公司因其在塑造AI治理未来中的作用而受到密切关注。

该政策中引入的能力阈值可以作为未来政府监管的原型,为人工智能模型何时应接受更严格的控制提供一个清晰的框架。通过承诺公开发布能力报告和保障评估,Anthropic 正在将其自身定位为人工智能透明度方面的领导者——这是许多行业批评者所强调的一个缺乏的问题。

愿意分享内部的安全实践可能有助于弥合AI开发人员和监管机构之间的差距,为大规模负责任的AI治理提供路线图。

展望未来:Anthropic的责任扩展政策对人工智能发展的意义

随着AI模型变得更为强大,它们带来的风险也将不可避免地增长。Anthropic更新的责任扩展政策是对这些风险的前瞻性回应,创建了一个可以与AI技术共同发展和演化的动态框架。该公司专注于迭代安全措施,并定期更新其能力阈值和保障措施,确保能够适应新兴挑战。

虽然该政策目前仅针对Anthropic,但它对整个AI行业的更广泛影响是显而易见的。随着越来越多的公司效仿,我们可能会看到一个新的AI安全标准的出现,这一标准在促进创新的同时也注重严格的风险管理。

最终,Anthropic的责任扩展政策不仅仅是预防灾难——它还确保人工智能能够在改造行业和改善生活的同时避免带来破坏。

VB每日摘要

了解最新资讯!每天将最新新闻发送到您的邮箱。

通过订阅,您同意VentureBeat的条款与条件以及隐私政策。请注意,原文可能包含更多具体条款,这里仅提供了常见的翻译部分。如果需要完整的协议文本,请参考原始文档。根据您的要求,如果没有实际内容需要翻译,则输出原文: By subscribing, you agree to VentureBeat's服务条款。

感谢订阅。查看更多VB新闻通讯这里.

发生错误。

关于《 Anthropic刚刚通过更新的安全政策使得AI偏离正轨变得更加困难》的评论


暂无评论

发表评论

摘要

2024年10月15日 12:16 PM 版权:VentureBeat 使用 Midjourney 制作 加入我们的每日和每周新闻通讯,获取行业领先的人工智能报道的最新更新和独家内容。了解更多信息 Anthropic 是热门 Claude 聊天机器人的背后人工智能公司,今天宣布对其负责任扩展政策 (RSP) 进行了全面更新,旨在缓解高能力 AI 系统的风险。为什么 Anthropic 的负责任扩展政策对 AI 风险管理至关重要 Anthropic 更新后的负责任扩展政策在人工智能行业的一个关键时期到来,在这个时期,有益和有害的人工智能应用之间的界限变得越来越模糊。这些阈值充当早期预警系统,确保一旦一个 AI 模型展示了有风险的能力,就会触发更高的审查程度和安全措施,在部署之前进行评估。展望未来:Anthropic 的负责任扩展政策对未来人工智能开发意味着什么 随着 AI 模型变得更加强大,它们带来的风险不可避免地会增加。