我们持续致力于构建和部署负责任的人工智能 - 关键词

2024-10-04 08:35:46 英文原文

我们正在努力构建和部署负责任的 AI

编者注:本周,在巴黎举行的 Google Responsible AI 峰会上,我们的信任安全副总裁 Laurie Richardson 向观众包括学术界、工业界、初创企业、政府和民间社会的专家。为简洁起见,对以下摘录进行了编辑。

人工智能有潜力解决重大挑战,从通过预测洪水发生的时间和地点来拯救生命,到改变我们对生物世界和药物发现的理解。然而,为了实现这些机会,我们建立并保持对人工智能潜力的信任至关重要。

这就是为什么,当人们开始在日常生活中使用人工智能时,我们正在以多种方式构建技术寻求利益最大化和风险最小化。

我们的人工智能责任生命周期

我们的信任安全团队正在开拓测试、培训和红队技术,以确保当我们的 GenAI 产品进入市场时市场,他们既大胆又负责任。每天,我们都会更多地了解如何测试安全、中立、公平和危险能力,并致力于更广泛地分享我们的方法。

今年,我们向公众推出了人工智能责任生命周期框架。这是一个涵盖研究、设计、治理和共享的四阶段流程,旨在端到端地指导 Google 负责任的人工智能开发。

大规模检测滥用行为

我们的信任团队安全部门还利用人工智能来改进我们保护在线用户的方式。人工智能在细致入微的滥用检测方面显示出在速度和规模方面的巨大前景。在我们既定的自动化流程的基础上,我们开发了利用最新进展的原型,以帮助我们的团队大规模识别滥用内容。

利用大语言模型,我们的目标是能够快速构建和训练模型只需几天而不是几周或几个月的时间即可找到对我们产品的特定类型的滥用行为。这对于新出现的滥用领域(例如俄罗斯入侵乌克兰后的虚假信息叙述)或微妙的规模挑战(例如在线检测假冒商品)尤其有价值。我们可以快速建立模型原型,并自动将其发送给我们的团队进行实施。

大语言模型也在改变培训方式。使用新技术,我们现在可以以前所未有的方式扩大滥用类型、上下文和语言的覆盖范围,包括仅在上个季度就将我们的设备上安全分类器覆盖的语言数量增加一倍。从我们的一位滥用分析师的见解开始,我们可以使用大语言模型生成事件的数千种变体,然后使用它来训练我们的分类器。

我们仍在测试这些新技术以满足严格的要求精度标准,但迄今为止原型已经展示了令人印象深刻的结果。潜力是巨大的,我相信我们正处于这个领域巨大变革的风口浪尖。

促进协作和透明度

解决人工智能生成的内容需要行业和生态系统的协作和解决方案;没有任何一家公司或机构能够单独完成这项工作。本周早些时候的峰会上,我们聚集了研究人员和学生,与我们的安全专家互动,讨论人工智能时代的风险和机遇。为了支持通过实际应用产生有影响力的研究的生态系统,我们今年将 Google 学术研究奖获得者的数量增加了一倍,以增加对信任安全研究解决方案的投资。

最后,信息质量始终是我们关注的焦点。这是谷歌使命的核心,其中一部分是确保用户有上下文来评估他们在网上找到的内容的可信度。随着我们继续将人工智能引入更多产品和服务,我们致力于帮助人们更好地了解特定内容是如何随着时间的推移而创建和修改的。

今年早些时候,我们加入了内容联盟出处和真实性 (C2PA),作为指导委员会成员。我们正在与其他公司合作开发可互操作的出处标准和技术,以帮助解释照片是用相机拍摄的、由软件编辑的还是由生成人工智能生成的。此类信息可帮助我们的用户就他们所参与的内容(包括照片、视频和音频)做出更明智的决策,并建立媒体素养和信任。

我们与 C2PA 的合作直接补充了我们自己更广泛的透明度方法以及负责任的人工智能发展。例如,我们继续将我们的 SynthID 水印工具引入更多一代 AI 工具和更多形式的媒体,包括文本、音频、视觉和视频。

我们致力于负责任地部署 AI,通过使用 AI 来加强我们的平台反对滥用,开发工具来提高媒体素养和信任,同时重点关注合作、分享见解和负责任地共同构建人工智能的重要性。

关于《我们持续致力于构建和部署负责任的人工智能 - 关键词》
暂无评论