英语轻松读发新版了,欢迎下载、更新

科尔特加入了新的1000万美元AI安全科学

2025-02-17 14:06:18 英文原文

2025年2月17日

经过:亚伦·奥珀利(Aaron Aupperlee)

电子邮件
媒体查询

姓名

亚伦·奥珀利(Aaron Aupperlee)

标题

计算机科学学院

姓名

卡西亚·克罗根(Cassia Crogan)

标题

大学传播与营销

Zico Kolter(在新窗口中打开)将解决关键的人工智能安全问题作为新的AI安全科学计划(在新窗口中打开)由Google前首席执行官Eric Sc​​hmidt建立。

科尔特,负责人机器学习部门(在新窗口中打开)在卡内基·梅隆大学的计算机科学学院,将探索对抗转移的原因 - 一种现象,其中为一种AI模型开发的攻击在应用于其他模型时也有效。 

Kolter的工作长期以来一直关注AI系统的安全性和鲁棒性。研究于2023年发表(在新窗口中打开)展示了如何绕过诸如Chatgpt,Claude和Google Bard等流行系统中的AI AI Safety护栏。Kolter现在是Chatgpt的开发商Openai董事会成员。

Zico Kolter

Zico Kolter

科尔特说:“我们很高兴与施密特科学合作,对AI安全性和鲁棒性的基本科学挑战进行研究。”

施密特科学公司(Schmidt Sciences)由施密特(Schmidt)和他的妻子温迪(Wendy)创立,他创立了AI安全科学,使安全科学成为AI创新不可或缺的一部分,并提供了1000万美元以支持基础研究。该计划将培养一个合作的全球研究界,并提供来自AI安全中心(在新窗口中打开)和API访问Openai(在新窗口中打开)

AI安全科学计划选出了27个项目,旨在开发基础科学,以了解AI系统的安全性能至关重要,称研究领域的资金不足。最初的项目旨在开发有充分的,具体的,可实施的技术方法来测试和评估大型语言模型(LLMS),以便造成伤害,犯错或被滥用的可能性较小。

埃里克·施密特(Eric Sc​​hmidt)说:“随着AI系统的发展,我们面临的风险是它们将以与人类价值观和利益相矛盾的方式行事,但这种风险并非不可避免。”“通过诸如AI安全科学计划之类的努力,我们可以帮助建立一个未来,在该未来中,AI使我们所有人都受益,同时维护保护我们免受伤害的保障措施。” 

今年晚些时候,AI安全科学计划将在加利福尼亚州召集其获奖者,在那里他们将与对AI安全感兴趣的组织相互分享。该计划还计划其他呼吁提出提案,以将新的获奖者带入该计划。了解有关该计划和获奖者的更多信息AI安全科学网站(在新窗口中打开)

关于《科尔特加入了新的1000万美元AI安全科学》的评论


暂无评论

发表评论

摘要

卡内基·梅隆大学(Carnegie Mellon University)的机器学习部负责人Zico Kolter将领导由Eric Sc​​hmidt建立的新的AI安全科学计划,重点介绍人工智能中的关键安全问题,包括对抗性转移。该计划旨在开发基础科学研究和测试大语言模型(LLMS)的方法,以确保它们更安全,并且不容易出现错误或滥用。该计划由1000万美元资助,将培养一个全球合作社区,并从OpenAI提供AI安全和API访问中心的计算支持。