英语轻松读发新版了,欢迎下载、更新

欧盟被告知要在AI上真实或冒险“切尔诺贝利大小的灾难”

2025-07-02 04:01:41 英文原文

作者:Tech

世界知名的AI专家斯图尔特·罗素(Stuart Russell)告诉欧洲,《欧盟AI法案》不足以使人类免于灭绝。

人工智能法规正在下降过时在全球范围内,随着国家和地区在人工智能中的地缘政治统治地位。欧盟也不例外。在不断增加的行业压力下,欧洲委员会是考虑暂停AI法案的实施,激进主义者担心在未来几天将发布的新实践守则中稀释其通用AI(GPAI)规定。

加州大学伯克利分校的计算机科学教授罗素(Russell)加入了最后一条公开信敦促欧盟从行业中“抵抗压力”最终推动为了使代码脱轨,一年后强烈的游说

罗素告诉Eurotactiv:“ [对工业而言,这并不重要。这些公司根本不希望有任何法规。”

罗素和签署人包括诺贝尔奖获得者Geoffrey Hinton和Daron Acemoglu这是灾难的秘诀。他们呼吁将强制性的第三方审核纳入代码中,以确保公司不能简单地声称像chatgpt这样的GPAIS没有支票是安全的。

但是,根据罗素(Russell)的说法,以其最强形式的AI法案太宽大了,无法保护未来的风险。他警告说:“即使您的系统非常危险……规则中也没有说您无法访问市场。”

他补充说:“一旦您拥有可以控制我们的文明和星球的系统,那么罚款全球收入的最高收入的一定百分比是荒谬的。”


灭绝

罗素的观点是有争议的。

领导的作者教科书AI属于越来越多的先驱者,他们现在认为该技术构成了生存威胁。其他的将这一AI注定为投机科幻小说。

“我认为这很奇怪。媒体不断将这些[存在性AI]的特征描述为边缘……但是,如果您看着世界上前五名或前五名的AI研究人员,除了Yann Lecun外,每个人都说:不,这是真实的。”

甚至欧洲委员会主席Ursula von der Leyen引用AI在2023年的演讲中“灭绝风险”。她在5月警告说,AI早在明年

罗素说,但是没有采取有意义的行动来应对这种风险。他担心真正的法规只会回应“切尔诺贝尔大小的灾难”。

他认为,真正的法规将涉及类似于核电站所需的安全性证据,但安全阈值更高。

罗素说:“但是,您不会获得接近数学保证的任何事情。”“公司并不是最淡淡的系统工作方式。”

就目前而言,他所希望的只是欧盟即将到来的实践守则中的强制性外部测试。

他补充说:“这还不够……但这会有所帮助。”

(NL,de)

关于《欧盟被告知要在AI上真实或冒险“切尔诺贝利大小的灾难”》的评论


暂无评论

发表评论

摘要

著名的AI专家斯图尔特·罗素(Stuart Russell)警告说,《欧盟AI法案》未能保护人类免受高级AI的存在风险。在行业的压力下,面临其规定的潜在稀释,该法案可能会变得较弱。拉塞尔倡导强制性的第三方审计以确保安全,但认为该法案的最强形式也是不够的。他呼吁采取与核安全标准相似的严格法规,强调目前的措施缺乏严格和有意义的行动来解决AI风险。