英语轻松读发新版了,欢迎下载、更新

速度和安全可以在AI竞赛中真正共存吗?

2025-07-18 14:41:10 英文原文

作者:Ryan Daws

对AI安全的批评Openai研究人员的目标是竞争对手打开了一个行业斗争的窗口:与自身的斗争。

它始于巴拉克(Boaz Barak)的警告。他打电话给Xai的发射格罗克模型 - 完全不负责任,不是因为其头条诱发的滑稽动作,而是因为缺失的是:公共系统卡,详细的安全评估,透明度的基本透明度已成为脆弱的规范。

这是一个明确而必要的电话。但是,在他离开公司的前三周,从前Openai工程师Calvin French-Owen发表了坦率的反思,向我们展示了故事的另一半。

法国牛的帐户表明,Openai的大量人确实正在努力安全,重点是仇恨言论,生物武器和自我伤害等非常真实的威胁。然而,他提供了洞察力:他写道,大多数完成的工作都没有出版,并补充说,Openai确实应该做更多的事情来将其付诸实践。

在这里,一个好的演员责骂不好的演员的简单叙述崩溃了。取而代之的是,我们看到了真正的,全行业的困境。整个人工智能行业都陷入了安全性悖论中,这是在竞争速度以突破性速度行动的需求与谨慎行动以确保我们安全的道德需求之间的深刻结构性冲突。

法国人 - 法语表明,Openai处于受控的混乱状态,一年中将其总数增加到3,000多,当您迅速进行扩展时,一切都会破裂。这种混乱的能量是由三座竞赛的巨大压力而引起的,而Agi的压力很大。谷歌人类。结果是一种令人难以置信的速度文化,但也是保密的文化。

考虑创造法典,Openai的编码代理。法国人称该项目为Mad-Dash Sprint,一支小型团队在短短七个星期内就从头开始建造了革命性产品。

这是速度的教科书示例;在大多数夜晚甚至整个周末的工作中描述工作直到午夜的工作。这是该速度的人为成本。在一个速度如此之快的环境中,难道出版AI安全研究的缓慢,有条不紊的工作感觉就像是对比赛的分心吗?

这个悖论不是出于恶意而出生的,而是一组强大的互锁力量。

首先有明显的竞争压力。这些实验室也有文化DNA,最初是一组科学家和修补匠的宽松群体,以及对有条不紊的过程的价值转移突破。并且有一个简单的测量问题:很容易量化速度和性能,但是很难量化成功预防的灾难。

在当今的董事会中,速度的可见指标几乎总是比安全的成功成功大声喊叫。但是,要向前迈进,这不可能指向手指,这一定是改变游戏的基本规则。

我们需要重新定义运输产品的含义,从而发布与代码本身一样不可或缺的安全案例。我们需要整个行业的标准,以防止任何单一公司因勤奋而受到竞争性惩罚,从而将安全性从功能转变为共同的,不可谈判的基础。

但是,最重要的是,我们需要在AI实验室内培养一种文化,每个工程师不仅是安全部门都感到责任感。

创建AGI的竞赛不是首先到达那里的。这是关于我们如何到达的。真正的赢家将不会是最快的公司,而是向观看世界证明的野心和责任可以而且必须共同前进的公司。

(照片Olu Olamigoke Jr.

参见:授予人类,OpenAI,Google和XAI的军事AI合同

想从行业领导者那里了解有关AI和大数据的更多信息吗?查看AI和大数据博览会在阿姆斯特丹,加利福尼亚和伦敦举行。综合事件与其他领先活动共同分居,包括智能自动化会议,,,,,,,,数字转换周, 和网络安全和云博览会

探索由Techforge提供支持的其他即将举行的企业技术活动和网络研讨会这里

关于《速度和安全可以在AI竞赛中真正共存吗?》的评论


暂无评论

发表评论

摘要

哈佛大学的一位教授和前Openai研究员批评Xai的Grok模型缺乏透明度,强调了AI行业与平衡快速发展和安全的斗争。前奥奈工程师加尔文·法国人(Calvin French-Owen)透露,由于激烈的竞争和文化强调速度而不是谨慎,Openai的大部分安全工作仍未出版。这个悖论反映了一个更广泛的行业挑战,在这种挑战中,创新的压力与仔细部署AI技术的道德势在必行发生冲突。本文呼吁重新定义产品发布标准,建立整个行业安全标准,并在AI实验室内培养责任文化。

相关讨论