英语轻松读发新版了,欢迎下载、更新

“对人工智能发展的速度感到非常恐惧”:Openai研究人员退出,声称实验室正在采取“非常风险的赌博”

2025-01-30 03:14:28 英文原文

作者:By

2025年1月30日08:44 AM IST

Openai Steven Adler的前安全研究员说,AGI竞赛不仅有风险,而且还具有巨大的缺点。Openai

安全研究员史蒂文·阿德勒(Steven Adler)在X帖子上宣布,他去年在四年野外骑行后离开了公司。赌博,他对人工智能发展的速度感到恐惧。

Former safety researcher of OpenAI, Steven Adler, quit after four years. (X/@sjgadler)
Openai的前安全研究员Steven Adler在四年后辞职。(x/@sjgadler)

``一些个人新闻:在整个Openai的安全工作四年后,我于11月中旬离开。这是一个疯狂的旅程,有很多章节 - 危险的能力,代理安全/控制,AGI和在线身份等 - 我会想念其中的许多部分。”

另请阅读:Openai的Sam Altman在DeepSeek上打破了沉默,这家中国创业公司震撼了硅谷

老实说,我对人工智能发展这些日子。当我想到我将在哪里养育一个未来的家庭,或者要为退休而省钱多少,我不禁要问:人类甚至会达到这一点吗?”他补充说。

在后续文章中,他补充说,AGI竞赛是一场非常冒险的赌博,具有巨大的缺点。被困在一个真的很差的平衡中。

即使实验室确实想负责任地发展AGI,其他人仍然可以偷工减料以追赶,也许是灾难性的。这将全部推动加快。我希望实验室对阻止这一目标所需的真正安全规定很坦率。

史蒂文·阿德勒(Steven Adler)的下一步是什么?

至于下一步,我要休息一下,但是我很好奇:您认为AI安全/政策中最重要,最被忽视的想法是什么?我特别兴奋:控制方法,策划检测和安全案例,他在X上发布。

目前,DeepSeek主导了AI新闻周期。这家中国公司的聊天机器人震惊了世界,揭示了它是竞争对手成本的一小部分创造的。

另请阅读:山姆·奥特曼(Sam Altman)在印度的AI场景上的古老评论在中国的DeepSeek兴起

AI专家和技术界被这个AI聊天机器人感到惊讶,该机器人据说没有大量的硬件和基础架构资源,例如OpenAI等公司使用的资源。

rec-icon 推荐主题

关于《“对人工智能发展的速度感到非常恐惧”:Openai研究人员退出,声称实验室正在采取“非常风险的赌博”》的评论


暂无评论

发表评论

摘要

史蒂文·阿德勒(Steven Adler)是OpenAI的前安全研究员,由于对AI技术的快速发展而担心,在四年后离开了公司。在X帖子中,阿德勒(Adler)对AI进步的步伐表示恐惧,并批评了对AGI的种族,因为它具有很大的弊端。他指出,没有实验室找到AI对齐的解决方案,这表明实验室应该对必要的安全法规更透明。阿德勒(Adler)现在休息一下,但有兴趣探索AI安全和政策中的重要但被忽视的想法。