英语轻松读发新版了,欢迎下载、更新

前Openai安全研究人员品牌AI开发的节奏“恐怖”

2025-01-28 18:17:45 英文原文

作者:Dan Milmo

前安全研究员Openai他说,他对人工智能发展的速度感到非常恐惧,警告该行业对这项技术进行了非常冒险的赌博。

史蒂文·阿德勒(Steven Adler)表示担心公司试图快速发展人工通用情报(AGI)的公司,这是一个理论上的术语,指的是在任何智力任务下匹配或超过人类的系统。

阿德勒(Adler)于11月离开Openai,他在X上的一系列帖子中说他有一个狂野的旅程在美国公司,会错过其中的许多部分。

但是,他说这项技术正在开发得如此之快提出了怀疑关于人类的未来

他说,我对AI开发的速度感到非常恐惧。”`当我想到我会在哪里养育一个未来的家庭,或者要为退休省钱多少时,我可以帮助您想知道:人类甚至会这样做吗?

一些专家,例如诺贝尔奖获得者Geoffrey Hinton,担心强大的AI系统会带来潜在灾难性后果的人类控制。其他人,例如Meta的首席AI科学家Yann Lecun,淡化存在威胁,说ai实际上可以拯救人类免于灭绝。

根据阿德勒的说法LinkedIn个人资料,他在OpenAI的四年职业生涯中领导了与安全相关的研究。

在谈到Agi的发展时,Openai的核心目标是Adler补充说:“ AGI竞赛是一场非常冒险的赌博,具有巨大的局面。确保系统遵守一系列人类价值的过程,并且该行业可能会走得太快而无法找到一个人。

我们比赛的速度越快,任何人及时发现一个的可能性就越小。

阿德勒(Adler使美国科技行业嘎嘎作响通过揭开模型,该​​模型与Openai技术相媲美,尽管资源显然更少。

跳过通讯促销

阿德勒说,该行业似乎被困在一个非常糟糕的均衡中时说,需要“真正的安全规定”。

•即使一个实验室确实想负责任地发展AGI,其他人仍然可以偷工减料地追赶,也许是灾难性的。”

已联系Adler和Openai以供评论。

关于《前Openai安全研究人员品牌AI开发的节奏“恐怖”》的评论


暂无评论

发表评论

摘要

一位前OpenAI安全研究人员对人工智能的快速发展表示了严重的担忧,特别是在追求人工通用智能(AGI)方面。史蒂文·阿德勒(Steven Adler)警告说,如果无法正确管理,这可能是一个“非常有风险的赌博”,而有力的弊端。他强调了缺乏AI对齐的解决方案,并呼吁制定更严格的法规以确保AI的发展,并强调强大的AI系统逃避人类控制,强调了潜在的灾难性后果。