前安全研究员Openai他说,他对人工智能发展的速度感到非常恐惧,警告该行业对这项技术进行了非常冒险的赌博。
史蒂文·阿德勒(Steven Adler)表示担心公司试图快速发展人工通用情报(AGI)的公司,这是一个理论上的术语,指的是在任何智力任务下匹配或超过人类的系统。
阿德勒(Adler)于11月离开Openai,他在X上的一系列帖子中说他有一个狂野的旅程在美国公司,会错过其中的许多部分。
但是,他说这项技术正在开发得如此之快提出了怀疑关于人类的未来。
他说,我对AI开发的速度感到非常恐惧。”`当我想到我会在哪里养育一个未来的家庭,或者要为退休省钱多少时,我可以帮助您想知道:人类甚至会这样做吗?
一些专家,例如诺贝尔奖获得者Geoffrey Hinton,担心强大的AI系统会带来潜在灾难性后果的人类控制。其他人,例如Meta的首席AI科学家Yann Lecun,淡化存在威胁,说ai实际上可以拯救人类免于灭绝。
根据阿德勒的说法LinkedIn个人资料,他在OpenAI的四年职业生涯中领导了与安全相关的研究。
在谈到Agi的发展时,Openai的核心目标是Adler补充说:“ AGI竞赛是一场非常冒险的赌博,具有巨大的局面。确保系统遵守一系列人类价值的过程,并且该行业可能会走得太快而无法找到一个人。
我们比赛的速度越快,任何人及时发现一个的可能性就越小。
阿德勒(Adler使美国科技行业嘎嘎作响通过揭开模型,该模型与Openai技术相媲美,尽管资源显然更少。
新闻通讯促销之后
阿德勒说,该行业似乎被困在一个非常糟糕的均衡中时说,需要“真正的安全规定”。
•即使一个实验室确实想负责任地发展AGI,其他人仍然可以偷工减料地追赶,也许是灾难性的。”
已联系Adler和Openai以供评论。