作者:Kyle Wiggers
在他的一篇帖子中个人博客OpenAI 首席执行官 Sam Altman 表示,他相信 OpenAI“知道如何构建(通用人工智能)”,正如该公司传统上所理解的那样,并开始将其目标转向“超级智能”。¤
“我们热爱我们当前的产品,但我们来这里是为了辉煌的未来,”奥特曼在帖子中写道。“超级智能工具可以极大地加速科学发现和创新,远远超出我们自己的能力,从而大大增加丰富性和繁荣。”奥特曼
之前说超级智能可能会在“几千天后”出现,而且它的到来会“比人们想象的更强烈。”AGI(通用人工智能)是一个模糊的术语,但 OpenAI 有自己的定义:“在最具经济价值的工作中超越人类的高度自治系统。”OpenAI 和微软(这家初创公司的密切合作者和投资者)
,还有AGI的定义:可以产生至少1000亿美元利润的人工智能系统。根据两家公司之间的协议,当 OpenAI 实现这一目标时,微软将失去其技术的使用权。
那么 Altman 可能指的是哪个定义?他没有具体说明,但前者似乎最有可能。奥特曼写道,他认为人工智能代理——可以自主执行某些任务的人工智能系统——可以说——今年可能会“加入劳动力队伍”,并“实质性地改变公司的产出”。
“我们仍然相信,不断地将强大的工具交到人们手中会带来伟大的、广泛传播的成果,”他写道。
这是可能的,但当今的人工智能技术也确实非常有限。它产生幻觉,为一;它使对任何人来说都是显而易见的错误;它可以是非常贵。
奥特曼似乎相信这一切都可以克服——而且是很快。尽管如此,如果说我们从过去几年中学到了有关人工智能的任何知识,那就是时间表可能会改变。
“我们非常有信心,在接下来的几年里,每个人都会看到我们所看到的,并且需要非常谨慎地采取行动,同时仍然最大限度地提高广泛的利益和赋权,这是非常重要的,”奥特曼写道。– 考虑到我们工作的可能性,OpenAI 不可能是一家普通的公司。能够在这部作品中扮演一个角色是多么幸运和谦卑。”
人们希望,随着 OpenAI 表明其将重点转向超级智能,该公司将投入足够的资源来确保超级智能系统的安全运行。
OpenAI 有书面 一些 次关于如何成功过渡到一个拥有超级智能的世界“远未得到保证”,而且它并没有所有的答案。“我们没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控,”该公司在一份报告中写道。博客文章日期为 2023 年 7 月。“人类将无法可靠地监督比我们聪明得多的人工智能系统,因此我们当前的对齐技术将无法扩展到超级智能。”
然而,自那篇文章发布以来,OpenAI 已经解散了专注于人工智能安全(包括超级智能系统安全)的团队,并且看到一些有影响力的专注于安全的研究人员离开。其中有几位工作人员引用OpenAI 日益增长的商业野心是他们离开的原因。公司目前正在正在经历进行公司重组,以使其对外部投资者更具吸引力。
在一个问最近的采访对于批评者称 OpenAI 对安全性不够重视,Altman 回应道,“我会指出我们的过往记录。”
TechCrunch 有一份以人工智能为中心的时事通讯! 在这里注册每周三将其发送到您的收件箱。
Kyle Wiggers 是 TechCrunch 的高级记者,对人工智能特别感兴趣。他的文章曾发表在 VentureBeat 和 Digital Trends 以及一系列小工具博客上,包括 Android Police、Android Authority、Droid-Life 和 XDA-Developers。他和他的伴侣(一位钢琴教育家)住在布鲁克林,他自己也涉足钢琴。偶尔——如果大多不成功的话。