你需要知道什么
- 山姆·奥尔特曼声称人工智能将足够聪明,能够解决自然环境快速发展带来的后果,包括人类的毁灭。
- 这位首席执行官希望研究人员找出如何防止人工智能毁灭人类的方法。
- 奥特曼表示,通用人工智能可能会比预期更早实现,并进一步指出,所表达的安全担忧不会在那时显现出来,因为它会以“令人惊讶的小”社会影响迅速过去。
除了围绕快速发展的安全和隐私问题生成式人工智能,景观进一步发展的可能性仍然是一个主要风险。包括微软、谷歌、Anthropic 和 OpenAI 在内的顶级科技公司在这一领域投入了大量资金,但缺乏管理其发展的政策令人高度关注,因为如果/当人工智能偏离护栏并螺旋式发展时,可能很难建立控制的控制。
当被问及他是否相信有人会找到一种方法来绕过超级智能人工智能系统所构成的生存威胁时纽约时报 Dealbook 峰会,OpenAI 首席执行官 Sam Altman 表示:
——我相信研究人员会想办法避免这种情况。我认为世界上最聪明的人将致力于解决一系列技术问题。而且,你知道,我本质上有点过于乐观,但我认为他们会解决这个问题。”
这位高管进一步暗示,到那时,人工智能可能已经变得足够聪明,能够自行解决危机。
也许更令人担忧的是,一份单独的报告建议根据 p(doom),人工智能有 99.999999% 的概率终结人类。就上下文而言,p(doom) 指的是生成式人工智能接管人类,甚至更糟——结束人类。这项研究背后的人工智能安全研究员 Roman Yampolskiy 进一步表示,一旦我们达到超级智能基准,几乎不可能控制人工智能。Yampolskiy 表示,解决这个问题的唯一方法就是首先不要构建人工智能。
然而,OpenAI 似乎有望将 AGI 基准从其愿望清单中删除。萨姆·奥尔特曼最近表示令人垂涎的基准可能会比预期更早到来。与普遍看法相反,执行官声称该基准将快速通过,但社会影响“小得惊人”。
与此同时,萨姆·奥尔特曼最近写了一篇文章,暗示超级智能可能只是“还剩几千天”然而,首席执行官表示,所表达的安全担忧并不是在 AGI 时刻出现的。
迈向 AGI 可能是一项艰巨的任务
OpenAI最近濒临破产预计未来几个月内将亏损 50 亿美元。包括微软和 NVIDIA 在内的多家投资者通过一轮融资延长了其生命线,筹集 66 亿美元,最终将其市值推至 1570 亿美元。
然而,本轮融资遇到了一些瓶颈,包括两年内转型为营利性企业的压力或风险退还投资者筹集的资金。这可能会让 ChatGPT 制造商面临以下问题:外部干扰和恶意收购来自微软等公司,分析师预测可能未来3年收购OpenAI。
有关的:萨姆·奥尔特曼因荒谬的人工智能愿景而被称为“播客兄弟”
OpenAI 可能会在办公室度过漫长的一天,试图说服利益相关者支持这一变革。前 OpenAI 联合创始人、特斯拉首席执行官埃隆·马斯克 (Elon Musk) 对 OpenAI 和萨姆·奥尔特曼 (Sam Altman) 提起两起诉讼,称其公然背叛了其创始使命并涉嫌参与敲诈勒索活动。
市场分析师和专家预测投资者的兴趣人工智能泡沫正在破灭。因此,他们最终可能会撤回投资并将其转移到其他地方。一份单独的报告证实了这一理论并指出到2025年,30%的人工智能主题项目将被放弃概念验证后。
还有人声称,包括 OpenAI 在内的顶级人工智能实验室努力构建先进的人工智能模型由于缺乏高质量的训练数据。OpenAI 首席执行官 Sam Altman 驳斥了这一说法,表示“没有墙“以达到人工智能发展的新高度和进步。谷歌前首席执行官埃里克·施密特重申了奥特曼的观点,表明“没有证据表明缩放法律已经开始停止。”