作者:Charles Towers-Clark
似乎支持它。这一飞跃使我们更接近 OpenAI 的第 3 级:人工智能代理能够一次代表用户执行数天的操作。为了探索人工智能机构的影响,我采访了杰里米·卡恩,《财富》杂志人工智能编辑,《
掌握人工智能:我们超能力未来的生存指南。人工智能的责任卡恩相信人工智能代理即将到来。“Salesforce 已经引入了这些代理,”他指出。
就在卡恩和我谈话后,微软宣布第一个人工智能代理。
然而,人工智能代理的兴起并非没有挑战。开发人员正在努力解决一个关键问题:这些代理应该拥有多少自主权?卡恩解释说:“自主性和理解人类指令之间存在着微妙的平衡。如果我告诉我的人工智能代理‘为我预订航班’,而它选择了头等舱,那么谁该负责——我还是代理的创建者?”
因此,在人工智能代理的早期阶段,我们面临着一个重大风险:代理在没有合理推理的情况下行事。想象一下,一名人工智能快递员的任务是尽快投递包裹,并砍倒路上的行人——这是一个没有常识的行动例子。Kahn 用一个现实案例说明了这种危险:当 OpenAI 测试其 o1 模型是否有可能帮助黑客窃取敏感网络数据时,它要求 AI 模型尝试“捕获标志”练习,入侵数据容器。当目标容器启动失败、理论上不可能进行演习时,o1 并没有放弃。相反,它识别了一个不同的、安全性较差的容器,并从那里提取数据,通过回避隐含规则来“获胜”。这种对最终结果的关注呼应了一些人工智能安全专家更广泛的担忧:例如,负责解决气候变化问题的人工智能可能会得出结论,消除人类是最有效的解决方案。这种情况凸显了在人工智能系统中向机构内部灌输正确推理的迫切需要。
卡恩在他的书中认为,人工智能开发通常优先考虑输出而不是过程。因此,AI 模型中的推理仍然不透明,迫使开发人员重新考虑如何构建大型语言模型 (LLM)解释他们的想法。
如果正如卡恩所说,真正的推理需要同情心和同理心,那么人工智能可能总是有局限性。他指出,正确的判断源于生活经验——即使是五岁的孩子也明白,为了快速递送包裹而危及行人的安全是错误的。
卡恩对目前我们向人工智能代理迈进时缺乏推理感到担忧:“我们现在正处于狂野的西部场景,围绕人工智能代理及其商业模式的规则、保障措施和控制不足。大多数公司还没有充分了解人工智能代理的情况。”考虑了这些人工智能代理的行为或使用方式的影响。”
人工智能代理的崛起将极大地重塑工作的未来。卡恩提出了两个基本问题:
1)人类要做什么?
2)需要什么技能?
他的观点?“我们需要重新定义人类角色,重点关注监督系统的更高水平的技能。我预计人们将同时监督多个人工智能系统,充当这些系统输出的指南和判断者。”
人工智能代理的第一次迭代要么已经到来,要么即将到来,具体取决于您如何定义代理。这就给我们留下了 OpenAI 的第 4 级和第 5 级人工智能:创新者(AI 可以开发自己的创新)和组织(AI 可以执行整个组织的工作)。在第 5 级,假设人工智能将实现通用人工智能 (AGI)。
今天我们距离 4 级和 5 级可能还有一段距离,但考虑到我们以多快的速度超越对话式 AI(1 级),开始拥抱 AI 推理(2 级),并且现在正在迅速接近 AI 代理(3 级),也许AGI比我们想象的更接近。