事实证明,即使是人工智能模型也不能免受一点拖延的影响。
该公司表示,当开发人员试图录制编码演示时,最新版本的 Claude 3.5 Sonnet(Anthropic 当前的旗舰人工智能)偏离了轨道,并产生了一些“有趣”的时刻。在公告中说。
将机器学习模型拟人化是危险的,但如果这是一名人类员工,我们就会诊断出他们对工作感到无聊的绝症。正如所见在视频中之后,克劳德决定放下写代码,打开谷歌,莫名其妙地浏览黄石国家公园的美丽照片。
Anthropic 表示,在另一次演示尝试中,克劳德意外停止了正在进行的长时间屏幕录制,导致所有镜头丢失。我们确信这不是人工智能故意的。
即使在录制这些演示时,我们也遇到了一些有趣的时刻。其中一次,克劳德意外停止了长时间运行的屏幕录制,导致所有镜头丢失。
后来,克劳德从我们的编码演示中休息了一下,开始仔细研究黄石国家公园的照片。pic.twitter.com/r6Lrx6XPxZ
– 人类 (@AnthropicAI)2024 年 10 月 22 日
升级后的 Claude 3.5 Sonnet 是 Anthropic 在开发“人工智能代理”,一个宽泛的术语,描述了以生产力为中心的人工智能模型,旨在自主执行任务。许多公司正在致力于扩展他们的人工智能模型,而不仅仅是充当聊天机器人和助手,其中包括微软,它只是发布了自己的AI代理能力。
这家亚马逊支持的初创公司与克劳德一起吹嘘其最新型号现在可以“像人们一样使用计算机”,例如移动光标以及输入击键和鼠标点击。这意味着克劳德有可能控制您的整个桌面,与您安装的任何软件和应用程序进行交互。
显然它还远未达到完美。与任何人工智能模型一样,可靠性仍然难以捉摸,频繁出现幻觉只是生活中的一个事实,正如 Anthropic 自己所承认的那样。
该公司表示:“尽管这是目前最先进的技术,但克劳德的计算机使用速度仍然很慢,而且经常容易出错。”“人们经常使用计算机执行许多操作(拖动、缩放等),但克劳德还无法尝试。”
Anthropic 分享的示例错误大多是无害的。但考虑到克劳德据称拥有的自主权水平,对其安全性提出质疑是非常公平的。例如,当人工智能代理不是通过谷歌搜索照片而是通过打开社交媒体而偏离轨道时,会发生什么?
它也明显有可能被人类滥用——Anthropic 希望您知道它正在解决这一风险。
Anthropic 表示:“由于计算机的使用可能会为垃圾邮件、错误信息或欺诈等更常见的威胁提供新的载体,因此我们正在采取积极主动的方法来促进其安全部署。”这包括实施新的分类器来识别人工智能何时被用于执行标记的活动,例如在社交媒体上发帖和访问政府网站。
然而,随着越来越多的人尝试新的和改进的克劳德,我们预计会看到更多其计算机使用出现问题的例子。
有关人工智能的更多信息:青少年沉迷于人工智能聊天机器人后自杀身亡