本周人工智能资讯:AWS失去一位顶级AI高管 | TechCrunch

2024-10-16 17:05:00 英文原文

作者:Kyle Wiggers

嗨,大家好,欢迎来到TechCrunch的常规AI通讯。如果您希望每周三都能收到这份通讯,请订阅这里.


上周,AWS失去了一位顶级AI高管。

马特·伍德,人工智能副总裁,宣布了他将在亚马逊工作15年后离开AWS。伍德长期以来一直参与亚马逊部门的AI倡议;他在2022年9月被任命为副总裁,就在ChatGPT发布之前。

伍德的离职正值AWS面临十字路口——该公司有被生成式AI热潮抛在后面的危险。公司的前任首席执行官亚当·塞利普斯基在今年五月辞职,被认为错失了良机。

根据据《信息》报道,AWS原计划在其2022年11月的年度会议上发布一个与ChatGPT竞争的产品。但由于技术问题,该公司推迟了该产品的发布。

据报导,在Selipsky的领导下,AWS还放弃了支持两家领先的生成式AI初创公司Cohere和Anthropic的机会。后来,AWS试图投资Cohere但被拒绝了,只好妥协接受了一个较小的投资额度。共同投资在Anthropic与Google。

值得注意的是,亚马逊近期在生成式AI方面并没有很强的业绩记录。今年秋天,该公司失去了几位高管, Just Walk Out,其部门负责开发无人收银技术用于零售店。据报道,亚马逊选择了一种方案来替换与Anthropic的设计挑战后,用自家模型替换Anthropic的模型以升级Alexa助手。

AWS首席执行官Matt Garman正在积极采取措施纠正公司的方向,通过收购兼并人工智能初创公司等方式熟练的;精通的并投资于培训系统如 Olympus我的同事Frederic Lardinois最近接受采访关于AWS的持续努力;值得一读。

但无论该公司在其内部路线图上的执行情况如何良好,AWS通往生成式AI成功的道路都不会容易。

投资者越来越怀疑大型科技公司对生成式人工智能的投资是否能够取得回报。在亚马逊第二季度财报电话会议之后,其股价坠落;猛跌自2022年10月以来。

在最近的Gartner报告中投票49%的公司表示,展示价值是他们采用生成式AI的主要障碍。Gartner预测事实上,到2026年,三分之一的生成式AI项目将在概念验证阶段之后被放弃——部分原因是成本高昂。

加曼认为价格是AWS的一个潜在优势,鉴于其开发定制硅片以运行和训练模型的项目。(AWS下一代的定制硅片版本)Trainium芯片将于今年年底推出。) 亚马逊网络服务公司(AWS)表示,其生成式AI业务如地床层(或底层)已经达到了合计“数十亿美元”的运行率。

艰难的部分将是面对内外部逆风时保持动力。像伍德这样的离职并不让人充满信心,但也许——仅仅是也许——AWS 仍有后招。

新闻

图片 credits:友善的人形生物

一个由Yves Béhar设计的机器人:布莱恩撰写了关于Kind Humanoid的文章,这是一家三人组成的机器人初创公司,正在与设计师伊夫·贝哈合作,将人形机器人带入家庭。

亚马逊下一代机器人:亚马逊机器人首席技术专家Tye Brady向TechCrunch介绍了该公司仓库机器人的更新情况,包括亚马逊的新款塞奎奥亚自动存储和检索系统。

彻底的技术乐观主义:Anthropic首席执行官Dario Amodei上周撰写了一篇长达15000字的颂扬人工智能的文章,描绘了一个通过减少AI风险实现前所未有的繁荣和社会进步的世界。

AI能推理吗?德文报道了一篇来自苹果相关研究人员的颇具争议的技术论文,该论文质疑了人工智能模型在遇到稍作改动的数学问题时“推理”能力的不足。

AI武器:玛戈娃报道了硅谷关于是否应允许自主武器决定杀戮的辩论。

生成的视频:Adobe在其Adobe MAX活动前推出其Firefly AI平台的视频生成功能。它还宣布了超级声速项目一个使用AI生成音效的工具。

合成数据与人工智能:他本人曾撰写关于合成数据(即AI生成的数据)的前景与风险,这种数据正被越来越多地用于训练AI系统。

每周研究论文

英国与人工智能安全初创公司Grey Swan AI合作的人工智能安全研究所专注于AI安全的政府研究机构开发了一个新的数据集,用于衡量AI“代理”的危害性。

名为AgentHarm的数据集评估了原本被认为是“安全”的代理——能够自主完成某些任务的AI系统——是否可以被操纵来完成110种独特的“有害”任务,例如在暗网向某人订购假护照。

研究人员发现,许多模型——包括OpenAI的GPT-4o和Mistral的mistral大模型 2——愿意从事有害行为,特别是当使用某种方式“攻击”时越狱技术研究人员表示,越狱导致了更高比例的危害性任务成功 rate,即使模型受到了保护措施的保障。注意:“rate”在此未给出具体内容,保持原文形式。

“简单的通用越狱模板可以被改编为有效越狱代理程序,”他们在一篇技术论文中写道,“这些越狱使得连贯且恶意的多步骤代理行为成为可能,并保留模型功能。”

论文、数据集和结果均可使用这里.

每周模型

有一种新的病毒式传播模型出现了,它是一个视频生成器。

金字塔流SD3据称几周前以MIT许可证出现的它声称它是完全基于开源数据训练的。其创建者——来自北京大学、中国公司快手科技和北京邮电大学的研究人员——作出了这一声明。

Pyramid Flow SD3
图片来源:杨金等人。

金字塔流有两种版本:一个模型可以生成分辨率为384p(每秒24帧)的5秒钟片段,另一个计算需求更高的模型可以生成分辨率为768p(同样为每秒24帧)的10秒钟片段。

金字塔流可以从文本描述(例如“第一人称视角飞越长城”)或静态图像生成视频。研究人员表示,用于微调模型的代码即将推出。但目前,金字塔流可以在任何配备大约12GB显存的机器或云实例上下载和使用。

杂项包

Anthropic本周更新了它的 负责任的扩展政策(RESP),该公司自愿使用的一套框架,用于减轻其人工智能系统可能带来的风险。注意:此处原文中的“RESP”在翻译时应保持为“RSP”,因为这是专有名词。所以更正后的准确翻译是: 负责任的扩展政策(RSP),该公司自愿采用的框架,旨在缓解其AI系统的潜在风险。

值得注意的是,新的RSP规定了两种Anthropic认为在部署前需要“升级的安全措施”的模型:能够基本上在没有人类监督的情况下自我改进的模型和能够协助制造大规模杀伤性武器的模型。

“如果一个模型能够……以一种不可预测的方式潜在地显著[加速]人工智能的发展,我们需要更高的安全标准和额外的安全保障,”Anthropic写道。博客文章“如果一个模型能够实质性地帮助具有基本技术背景的人创建或部署化学、生物、放射性和核武器(CBRN武器),我们要求加强安全和部署保障措施。”

这让作者觉得合理。

在博客中,Anthropic还透露它正在寻找一名负责规模化发展的负责人,以“扩大[其]在实施RSP方面的努力。”

关于《本周人工智能资讯:AWS失去一位顶级AI高管 | TechCrunch》
暂无评论

摘要

嗨,大家好,欢迎来到 TechCrunch 的常规 AI 通讯。如果您希望每周三都能收到这份通讯,请在此注册。木头长期以来一直参与亚马逊部门的 AI 计划;他在 2022 年 9 月被任命为副总裁,就在 ChatGPT 发布前不久。杂项 Anthropic 本周更新了其《负责任扩展政策》(RSP),这是该公司用来减轻其 AI 系统潜在风险的自愿框架。值得注意的是,新的 RSP 列出了两种 Anthropic 认为在部署之前需要“升级的安全措施”的模型:能够在没有人类监督的情况下自我改进的模型和能够协助制造大规模杀伤性武器的模型。