亚马逊网络服务首席执行官马特·加曼 (Matt Garman) 在云计算服务第 13 届年度 re:Invent 大会开幕式上表示:“生成式人工智能有可能颠覆现有的每一个行业。”虽然这对于那些防御破坏的人来说可能令人担忧,但对于 AWS 来说,这是一个有吸引力的灾难,不仅对它自己的基于 Arm 的服务器来说,而且对它的 x86 集群和面向人工智能的芯片服务来说也是如此。
它会很乐意向您出售用于破坏的工具。
“2018 年,我们看到了计算的趋势,”Garman 回忆道。“我们在那里观察,我们看到 Arm 核心变得越来越快。它们大多数都用于移动设备,但它们变得越来越强大。我们有这样的想法,也许我们可以将技术曲线与我们了解对于在 AWS 内运行的客户来说最重要的因素,并开发定制的通用处理器。”
如今,几乎所有 AWS 客户都通过 EC2 实例以某种方式广泛使用该处理器(Graviton)。
“Graviton 的性价比比 x86 高出 40%,”Garman 声称。“它使用的能源减少了 60%。”
AWS 首席执行官表示,2019 年,AWS 的业务价值达 350 亿美元,并补充道:“如今,AWS 的 Graviton 容量比我们 2019 年的总容量还要多。”AWS 计算副总裁 Dave Brown 表示,在过去两年中,AWS 超过 50% 的额外 CPU 容量都是基于 Graviton 的。
无独有偶,x86架构的缔造者Intel寻找新任首席执行官。
加曼认为,目前最大的计算问题涉及生成式人工智能。Graviton 的目标是通用计算,但 AWS 有更多专注于人工智能的产品。
Garman 夸口道:“现在,绝大多数生成式 AI 工作负载都在 Nvidia GPU 上运行,而 AWS 是迄今为止世界上运行 GPU 工作负载的最佳场所。”“部分原因是因为 AWS 和 Nvidia 已经合作了 14 年,以确保我们真正擅长操作和运行 GPU 工作负载。”
Garman 宣称,AWS 正在加倍加强这种合作关系,计划明年推出采用 Nvidia 即将推出的 Blackwell 芯片的实例。
Garman 声称这些“P6”实例将为您提供比当前一代 GPU 快 2.5 倍的计算速度。
Garman 更直接地表示,Trainium2(Trn2)是 AWS 的第二款人工智能训练芯片,它已经已全面上市。这亚马逊设计的硅他声称,与当前的 GPU 系统相比,性价比高出 30% 到 40%。
“这些是专门为尖端生成人工智能训练和推理的苛刻工作负载而设计的,”加曼说。
此外还有 EC2 Trn2 UltraServer,它由四个 Trn2 实例组成,使用该公司的 NeuroLink 互连连接在一起,总共 64 个 Trainium2 芯片,运算能力高达 83.2 FP8 petaflops。
Garman 表示,AWS 合作伙伴 Databricks 预计使用 Trainium2 可以将联合客户的总拥有成本 (TCO) 降低高达 30%。
Apple 机器学习和 AI 高级总监 Benoit Dupin 短暂露面,介绍了 Apple Intelligence 以及 Apple 与 AWS 的关系——这对于内向的 iGiant 来说是很不寻常的。
“我们正处于评估 Trainium 2 的早期阶段,我们预计我们的模型数量在预训练中的效率将提高高达 50%,”Dupin 说。“通过 AWS,我们发现紧密合作并利用最新技术有助于我们在云中提高效率。AWS 专业知识、指导和服务对于支持我们的规模和增长发挥了重要作用。”
我们不记得上次苹果高管出现在公开活动上并滔滔不绝地谈论一家技术供应商是什么时候了——尤其是以强调 iBiz 通常试图避免的外部技术依赖的方式。
同样在大会上,亚马逊宣布其 S3 云存储服务有了新的风格:S3 表,它承诺将 Apache Iceberg 表的查询性能提高 3 倍,每秒事务处理量增加 10 倍。还有S3元数据预览版,用于管理 S3 中的元数据。
Amazon Aurora 是基于云的 MySQL/PostgreSQL 关系数据库管理系统,正在庆祝其十周年,并推出了一个名为 Aurora DSQL 的新兄弟。
本例中的“D”代表分布式。相关服务设法提供低延迟的分布式数据存储,对于那些熟悉数据库和网络的人来说,这代表了一点技术成就。
“我们所做的是在世界各地的每个 EC2 实例中添加一个硬件参考时钟,”Garman 解释道。“这些硬件参考时钟与卫星连接的原子钟同步。因此,这意味着每个 EC2 实例现在都具有微秒精度的准确时间,与世界上任何地方的任何实例同步。”
Aurora DSQL 提供具有低延迟读写的分布式存储,以及跨多个区域的强一致性。据 Garman 称,在执行 10 条 SQL 语句的情况下,它的速度比 Google Spanner(一种类似的分布式数据库管理服务)快 4 倍。
Amazon DynamoDB (NoSQL) 表现在还支持多区域强一致性,作为预览功能。
AWS 的托管 AI 模型服务 Amazon Bedrock 也受到了一些关注。亚马逊基岩模型蒸馏是一项处于预览阶段的新服务,旨在减少人工智能模型的大小和成本。
“模型蒸馏的作用就是采用这个大型前沿模型,”加曼解释道。“在这个例子中,它是一个 Llama 405B 模型。你采用这个功能强大的模型,并向它发送所有提示和你可能想问它的所有问题。然后你获取所有数据和得出的答案结合这些问题,你可以用它来训练一个较小的模型,在本例中是 Llama 8B 模型,使其成为某一特定事物的专家。”
结果是一个更小、更快、更实惠的模型——据亚马逊称,比原始模型快了 500%,便宜了 75%,在检索增强等用例上,准确性损失不到 2%一代(RAG)。
Bedrock 还获得了另一个预览功能:多智能体协作。它允许客户为特定任务设计代理,这些任务可以在监督代理下并行或顺序编译。
Garman 描述了与金融服务提供商穆迪 (Moody's) 进行的 Beta 测试工作,以开发能够为其客户生成财务风险报告的概念验证应用程序。
加曼说:“在进行概念验证之前,这是一个需要他们的一名代理或一名员工大约一周才能完成的工作流程。”“他们对这种多代理协作进行了概念验证。他们能够在一小时内完成相同的任务,并且能够在任意数量的公司之间并行无缝扩展。”
也许最令人印象深刻的是,AWS 声称可以解决生成人工智能最有害的问题之一:幻觉。基岩护栏在预览版中获得了一项新功能,称为自动推理检查。
“自动推理检查可以防止模型幻觉导致的事实错误,”加曼解释道。“因此,当您实施其中一项自动推理检查时,Bedrock 实际上可以检查模型所做的事实陈述是否准确。”
这个想法是,这将允许企业为面向客户的应用程序部署人工智能,其中正确响应至关重要。作为一个例子,加曼描述了保险公司如何确保人工智能帮助系统能够正确回答客户关于保险范围是否适用于特定情况的询问。
亚马逊首席执行官、AWS 前老板安迪·贾西 (Andy Jassy) 轮流上台宣布亚马逊新星– 一组基础模型。它们包括 Nova Micro(基于文本)、Nova Lite(多模态)、Nova Pro(多模态)和 Nova Premiere(多模态,2025 年第一季度),以及 Nova Canvas(图像生成)和 Nova Reel(视频生成)。根据 Amazon 的评估,它们“比 Amazon Bedrock 中各自智能类别中性能最佳的模型至少便宜 75%”。
Amazon Nova 语音到语音模型以及任意对任意模态模型计划于 2025 年推出。
亚马逊自行开发了 Nova 模型,没有 Anthropic 的参与,Anthropic 是 AWS 的首选人工智能合作伙伴,也是约 70 亿美元投资的接受者。
这Nova型号卡和人工智能服务卡证明了已经进行的各种负责任的人工智能测试和安全评估,但几乎没有提供与其他模型或当前漏洞的安全比较。
综上所述,AWS戏弄Project Rainier 是一个超级计算集群,据说包含“数十万个”Trainium2 芯片,预计将于 2025 年启动,Anthropic 将使用它来构建模型。
在这一切中,软件开发人员并没有被遗忘。亚马逊的 Q 编码助手被赋予了吸引人的新功能,例如生成单元测试、文档以及执行代码审查。
加曼声称:“我们认为这些代理可以大大减少花在这些非常重要但可能没有区别的任务上的时间,并允许开发人员将更多时间花在这些增值活动上。”
客户会喜欢一个简单的按钮来退出 Windows
人工智能Q Developer变得更加擅长代码迁移– 它可以比以前更快地将仅限 Windows 的 .NET Framework 应用程序转换为现代 .NET Core(可以托管在 Linux 上),可以将在 VMware 下运行的工作负载转换为云原生架构,甚至可以协助大型机应用程序的转换。
“客户会喜欢一个简单的按钮来退出 Windows,”Garman 观察到。“他们厌倦了持续的安全问题、不断的打包或修补以及必须应对的所有可扩展性挑战。而且他们绝对讨厌繁重的许可成本。”
Garman 估计 Windows 难民可以节省高达 40% 的费用。他表示,Signaturit(一家欧洲数字交易公司)与 Q Developer 的早期测试版合作,将 Windows .NET 应用程序迁移到 Linux。他吹嘘道:“他们预计需要六到八个月的项目,实际上只用了几天就完成了。”
有关 Q Developer 中的优点的更多详细信息,请访问开发类。
亚马逊对迄今为止在 re:Invent 上调侃和谈论的所有内容的总结可以在这里找到,适合那些想要深入了解个别公告的人。本周我们将有更多报道,包括与 SageMaker 一起继续。®