十多年来,首席信息官一直在将工作负载从遗留平台转移到云端,但人工智能的热潮可能会为企业的老朋友:大型机注入新的生命。
至少 IBM 这么认为。蓝色巨人并没有放弃人工智能时代的大铁,而是倾向于它,计划在 2025 年发布其下一代 Z 大型机,配备 Telum II 处理器和 Spyre AI 加速卡,定位于运行大型语言模型(LLM)和用于欺诈检测和其他用例的机器学习模型。
IBM 当前的 z16 大型机具有用于机器学习模型的基线 AI 注入。在下一次迭代中,IBM 将把 AI 集成到核心大型机堆栈层,并在处理器级别进行 AI 加速。分析师和 IT 领导者表示,对 AI 大铁的押注很有趣。
>
随着企业进入这个新的人工智能原生时代,他们发现数据资产是他们的战略亮点。这不是他们使用的技术。这不是他们使用的云提供商。Gartner 分析师 Chiraq Degate 表示,它们创建、维护和管理的数据将成为未来的战略模型和潜在的新商业模式来源。
大型机在这方面发挥着非常具体的作用。现代生态系统,他继续说道。金融服务、制造、医疗保健和零售领域的许多企业核心数据资产相当广泛地依赖于大型机。IBM 使企业能够在人工智能之旅中以一等公民的身份利用大型机管理的皇冠上的宝石。
一些首席信息官,特别是来自仍然依赖大型机批处理能力的大型企业的首席信息官,正在认真研究 IBM 的下一代大型机,以运行但不训练生成式 AI 模型。
IBM 继续证明其拥有先进的 AI 方法,其中包括将 AI 嵌入到 z16 中。FNTS(一家全资子公司)的咨询总监 James Brouhard 表示,我们相信 AI 加速卡的发布是 IBM 大型机路线图的自然延伸,并且很可能是使 Watsonx 和大型机成为真正的 AI 平台的下一步。内布拉斯加州第一国民公司 (FNNI) 的子公司,该公司是奥马哈第一国民银行的母公司。
几十年来,各行业一直依赖大型机来满足先进的处理需求,Brouhard 说。在某些方面,行业专家现在意识到对 IBM 大型机和 Power Systems 处理能力的更广泛需求,而人工智能有助于保持相关性。
市场根据 Gartner 的研究,大型机和中型服务器系统的销售额十年来一直在下降,从 2015 年的超过 107 亿美元下降到 2023 年的不足 65 亿美元,并且每当 IBM 推出新一代大型机时,都会出现周期性的峰值。即便如此,分析师表示,70% 以上的信用卡交易都是通过大型机处理的。在可预见的未来,许多最大的银行、金融公司和保险巨头的首席信息官可能会继续依赖大铁,特别是如果大型机上的额外人工智能功能降低了他们在云上重新构建平台的意愿。
<很少有平台可以提供硬件辅助人工智能。IDC 分析师 Ashish Nadkarni 表示,每个人都认为 GPU 是运行人工智能的唯一方式,但事实并非如此。IBM 成功地维持了大型机的安装基础,事实上,在某些情况下,通过提供安全性或客户所需的其他功能等独特功能来增加收入。实现人工智能的方法不只有一种。数据安全是在 Z 大型机上运行机器学习模型和大语言模型的一大优势。企业无需将数据分发到不同的系统进行人工智能分析,就不太可能在数据治理和安全性方面做出妥协。
硬件方面(尤其是 GPU)的巨大节省是另一个原因。
IBM 咨询公司 Ensono 的产品 LOB 高级副总裁 Lisa Dyer 声称,IBM Z 大型机客户对 IBM 集成 AI 机器学习模型与实时事务中运行的 LLM 混合在一起非常感兴趣。
在这些用例中,我绝对可以看到 LLM 正在使用大型机上的数据运行。戴尔表示,这是一种自然的契合,了解这些集成人工智能模型如何工作以及从实验到生产的用例将会很有趣。这是一个非常有趣的组合,您可以在运营数据和客户数据及其来源的平台上完成所有这些操作。
在 8 月下旬的 Hot Chips 展会上,IBM 推出了 Telum II 芯片、I/O 加速单元和 Spyre Accelerator 的预览版。IBM 宣布,与第一代 Telum 芯片相比,Telum II 提供更高的频率、内存容量、高速缓存增长 40%、集成的 AI 加速器核心以及连贯附加的数据处理单元 (DPU)。新处理器预计将支持大语言模型的企业计算解决方案。新的 DPU 旨在加速大型机上网络和存储的复杂 I/O 协议。
IBM Spyre 是一种附加 AI 计算功能,旨在补充 Telum II 处理器。IBM 声称,这两款处理器提供了可扩展的架构,支持人工智能建模的集成方法,将多个机器学习或深度学习人工智能模型与编码器 LLM 相结合的实践。
首席信息官们看到了潜在的价值,具体取决于其表现如何Telum II 和 Spyre 处理和执行 LLM。
如果组织交易量大,处于高度监管的行业,需要为敏感的 AI 工作负载提供超安全的环境,或者在严格的数据主权限制下运行,那么 IBM罗克韦尔自动化高级副总裁兼 CDIO Chris Nardecchia 表示,zNext 值得考虑作为混合架构策略的一部分。
如果我有现有的大型机环境,我会考虑在 zNext 上使用 AI 运行推理模型Nardecchia 表示,针对特定用例的加速卡,尤其是在企业核心运营需要大型机在可靠性和速度方面具有独特优势的情况下。然而,这将取决于人工智能策略、可扩展性要求以及预期人工智能工作负载的多样性。针对不同任务的大型机和云的组合可能是一种更灵活、更具成本效益的解决方案。
包括处理能力、工作负载专业化、数据主权和合规性以及成本和复杂性在内的多个因素应该影响 CIO他说。
虽然由于批处理功能和持续监控的需要,欺诈检测是 zNext 上人工智能的一个强大用例,但我可以看到欺诈检测之外的潜力。大语言模型可以在金融服务的合规性、监管报告、风险管理和客户服务自动化方面带来重要的见解。Nardecchia 表示,在同一平台上同时运行批量数值数据和基于文本的大语言模型可以提供跨操作的全面见解,并补充说,与在本地运行模型相比,在本地运行生成式人工智能工作负载可能会减轻对数据主权、隐私和治理的担忧。云。全球的数据隐私和主权法以及地缘政治事件将成为本地和本地化计算的有力论据。
Tom PeckSysco 的执行副总裁兼 CIDO 尚未接受在公司大型机上运行新一代 AI 工作负载的想法。
我们仍然使用 IBM 大型机来运行一些最关键的任务应用程序,而且它们不会继续运行离开。每投资 1 美元到退役的大型机上,就等于没有投资 1 美元来发展您今天的业务。但他表示,在我们拥有新一代人工智能用例的地方,我们依赖于我们的云合作伙伴(即 Azure、GCP 和/或 AWS)的 GPU。考虑到许多其他替代选择,我们目前没有考虑这一点。
Deluxe 的首席技术和数字官 Yogs Jayaprakasam 表示,finservs 支付和数据解决方案之前将数据从其大型机卸载到公司的数据湖库上。在公共云中推动先进的人工智能和机器学习模型。
尽管如此,他承认 IBM 最新的人工智能开发将使那些无法找到脱离大型机系统的实用方法的大型全球企业受益。
IBM Telum II 处理器和 Spyre AI 加速卡的推出尤其令人感兴趣,因为人们现在可以预期传统 ML 模型和大语言 AI 模型的使用将直接加速到 Z 大型机环境中。他表示,虽然 GPU 一直是人工智能工作负载的首选,但将人工智能加速直接集成到大型机架构中为实现即时价值提供了一种令人信服的替代方案。
与传统企业一起运行人工智能模型的能力他补充道,单一平台上的工作负载可以简化操作并减少延迟,这对于实时应用程序至关重要。
不过,IBM 和其他供应商的大型机不会取代云来进行新一代 AI 实验新一代人工智能模型的开发和开发无法在大铁上进行训练。
因此,Ally Financial 首席信息、数据和数字官 Sathish Muthukrishnan 选择暂时坚持使用云。
Gen AI 是一项新兴且快速发展的技术。他说,从我的角度来看,当今可用的基础设施中有很多东西需要学习、实验和执行。根据我们迄今为止所了解到和看到的情况,我们认为继续通过在云上运行的 Ally.ai 平台连接到大型语言模型对于 Ally 来说是有意义的。
Visa、万事达卡、花旗银行和主要航空公司Futurum 首席技术顾问 Steven Dickens 表示,全球有 5,000 家运行 IBM Z 大型机的客户包括保险公司和保险公司,对于希望在大型机交易中使用人工智能的客户来说,有大约 200 个用例。
思考他说,关于人工智能的运营部署,他们将查看最新和最新数据的庞大数据集,我们将在哪里看到这些用例的发展,而 Spyre 作为加速器确实会带来价值。
IBM 的下一代支持 AI 的 Z 大型机和 AI 加速卡可能不具备生成式 AI 开发的所有功能,特别是在训练模型方面,但能够在 Hugging Face 上使用推理 LLM 或在 IBM 中开发一些首席信息官表示,Watsonx 可能是坚定的 Z 客户的完美解药。
我已经看到了大型机离开的余波以及它过渡所需的提升,这也是我能看到这些类型的原因之一Dairyland Power Cooperative 的副总裁兼首席信息官 Nate Melby 表示,许多公司试图抓住这个平台,并尽可能利用人工智能技术,该公司的前雇主运营业务包括一台大型机。