IBM表示主机和人工智能是必不可少的合作伙伴 – Blocks and Files

2024-10-10 07:11:00 英文原文

作者:Chris Mellor

IBM希望科技行业使用其大型机进行AI工作负载。

一份由IBM制作的28页题为“大型机作为数字转型的基石”的报告商业价值研究所,发现79%的IT高管认为大型机对于推动AI驱动的创新是必不可少的。”报告指出,在经历了六十年的发展后,大型机仍然是核心设备,存储和处理大量的业务关键数据。随着组织开始进行由AI驱动的数字化转型之旅,大型机将在延长数据价值方面发挥关键作用。

IBM担心的是,大型机用户不应假设现代生成式人工智能工作负载仅适用于公共云和/或组织数据中心的x86和GPU服务器。大型机也有其作用。

我们在发布前看到的报告从混合大型机-公共云-边缘方法开始,将工作负载放在最合适的平台上。可以使用AI来加速大型机应用现代化、增强事务处理工作负载并改进大型机操作。报告称:“结合内部大型机与超大规模云服务商可以创建一个集成的操作模式,使敏捷实践和应用程序之间的互操作性成为可能。”

它建议大型机用户“利用人工智能获取交易洞察,以增强业务用例,包括欺诈检测、反洗钱、信贷决策、产品推荐、动态定价和情感分析。”

大型主机性能可以通过人工智能驱动的、基于规则的信用评分系统得到提升。一家北美银行目前只对其20%的信用卡交易进行评分,每笔交易耗时80毫秒。通过将应用程序迁移到其大型主机上,公共云处理能够对100%的交易进行评分,在每笔交易仅需2毫秒的情况下达到每秒15,000笔交易,并且每年在欺诈预防方面的支出预计可节省约2000万美元。

带有嵌入式芯片AI加速器的大型机“可以扩展以每秒处理数百万个推理请求,并且延迟极低,这对于交易型AI用例(例如检测支付欺诈)尤为重要。”IBM表示,“传统的AI可能被用于评估银行付款是否为欺诈行为,”大型语言模型("大型语言模型"可能被应用以提高预测的准确性。)

这是IBM的Ensemble AI方法;结合现有的机器学习模型与更新的大型语言模型。

AI可以用于提升大型机的管理。报告发现,“74%的高管认为将AI集成到大型机操作中并转型系统管理和维护非常重要。由AI驱动的自动化、预测性分析、自我修复和自我调优功能,能够主动检测和防止问题,优化工作流程,并提高系统的可靠性。”

大型主机可以使用人工智能进行监控、分析、检测和响应网络威胁。此外,通用的人工智能语言模型和代码助手也可以用于加速旧的编程语言(如COBOL)向Java转换以及JCL开发工作,从而“通过使开发者能够更快更高效地现代化或构建应用程序来弥补大型主机技能缺口”。

IBM 将在其计划于 2025 年推出的下一代 z16 大型机中采用专门针对 AI 的 DPU(数据处理单元)来处理 AI 处理任务。该大型机将配备多达 32 个 Telum II 处理器,每个处理器具有在芯片上的 AI 推断加速功能,速度为每秒 24 万亿次操作(TOPS)。一个 Spyre 加速器将增加 32 个 AI 加速内核和 1GB DRAM,其性能与 Telum II 芯片上集成的 AI 加速器相当。在下一代大型机中最多可以使用 8 个 Spyre 加速器,除了 Telum II 单元之外。

尽管蓝色巨人大型企业架构中没有提到添加GPU,但是推理工作负载可以在大型机上有效运行,而AI训练工作负载则不行。我们可以预期IBM会安排大型机构向量化和向量数据库功能以支持增强检索生成(RAG(检索增强生成)在推理工作负载中。

对于这位评论者来说,在大型机上添加GPU将是一种圣杯,因为它可以开启在这一经典大型平台上运行AI训练工作负载的大门。也许这种理念,即GPU协同处理器,将成为z17大型机代的产物。

获取报告这里查看公告博客这里.

关于《IBM表示主机和人工智能是必不可少的合作伙伴 – Blocks and Files》
暂无评论

摘要

蓝色巨人大型企业希望科技行业使用其大型机进行AI工作负载。AI可以用于加速大型机应用程序现代化,增强事务处理负载并改进大型机操作。同样,生成式AI大模型和代码助手可用于加快旧版编程语言的工作,例如将Cobol转换为Java以及JCL开发,从而“通过使开发者能够更快、更高效地进行现代化或构建应用来弥补大型机技能缺口。”该系统将配备多达32个Telum II处理器,每个芯片上都集成了AI推理加速功能,速度高达24 TOPS。对于这位评论员来说,在大型机中添加GPU将是一种圣杯式的存在,因为它可以开启在这一经典大型平台上运行AI训练工作负载的大门。