Cloudflare发布第12代服务器,配备了AMD的96核心EPYC 9684X Genoa-X处理器——承诺每秒请求量最多提高145%,效率提升63%,并增强了AI能力。

2024-10-13 12:28:00 英文原文

作者:Wayne WilliamsSocial Links NavigationEditor

The AMD EPYC Genoa-X 9684X CPU
(图片版权:AMD)

Cloudflare已宣布部署其第12代服务器,由AMDEPYC 9684X Genoa-X处理器,在其基础设施上提供了更高的性能和效率。

新的处理器拥有96个核心,192个线程,以及巨大的1152MB三级缓存——是AMD标准Genoa处理器的三倍。

这个显著的缓存增强有助于减少延迟并提高数据密集型应用的性能,Cloudflare 表示 Genoa-X 相较于其他 AMD EPYC 模型提升了 22.5%。

更新的AI开发产品

根据云服务提供商的说法,新的Gen 12服务器每秒可以处理多达145%更多的请求数(RPS),并且与之前的Gen 11型号相比,功耗效率提高了63%。更新的热力学设计和扩展的GPU支持为AI和机器学习工作负载提供了增强的能力。

新的服务器配备了12通道的384GB DDR5-4800内存和16TB NVMe存储,并且具有双25 GbE网络连接。这种配置使Cloudflare能够支持更高的内存吞吐量和更快的存储访问,从而优化了从一系列计算密集型任务中的性能。此外,每台服务器由两个800W钛级电源单元供电,在其全球数据中心中提供了更高的能源效率。

Cloudflare 强调这些改进不仅在于原始性能的提升,还在于提供更高效的性能。该公司表示,从 1U 到 2U 的外形尺寸变化,以及改善的气流设计,减少了风扇功耗 150W,有助于提高服务器的整体效率。第 12 代服务器在典型运行条件下的功耗为 600W,相比第 11 代的 400W 有所增加,但鉴于显著的性能改进,这一增长是合理的。

新一代还包括了增强的安全特性,集成了硬件信任根(HRoT)和数据中心安全控制模块(DC-SCM 2.0)。这种设置确保了启动固件的完整性以及模块化安全,保护系统免受固件攻击并减少漏洞。

注册TechRadar Pro新闻通讯,获取您的业务成功所需的所有顶级新闻、意见、功能和指导!

第12代服务器在设计时考虑了GPU的可扩展性,支持最多两张PCIe附加卡用于AI推理和其他专业工作负载。这种设计使Cloudflare能够战略性地部署GPU,以减少对AI处理需求较高的地区的延迟。展望未来,Cloudflare表示已经开始对其未来的第13代服务器进行第五代AMD EPYC "Turin"处理器的测试。

此外,Cloudflare 对其 AI 开发产品进行了重大升级。Workers AI 现在在其覆盖的 180 多个城市网络中使用更强大的 GPU,能够处理更大的模型如 Meta 的 Llama 3.1 70B 和 Llama 3.2,并解决更复杂的 AI 任务。AI Gateway 是一个用于监控和优化 AI 部署的工具,已升级为带有持久日志(目前处于测试阶段),这些日志通过搜索、标记和注释功能支持详细性能分析。最后,Cloudflare 的向量数据库 Vectorize 已经达到了通用可用性水平,支持多达五百万个向量的索引,并显著降低了延迟。此外,Cloudflare 将其三个产品的定价结构简化为基于单位的模式,使成本管理更加清晰。

更多来自TechRadar Pro的内容

Wayne Williams 是一名为 TechRadar Pro 撰写新闻的自由职业者。他已经有三十年的时间在撰写关于计算机、科技和互联网的文章了。在这段时间里,他在英国大多数的个人电脑杂志上撰稿,并且还创办、编辑并出版了几本这样的杂志。

关于《Cloudflare发布第12代服务器,配备了AMD的96核心EPYC 9684X Genoa-X处理器——承诺每秒请求量最多提高145%,效率提升63%,并增强了AI能力。》
暂无评论

摘要

(图片版权:AMD) Cloudflare 宣布部署了其第十二代服务器,这些服务器由 AMD EPYC 9684X Genoa-X 处理器提供支持,可在其整个基础设施中实现性能和效率的提升。这一显著的缓存增强有助于减少延迟并改善数据密集型应用中的性能,Cloudflare 称 Genoa-X 相比其他 AMD EPYC 型号提高了 22.5% 的性能。更新的 AI 开发者产品 据云服务提供商称,新的第十二代服务器每秒可以处理多达 145% 的请求(RPS),并且与之前的第十一代型号相比,功率效率提高了 63%。订阅 TechRadar Pro 通讯以获取您的企业所需的所有顶级新闻、观点、功能和指导! 第十二代服务器专为 GPU 扩展而设计,支持最多两张 PCIe 插件卡用于 AI 推理和其他专业化工作负载。他已撰写关于计算机、技术以及互联网的文章长达三十年。