Cloudflare已宣布部署其第12代服务器,由AMDEPYC 9684X Genoa-X处理器,在其基础设施上提供了更高的性能和效率。
新的处理器拥有96个核心,192个线程,以及巨大的1152MB三级缓存——是AMD标准Genoa处理器的三倍。
这个显著的缓存增强有助于减少延迟并提高数据密集型应用的性能,Cloudflare 表示 Genoa-X 相较于其他 AMD EPYC 模型提升了 22.5%。
更新的AI开发产品
根据云服务提供商的说法,新的Gen 12服务器每秒可以处理多达145%更多的请求数(RPS),并且与之前的Gen 11型号相比,功耗效率提高了63%。更新的热力学设计和扩展的GPU支持为AI和机器学习工作负载提供了增强的能力。
新的服务器配备了12通道的384GB DDR5-4800内存和16TB NVMe存储,并且具有双25 GbE网络连接。这种配置使Cloudflare能够支持更高的内存吞吐量和更快的存储访问,从而优化了从一系列计算密集型任务中的性能。此外,每台服务器由两个800W钛级电源单元供电,在其全球数据中心中提供了更高的能源效率。
Cloudflare 强调这些改进不仅在于原始性能的提升,还在于提供更高效的性能。该公司表示,从 1U 到 2U 的外形尺寸变化,以及改善的气流设计,减少了风扇功耗 150W,有助于提高服务器的整体效率。第 12 代服务器在典型运行条件下的功耗为 600W,相比第 11 代的 400W 有所增加,但鉴于显著的性能改进,这一增长是合理的。
新一代还包括了增强的安全特性,集成了硬件信任根(HRoT)和数据中心安全控制模块(DC-SCM 2.0)。这种设置确保了启动固件的完整性以及模块化安全,保护系统免受固件攻击并减少漏洞。
第12代服务器在设计时考虑了GPU的可扩展性,支持最多两张PCIe附加卡用于AI推理和其他专业工作负载。这种设计使Cloudflare能够战略性地部署GPU,以减少对AI处理需求较高的地区的延迟。展望未来,Cloudflare表示已经开始对其未来的第13代服务器进行第五代AMD EPYC "Turin"处理器的测试。
此外,Cloudflare 对其 AI 开发产品进行了重大升级。Workers AI 现在在其覆盖的 180 多个城市网络中使用更强大的 GPU,能够处理更大的模型如 Meta 的 Llama 3.1 70B 和 Llama 3.2,并解决更复杂的 AI 任务。AI Gateway 是一个用于监控和优化 AI 部署的工具,已升级为带有持久日志(目前处于测试阶段),这些日志通过搜索、标记和注释功能支持详细性能分析。最后,Cloudflare 的向量数据库 Vectorize 已经达到了通用可用性水平,支持多达五百万个向量的索引,并显著降低了延迟。此外,Cloudflare 将其三个产品的定价结构简化为基于单位的模式,使成本管理更加清晰。