- 这些芯片可能会用于至少一个主要 CSP 的 AI 硬件
- 这是减少对 Nvidia 依赖的更广泛趋势的一部分
- 超大规模计算例如
谷歌、Meta 和 TikTok 母公司字节跳动越来越多地寻求实现人工智能硬件供应链的多元化,减少对人工智能硬件的依赖。英伟达,长期主导该行业。博通在这一转变中发挥着越来越重要的作用,在最近的财报电话会议上,首席执行官 Hock Tan 告诉投资者,该公司已经
三个超大规模客户他们都计划到 2027 年部署 100 万个 XPU 集群,另外两家超大规模企业也已接洽,他们也在为自己的 AI XPU 进行高级开发。尽管博通没有透露具体名字,但人们普遍认为它正在与谷歌、Meta、字节跳动和
开放人工智能在定制人工智能芯片上。该公司还被认为正在与苹果开发 iPhone 制造商的首款人工智能服务器芯片,代号为“Baltra”,提供人工智能处理所需的先进网络技术。
对于英伟达来说是个坏消息
根据电力公司博通现已与韩国内存巨头 SK 海力士接洽,为其提供 HBM,该公司计划将其用于一家“大型”(但不出所料)科技公司的定制 AI 芯片。
电力公司消息人士称,博通积极寻求 SK 海力士提供其经过验证的 HBM 解决方案,并已获得大量需求内存订单,预计将于 2025 年下半年开始发货。
SK海力士,三星最大的内存竞争对手是 Nvidia 的 HBM 主要供应商,Nvidia 可能不会对这一最新消息感到兴奋。
据报道,为了满足博通不断增长的需求,SK海力士正在调整产能。电力公司表示该公司将在 2025 年将其 1b DRAM 晶圆产量(用作 HBM 的核心芯片)从 140,000-150,000 片增加到 160,000-170,000 片。这可能会推迟 SK Hynix 下一代 1c DRAM 的推出,因为该公司优先考虑其当前的生产需求。