加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多
英伟达它正在与 Google Quantum AI 合作,利用 Nvidia 支持的模拟加速其下一代量子计算设备的设计。
谷歌量子人工智能正在使用混合量子经典计算平台和 Nvidia Eos 超级计算机来模拟其量子处理器的物理原理。这将有助于克服量子计算硬件当前的限制,即由于研究人员所说的“噪声”,量子计算硬件在计算必须停止之前只能运行一定数量的量子操作。
– 只有我们能够扩展规模,才有可能开发出具有商业用途的量子计算机
量子硬件,同时控制噪音,”来自研究科学家 Guifre Vidal 说道。
谷歌量子人工智能在一份声明中。– 使用 Nvidia 加速计算,我们正在探索噪声
越来越大的量子芯片设计的影响。”
了解量子硬件设计中的噪声需要复杂的动态模拟,能够完全捕获量子处理器中的量子位如何与其环境交互。
传统上,这些模拟的计算成本高昂。然而,使用 CUDA-Q 平台,谷歌可以在 Nvidia Eos 超级计算机上使用 1,024 个 Nvidia H100 Tensor Core GPU,以极低的成本执行世界上最大、最快的量子设备动态模拟之一。
“人工智能超级计算能力将有助于量子计算的成功,”Nvidia 量子和 HPC 总监 Tim Costa 在一份声明中表示。–Google 对 CUDA-Q 平台的使用证明了 GPU 加速模拟在推进量子计算以帮助解决现实世界问题方面发挥着核心作用。
借助 CUDA-Q 和 H100 GPU,Google 可以对包含 40 个量子位的设备进行全面、真实的模拟,这是此类模拟中规模最大的。CUDA-Q 提供的模拟技术意味着原本需要一周时间的噪声模拟现在只需几分钟即可运行。
支持这些加速动态模拟的软件将在 CUDA-Q 平台中公开提供,使量子硬件工程师能够快速扩展其系统设计。