作者:Laura Hautala
LightMatter的光学插入器将数据引导到附着在其上的chiplet和其他插入器上。
纤维-光电缆是在高性能计算机中更接近处理器,用玻璃代替铜连接。技术公司希望通过将光学连接从服务器外部移动到主板,然后将它们与处理器旁边搭档来加快AI并降低其能源成本。现在,科技公司有望通过在其下面的连接下滑,从而进一步寻求增加处理器的潜力。
那就是采取的方法LightMatter,声称与interposer配置为建立光速连接,不仅是从处理器到处理器,而且在处理器的一部分之间。该技术的支持者声称,它有可能大大降低复杂计算中使用的功率量,这对于当今的AI技术来说,这是进步的基本要求。
LightMatter的创新吸引了投资者的注意,他们已经看到了足够的潜力,可以为该公司筹集8.5亿美元,并将其推向竞争对手,以达到44亿美元的多人估值。现在,LightMatter有望获得其技术,称为通道,运行。该公司计划在2025年底之前安装并在铅燃烧系统中安装并运行该技术的生产版本。
通道是一种光学互连系统,可能是提高摩尔定律限制的高性能处理器计算速度的关键步骤。该技术预示了未来人工智能首席执行官尼克·哈里斯(Nick Harris)表示。
他说,从现在开始的计算进展将来自将多个芯片联系在一起。”
从根本上讲,通道是一个插头,玻璃或硅片,较小的硅死亡,通常称为chiplets在同一软件包中附加并互连。许多顶级服务器CPU和GPU这些天由插入器上的多个硅死亡组成。该计划使设计人员可以连接使用不同制造技术制造的模具,并将处理和内存的数量增加超出单个芯片的可能性。
如今,将插入器上的芯片连接起来的互连是严格的电气。与主板上的链接相比,它们是高速和低能的链接。但是它们可以与光子通过玻璃纤维的无阻抗流相比。
从硅的300毫米晶片中切出通道,该硅在表面下方的二氧化硅薄层。多台外部激光芯片提供光通道的用途。插入器包含可以从芯片标准I/O系统(称为序列化器/求职者)或SERDE的技术接收电信号的技术。因此,通道与开箱即用的硅处理器芯片兼容,并且不需要对芯片进行根本的设计更改。
计算芯片堆放在光学插孔的顶部。LightMatter
从Serdes,信号传播到一组称为的收发器微孔谐振器,在不同波长的激光光上编码位。接下来,多路复用器将光波长组合到光学电路上,该数据通过干涉仪和更多的环谐振器将数据路由。
来自光电路,可以通过芯片包装相对侧的八个光纤阵列之一将数据发送。否则数据可以将其路由备份到同一处理器中的另一个芯片中。在任何一个目的地,该过程均以反向运行,在该过程中,使用光电探测器和变速器放大器,将光线反复传递并翻译回电能。
通过可以使数据中心在六分和二十活力,哈里斯声称。
与典型的电气排列相比,处理器中任何芯片之间的直接连接可以消除潜伏期并节省能量,这通常仅限于死模周围周围的延迟。
这就是通过竞赛中其他参赛者与光线连接光的参赛者的分歧。LightMatter的竞争对手,例如Ayar Labs和Avicena,生产旨在坐在处理器主骰子旁边的有限空间中的光学I/O芯片。哈里斯称这种方法为2.5代的光学互连,这是主板上处理器包装外部的互连位置的一步。
光子互连的优点来自消除电力固有的局限性,这消耗了更多的能量,它必须移动数据。
光子互连初创企业的构建是基于以下前提:这些限制必须降低,以便将来的系统满足即将到来的人工智能计算需求。哈里斯说,数据中心的许多处理器都需要同时处理任务。但是,在几米的电力上,他们之间的数据在物理上是不可能的,他补充说,而且令人难以置信的昂贵。
哈里斯继续说,功率要求越来越高,无法建立数据中心。”他声称,通道可以使数据中心能够在六分之二和二十二个能量之间使用尽可能多的能量,并且随着数据中心的规模的增长而提高效率。但是,节省的能源光子互连他说,将可能会使用整体功率较少的功率引导数据中心。他们更有可能仅在要求更高的任务上消耗相同数量的功率,而不是缩减能源的使用。
LightMatter的存储库在10月增长了4亿美元的D系列D筹款回合。对优化处理器网络的投资是不可避免的趋势的一部分。詹姆斯·桑德斯,一位分析师Techinsights。
在2023年,将10%的服务器加速加速,这意味着它们包含与GPU或其他AI-ACLEREDIC ICS配对的CPU。这些加速器与段落设计的加速器相同。到2029年,Techinsights项目将加速运输的服务器的三分之一。倒入光子互连的钱是赌注是从AI中获利所需的加速。