你家的顶级显卡,可能正在“偷懒”。 而原因让人意想不到:不是它算不动,而是它没“聊”够。
最新的研究显示,在训练那些动辄需要成千上万张显卡的超大AI模型时,平均有高达75%的显卡计算时间处于闲置状态。 这些昂贵的GPU不是在计算,而是在等待等待通过网络从其他显卡那里获取数据,以便进行下一轮计算。
问题的根源出在“聊天”方式上。当前数据中心依靠电信号在芯片和机柜间传输数据,电互连在带宽、功耗和延迟上已经力不从心。 AI的胃口越来越大,网络却喂不饱它了。
在近日举行的Hotchips 2025大会上,英伟达、Ayar Labs等巨头给出了一份共同的答案:用光代替电。 共封装光学(CPO)技术从实验室走向前台,旨在彻底打破AI的互连瓶颈。
英伟达详细介绍了其Spectrum-X以太网光子学平台。他们揭示了一个严峻的背景:一个AI工厂的网络光功率消耗竟然是传统云数据中心的17倍。 仅网络光模块的成本,就占到了整个AI工厂计算总成本的10%左右。
Spectrum-X的核心是将硅光子芯片和交换机芯片通过先进封装紧密集成在一起,也就是所谓的CPO。这种做法带来了多重好处。 它首次实现了200G每秒的传输通道,提供了极高的信号完整性。
最直观的改进是激光器数量大幅减少。 一条1.6Tbps的传输链路,所需激光器从8个降到了2个。 这不仅降低了功耗,还将激光器的可靠性提高了13倍。
英伟达发布了其首款集成CPO的光交换器Spectrum-6 102T。 该平台专注于为AI工作负载提供低抖动通信,确保成千上万个GPU之间能够高效同步,减少昂贵的空闲等待时间。
他们的方案还考虑了多租户环境,确保不同任务同时运行时不会相互干扰。 对于需要跨数据中心协作的训练任务,英伟达推出了Spectrum-XGS,结合距离感知算法,即使跨越500米以上的距离,也能实现性能提升。
新兴公司Celestial AI选择了不同的技术路径。 他们展示了一种称为光子Fabric模组的技术,旨在将光I/O引擎直接集成到大型多芯片封装的内部。
Celestial AI使用电吸收调制器来调节光信号,他们认为这比常见的微环调制器具有更好的热稳定性。 这种设计允许将光I/O通道放置在芯片中心区域,从而释放芯片周边区域用于其他连接。
该公司已经完成了四次流片,展示了其技术在16端口交换机中的实际应用。 他们的目标是通过光互连实现芯片封装之间的直接高速通信。
Ayar Labs采取了基于开放标准的策略。 他们展示了一款符合UCIe标准的光学I/O重定时器芯片组,能够提供高达8Tbps的封装外带宽。
这种基于UCIe标准的设计使得光学I/O能够以Chiplet的形式更容易地集成到各种处理器封装中。 该公司目前已经进入DVT阶段,正在向量产迈进。
他们进行了严格测试,包括热循环测试和长期链路稳定性测试,以验证芯片在加热冷却过程中以及长期运行下的可靠性。 测试环境模拟了实际设备中高达500瓦的热设计功耗。
Lightmatter则展示了他们的Passage M1000光学中介层平台。 该平台允许将计算芯粒和内存芯粒封装在光学中介层上,通过光信号进行通信。
Passage M1000提供了惊人的114Tbps总带宽。 该设计使用硅微环来调制光信号,实现了高度紧凑的光学I/O。 公司还开发了自己的16波长激光器作为光源。
该平台具有一定的可重构性,具备光路交换功能以提供冗余。 Lightmatter计划在今年的SC25大会上公开演示这一技术,表明其已接近生产就绪状态。
光互连生态链也在加速成熟。 从新思科技分拆出来的OpenLight Photonics公司刚刚完成了3400万美元的A轮融资。 他们专注于设计和制造光子专用集成电路,提供设计服务和工艺设计套件。
OpenLight与Tower Semiconductor合作,为客户生产定制的光子芯片。 他们的首批客户预计在2025年底开始生产,2026年将为公司带来首笔专利费收入。
在国内,曦智科技与燧原科技合作推出了首款xPU-CPO光电共封芯片,表明中国公司也在这一前沿领域积极布局。
这些技术方案都指向同一个方向:通过光互连技术提供更高的带宽、更低的功耗和更低的延迟,最终释放那些被网络限制束缚的算力。 AI计算的未来之战,正在从计算单元本身转向连接这些单元的桥梁。
全胜达配资,股票配资网址之家,点金盒配资提示:文章来自网络,不代表本站观点。