2025年OCP峰会的核心主题明确指向“规模化扩展”。
为满足吉瓦级AI数据中心的需求,行业在电源架构(800 VDC)、冷却系统、机柜设计(双宽ORW)和网络(光模块CPO)** 等关键领域进行了重大创新。这些技术的发展和完善,将直接决定未来AI算力基础设施的部署效率和成本,并为相关的ODM、电源、冷却和连接器。
1/ 这次OCP大会的核心增量是什么?
● 核心=“Scale Up”(规模化)。
一句话总结就是:AI算力需求远未满足→→整个产业链都在为“更大、更快、更省电”→AI工厂做准备。
这次大会的四大发布方向都指向这个目标:
AMDHello机机柜的发布→向“更大”迈进;
Meta的800V DC电源架构→向“更省电”迈进;
GB300/VR200的最新进展→向“更快”迈进;
AI互联网联接的最新进展→向“更快”迈进。
2/ AMD Helios机柜的发布意味着什么?
● 这本报告就代表一个新的开放机柜标准 ORW
(Open Rack Wide)登场→宽度是现有ORV3的
两倍(21")。
为什么要做大?
→现有铜背板技术限制了单机柜内的计算密度和低延迟通讯→做机机柜=在铜连接的限制下,硬塞入更多GPU,形成更大的“scale-up”域。
● 时间点:预计2H26开始出货。
3/ 为什么800V DC电源架构这么重要?
● 核心是解决AI数据中心这个“电老虎”的能耗问题。
◆ 核心原理:电压翻倍→相同电流下降低半流→线路损耗大幅降低。
◆ 实际效果:相同的铜缆可传输功率提升>150%
● 时间点:预计是Rubin Ultra 在2H27次亮相。
4/ GB300和下一代VR200的最新进展如何? ● GB300:已经开始量产,良率不再是问题。 并且是“混合散热”(85%液冷+15%风冷), 并非全液冷。 ● VR200(下一代):正式进行机柜测试,将是 全新的液冷方案,液冷快拆接头(QD)数量从GB300的6组增加到14组。 ● 时间点:VR200的midplane PCB(中间板) 目前可能是个限制,但距离交付(预计3Q26末)还有时间。VR200预计在2H26开始出样(3200板)。
5/ AI互联网联接有什么新变化?
● 协议层:Nvidia(Metapod等扩展链接)联想崛起以 及AMD、Esnied等大厂都在积极联网,联盟形式以后会标准化。
● 芯片层:CPU vs AI的竞争格局没变,但网络成本占比正在快速提升→Meta公开数据显示: CPU产生的功耗是可插拔光模块的年化运营费率0.34% vs 5.58%→诱惑巨大。
● 网络层:有消息称Google正在加速光模块在数据中心的部署速度,并且在评估1.6T光模块的潜力→在AI浪潮的大趋势下,光模块是“卖铲子”的持续受益者!
● 时间点:Broadcom的大规模出货是催化剂。
6/ 散热技术的未来趋势是什么?
在2024年Q4报告中提到的浸没式液冷,真的是 未来主流。报告认为2026年会成为爆发的时点。
这里补充几个最新信息: →冷板式(风冷+液冷混合)仍然会是主流,尤其在未来3 - 4年(冷板仍是市场主流)。
→浸没式液冷(奇点)→3 - 4年(冷板仍是市场主流,未来看好)。
#日课