这玩意儿的需求在高速i/o、电源连接器、高速背板

话说今天咱们来聊聊这AI集群的散热那些事儿,其实这事儿吧,本来是芯片发热给闹的,但现在形势变了。本来散热主要盯着CPU和GPU,现在AI算力量大无比,发热量这就没上限了,2025到2030年全球智能体市场规模的年增长率要飙到46.3%,到了2030年,智能算力占比能到90%,这势头谁也挡不住。 这种情况下,芯片功耗直接上天,英伟达从H100到那个叫Vera Rubin的平台,单芯片热设计功耗直接从700W飙到3700W。这么一来,数据中心的机柜功率密度自然跟着涨,主流机柜功率密度得提升到12-15kW每柜,超算中心更是能超过30kW。这风冷散热根本吃不消了,液冷就成了救命稻草。 而且国家对数据中心PUE要求也越来越严,2025年新建的大型、超大型数据中心平均PUE必须降到1.3以下,这也逼着大家不得不换更先进的散热技术。以前的散热核心就是芯片,可现在架构不一样了,那些高速连接器、光模块这些互连系统成了新的热源。 光模块速率升级加上SerDes功耗占比高,再加上高密度集成压缩了散热空间,很容易形成高温热斑,出了问题可不得了。连接器温升其实就是电、热、力这几个物理场在捣乱。热源主要有焦耳热、接触电阻热还有邻居传过来的热。 现在的技术路线在变,被动散热这种靠结构优化和材料升级的老路子已经不行了,大家都开始搞主动管理。以前的接触式冷板现在也看不上了,什么散热桥、浮动静置式冷板这些新花样都冒出来了。 这玩意儿的需求在高速I/O、电源连接器、高速背板这几个核心场景里差异特别大。企业为了应对高传输速率和大电流也推出了相应的产品和方案。那些头部企业在液冷技术和高速连接器研发上早就有了一套成熟的体系和优势,正好能撑着AI集群互连散热的技术落地。