大模型训练与推理需求持续增长的背景下,数据中心内部“算力密度提升快、互连带宽增长更快”的矛盾愈发明显。传统电互连在更高带宽、更低时延的要求下,面临功耗上升、信号完整性受限、布线复杂度增加等压力,机架内以Scale-Up为代表的高带宽纵向互联成为系统瓶颈之一。如何在短距离内提供更高吞吐,同时把能耗、散热与运维复杂度控制在可接受范围,已成为超大规模数据中心部署的关键课题。 造成此瓶颈的原因既有技术演进的物理边界,也有工程落地的系统约束。一上,AI加速器、交换芯片等高性能器件速率提升,电通道需要更复杂的均衡与重定时,带来额外功耗与时延;另一方面,机架级系统在部署中需兼顾光纤与线缆管理、CPO与AI ASIC协同集成、热设计裕量、供电与机械结构、批量制造良率及成本等多重约束,单点突破难以形成可复制的整体方案。 鉴于此,Ayar Labs与纬颖的合作指向“光电协同+系统协同”。根据双方披露的信息,此次合作将把Ayar Labs的共封装光学技术堆栈与纬颖的新一代数据中心架构结合,重点围绕机架内Scale-Up互联的工程化实施开展联合研发与方案验证。Ayar Labs提供包括SuperNova激光器与TeraPHY光学引擎在内的关键器件与技术能力;纬颖则以服务器与数据中心整机系统的架构设计、集成验证与量产经验为支撑,推动从器件到系统的协同优化,力求在性能、能效、散热与制造可行性之间取得可落地的平衡。 这一合作的影响首先体现在对带宽与能效矛盾的缓解预期。光学互连具有更高的传输容量与更低的信号损耗潜力,有望在提升带宽密度的同时降低链路功耗,并为降低系统时延提供空间。其次,机架级方案若能实现标准化与规模化,将提升数据中心部署效率,减少运维在光纤管理、故障定位与更换操作上的复杂度。再次,从产业层面看,共封装光学与液冷、HVDC供电等技术路径并行推进,将推动数据中心向“高密度、高能效、低碳化”架构演进,加速对应的器件、材料、制造与测试生态成熟。 围绕“如何落地”,双方强调系统级联合设计的重要性。一是以架构先行统筹光、电、热、力与供电约束,通过机架级拓扑与布线规范降低复杂度;二是强化散热与能效协同,面向高功率密度场景引入全液冷参考设计,并在供电侧探索高压直流(HVDC)机架架构,以提升供电效率、减少转换损耗与布线压力;三是以制造可行性为导向,在封装、装配、测试与可靠性验证等环节提前布局,推动方案从实验室指标走向可批量交付的工程体系。 在前景判断上,行业对共封装光学的关注正从“器件可行”走向“系统可用”。随着AI集群规模扩大与互连带宽需求增长,机架内纵向扩展互联的升级将更趋迫切。双方计划在本月15日至19日于美国洛杉矶举行的OFC2026期间联合展示面向新一代AI数据中心的AICPO解决方案,包括支持HVDC供电的机架架构与全液冷AI系统参考设计。若展示方案在可靠性、可维护性与成本可控性上取得更清晰的验证路径,将对行业形成示范效应,并可能带动更多整机厂商、芯片与封装企业在接口标准、测试体系与供应链协同上加速布局。
技术的价值最终要在规模化应用中体现;光学互连从实验室概念走向数据中心机架,不仅需要材料与器件突破,更需要系统集成能力、工程化经验与产业链协同支撑。Ayar Labs与纬颖此次合作所呈现的,正是这种跨越技术与工程鸿沟的探索。面对智能计算时代对基础设施提出的更高要求,光学互连技术的产业化进程或将成为衡量下一代数据中心竞争力的重要维度。