AI分析表明,英伟达这次发布的新Rubin GPU,给原本定的HBM4带宽把目标降低了不少。这个VR200系统初期的带宽只能跑到约20TB/s。这消息由IT之家透露,SemiAnalysis也证实了这一点。英伟达本来想把这个平台推到22TB/s,但因为海力士和三星两家的产能问题,达不到原来设定的每针11Gbps速度。 SK海力士在这个项目上抢下了70%的供货量,三星则拿了剩下的30%。美光因为HBM4样品的引脚速率跟不上要求,就被淘汰出局了。不过美光还在这个平台里掺和,它要给英伟达的Vera CPU供应LPDDR5X内存。为了弥补自己的失误,美光打算在CPU这块给用户支持1.5TB的大容量内存方案。 英伟达这次决定在GTC 2026大会上正式秀出这台设备。虽然目标没达到最初的设定,但这还是英伟达想要巩固AI加速器老大位置的关键产品。 大家可以回顾一下这个平台的带宽变化:2025年3月时设定的是13TB/s,9月提到了20.5TB/s,后来在CES 2026又调回了22TB/s。其实英伟达一直拿这个数字去跟AMD的Instinct MI455X对比。因为MI455X的带宽是19.6TB/s,现在英伟达实际要下调到20TB/s左右。 关于供应商方面,TrendForce之前也分析过英伟达在2025年第三季度把HBM4的传输速度要求提到了11Gbps以上。这就逼着供应商们改设计并重新送样验证。虽说美光宣称已经达标了11Gbps,但业内人士觉得它实际还是有点难办。 虽然带宽打了折扣,Rubin平台依然被视为英伟达稳固其在AI加速器市场霸主地位的关键一代产品。