超节点成了行业里的香饽饽,这些大佬都在搞这个

大家好,今天和大家聊聊中科曙光这个事儿。咱们都知道,2025年4月华为推出了个CloudMatrix 384超节点,里面用了384颗昇腾910C芯片,这事儿一下子就让超节点成了行业里的香饽饽。紧跟着浪潮信息、阿里云、百度云还有中科曙光这些大佬都在搞这个。 你看2025年11月中科曙光还发布了个scaleX640,单机柜能连640张卡呢。但话又说回来,现在的市场变了,大家不都在说智能体火得一塌糊涂,Token经济来了嘛?李斌在中关村论坛接受采访的时候就说了,市面上那种动辄上百张卡互连的超节点,其实挺不划算的。 他说那种大机器主要是用来搞AI模型预训练的,太高大上了。买下来部署的成本高得吓人,“早就超过了性能收益的甜点区”,对于咱们平时做推理用的场景,“高配得有点过头”。而且现在的模型参数量越来越大,以前那种用8张卡的小服务器也显得跟不上趟了。 那怎么办?中科曙光就在3月26日搞了个小动作,发布了一款搭载40张GPU的超节点scaleX40。李柳讲了个挺实在的道理:大规模模型训练确实需要万卡级别的超节点,但人工智能要落地各行各业,更需要那种普惠、性价比高的方案。 经过调研发现啊,40张卡的规模正好处于性能和成本平衡的“甜点区”,能满足大部分AI计算场景。这款产品集成了40张GPU,在FP8精度下的总算力超过了28PFLOPS,HBM显存容量超过5TB,访存带宽也有80TB/s。 更有意思的是它的成本。李柳说整体部署成本和传统的5台8卡GPU服务器基本持平。不过性能提升那叫一个夸张!训练性能最高能提120%,推理性能更是飙到了330%。这主要是因为他们在计算、网络、存储还有调度软件这些方面都做了整体性的调优。 还有个很不一样的地方是线缆设计。业内像英伟达NVL72是用铜缆连的,华为CloudMatrix 384是用光纤连的。但中科曙光用的是无线缆架构,实现直接对插。他们说这种方式比铜缆更稳定,比光纤能降低40%到70%的功耗。 光纤会带来散热难题导致系统不稳定这事儿确实让人头疼。为了降低安装门槛,scaleX40直接做成了19英寸标准箱式设计。李斌还吐槽说现在的超节点很多是定制机柜,对机房要求特别苛刻,用起来和维护都麻烦得很。 最后李柳提了下这个产品的定位。它主要瞄准企业级AI基础设施需求,比如大模型微调、金融制造政务这些行业的私有化部署和企业级推理。现在科研、教育、政府部门等垂直领域的客户数据比较敏感又有限,“更倾向于大模型的私域部署”。