国产算力正从"能用"迈向"好用",超节点技术成为弥合差距的关键支点。
华尔街见闻提及,4月24日,DeepSeek V4预览版发布,公司披露受限于高端算力供给,V4 Pro版本服务吞吐十分有限,预计下半年随华为昇腾950超节点批量上市后,Pro版本价格将大幅下调。
高盛研报指出,这一表态具有双重意涵:一是DeepSeek的成本竞争力将进一步强化;二是在芯片管制持续收紧的背景下,中国顶尖AI模型向国产算力迁移的趋势得到头部玩家的背书。
此前,国家发改委亦于2025年底的新闻发布会上罕见正面回应,称"超节点等集群互联技术发展,为国产算力赶上国际领先水平提供了良好机遇"。
在此背景下,东方证券发布电子行业深度报告,以"超节点:国产算力进攻的'矛'"为题,系统梳理超节点的技术逻辑、产业格局与投资机会,认为2026年将是国产超节点规模放量元年,交换芯片、服务器ODM、液冷、供电等全链条有望深度受益。
AI算力需求跃升,超节点成必然选择大模型参数规模的持续膨胀,正将算力基础设施推入超节点时代。
东方证券报告指出,随着MoE(混合专家)架构成为新趋势,模型参数以每年约10倍的速度增长,已迈入十万亿级阶段——Qwen3-Max模型总参数超过1T,文心5.0参数量达2.4T。
与此对应,算力集群规模不断提升,万卡集群已成训练大模型的最低标配,十万卡级集群成为主流趋势。

随着MoE模型中跨服务器的All-to-All通信量急剧增长,传统以太网已难以承受千亿级模型单次梯度同步产生的TB级数据量。
超节点通过内部高速总线互连,有效打破"通信墙"与"内存墙"瓶颈,成为大规模训练与推理的最优解。

以Rubin NVL72为例,相比Blackwell,随着GPU带宽翻倍,单机柜交换芯片用量从18颗提升至36颗。
报告还指出,伴随集群规模扩展、引入二级HBD域,交换芯片需求或将进一步倍增。
其次,液冷成为刚需,全液冷时代渐进。当单机柜总功耗达到50KW以上时,液冷成为必选方案。

GB200 NVL72单机柜功耗已达120KW,华为CloudMatrix 384和阿里磐久2.0均采用风液混合方案。
更新一代的Vera Rubin NVL72机柜将正式采用100%全液冷,交换机芯片、DPU、光模块等全面搭配液冷散热模组,机柜外侧CDU散热量将迈入MW级。
第三则是服务器ODM价值重估。
超节点服务器使厂商从过去L10级别的服务器组装交付,提升至L11整机柜级甚至L12多机柜级制造交付,参与环节从Computer tray延伸至Switch tray、网络互联、供电与制冷系统集成,准入门槛大幅提高。

华勤技术预计2026年全年超节点项目收入将超过百亿元;浪潮信息发布元脑SD200超节点,实现64路国产AI芯片高速统一互连;百度旗下昆仑芯256/512超节点将分别于2026年上下半年上市。
第四,光互连与PCB背板需求新增。
计算节点与交换节点之间的高速互联,在64或128 XPU规模内以铜缆为首选,综合成本约为光互联方案的二分之一。

本文来自华尔街见闻,欢迎下载APP查看更多
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105856