> 自媒体 > (AI)人工智能 > DeepSeek V4“寄予厚望”!国产算力“进攻的矛”--超节点
DeepSeek V4“寄予厚望”!国产算力“进攻的矛”--超节点
来源:华尔街见闻
2026-04-29 10:21:43
79
管理

国产算力正从"能用"迈向"好用",超节点技术成为弥合差距的关键支点。

华尔街见闻提及,4月24日,DeepSeek V4预览版发布,公司披露受限于高端算力供给,V4 Pro版本服务吞吐十分有限,预计下半年随华为昇腾950超节点批量上市后,Pro版本价格将大幅下调。

高盛研报指出,这一表态具有双重意涵:一是DeepSeek的成本竞争力将进一步强化;二是在芯片管制持续收紧的背景下,中国顶尖AI模型向国产算力迁移的趋势得到头部玩家的背书。

此前,国家发改委亦于2025年底的新闻发布会上罕见正面回应,称"超节点等集群互联技术发展,为国产算力赶上国际领先水平提供了良好机遇"。

在此背景下,东方证券发布电子行业深度报告,以"超节点:国产算力进攻的'矛'"为题,系统梳理超节点的技术逻辑、产业格局与投资机会,认为2026年将是国产超节点规模放量元年,交换芯片、服务器ODM、液冷、供电等全链条有望深度受益。

AI算力需求跃升,超节点成必然选择

大模型参数规模的持续膨胀,正将算力基础设施推入超节点时代。

东方证券报告指出,随着MoE(混合专家)架构成为新趋势,模型参数以每年约10倍的速度增长,已迈入十万亿级阶段——Qwen3-Max模型总参数超过1T,文心5.0参数量达2.4T。

与此对应,算力集群规模不断提升,万卡集群已成训练大模型的最低标配,十万卡级集群成为主流趋势。

随着MoE模型中跨服务器的All-to-All通信量急剧增长,传统以太网已难以承受千亿级模型单次梯度同步产生的TB级数据量。

超节点通过内部高速总线互连,有效打破"通信墙"与"内存墙"瓶颈,成为大规模训练与推理的最优解。

以Rubin NVL72为例,相比Blackwell,随着GPU带宽翻倍,单机柜交换芯片用量从18颗提升至36颗。

报告还指出,伴随集群规模扩展、引入二级HBD域,交换芯片需求或将进一步倍增。

其次,液冷成为刚需,全液冷时代渐进。当单机柜总功耗达到50KW以上时,液冷成为必选方案。

GB200 NVL72单机柜功耗已达120KW,华为CloudMatrix 384和阿里磐久2.0均采用风液混合方案。

更新一代的Vera Rubin NVL72机柜将正式采用100%全液冷,交换机芯片、DPU、光模块等全面搭配液冷散热模组,机柜外侧CDU散热量将迈入MW级。

第三则是服务器ODM价值重估。

超节点服务器使厂商从过去L10级别的服务器组装交付,提升至L11整机柜级甚至L12多机柜级制造交付,参与环节从Computer tray延伸至Switch tray、网络互联、供电与制冷系统集成,准入门槛大幅提高。

华勤技术预计2026年全年超节点项目收入将超过百亿元;浪潮信息发布元脑SD200超节点,实现64路国产AI芯片高速统一互连;百度旗下昆仑芯256/512超节点将分别于2026年上下半年上市。

第四,光互连与PCB背板需求新增。

计算节点与交换节点之间的高速互联,在64或128 XPU规模内以铜缆为首选,综合成本约为光互联方案的二分之一。

本文来自华尔街见闻,欢迎下载APP查看更多

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
朴一生(普通会员)
文章
1934
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105856

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索