
国产算力首次撑起万亿参数大模型,AI信创拐点真的来了
朋友们,昨天DeepSeek V4的消息你们看了吗?
我看到的时候愣了好几秒——不是因为参数多炸,而是这个数字:520万美元。
这是什么概念?
GPT-4的训练成本超过1亿美元。V4用了二十分之一的代价,跑出了世界一流水准。
更炸的是:全程没用一颗英伟达芯片。
一、DeepSeek V4到底强在哪?1. 参数规模:1.6万亿参数正经的万亿参数大模型,不是小打小闹。上下文窗口直接拉到100万token,就是你扔一整本书进去,它能一口气读完还能跟你聊。
2. 性能表现在Agentic Coding评测中,达到开源模型最佳水平世界知识测评,大幅领先其他开源模型,仅稍逊Gemini-Pro-3.1数学、STEM、竞赛级代码,超越所有已公开评测的开源模型简单说:开源领域最强,闭源领域第一梯队。
3. 成本优势API定价对比
产品
价格
对比
V4-Flash API
1元/百万token
—
V4-Pro输入
0.025元/百万token
—
OpenAI GPT-4
—
V4价格的
1/30
这意味着什么?中小企业和个人开发者,终于能用得起顶级AI能力了。
二、最重要的突破:国产算力首次跑通说实话,参数和性能都不是最让我震撼的。
最让我震撼的是这个: DeepSeek V4是全球首个完全运行在国产芯片上的万亿参数大模型。
训练用的是华为昇腾910B/C,推理用的是昇腾950PR。整个技术栈从英伟达的CUDA,全面迁移到华为的CANN框架。
️ 这不是在别人家的地基上盖房子,是从地基开始自己盖了一栋楼。
一场200个算子的"换心手术"从CUDA迁移到CANN,说白了就是重写底层代码。
DeepSeek团队重写了超过200个核心算子初期推理速度只有英伟达方案的几十分之一迭代优化后:推理速度提升35倍,显存占用降低75%这不是简单的适配,是脱胎换骨的技术重构。
昇腾950PR vs 英伟达H20核心性能对比
指标
昇腾950PR
英伟达H20
对比
FP8算力
1 PFLOPS
0.36 PFLOPS
昇腾胜
HBM容量
112-128 GB
96 GB
昇腾胜
内存带宽
1.4-1.6 TB/s
0.9 TB/s
昇腾胜
推理性能
H20的2.87倍
昇腾胜
不是接近,是超越。
在推理这个越来越重要的战场上,国产芯片已经不只是追赶者了。
三、大基金入局,信号意义非凡国家大基金三期正在洽谈领投DeepSeek,估值约450亿美元。
这是大基金首次公开注资本土大模型公司。此前大基金的投资重心都在半导体材料、设备等硬件环节。
这次投向DeepSeek,标志着国家层面对AI产业的认知升级:光有芯片不够,还得有模型。
国产AI芯片出货量数据
2025年中国AI加速卡总出货量:约400万张其中国产:165万张,份额占比41%郑州6万卡国产AI4S计算集群:已落地寒武纪Q1营收:28.85亿,同比 159.56%海光DCU相关营收:40.34亿,同比 68%实打实的订单在涌入,产业闭环正在形成。
四、对普通人意味着什么?AI应用会更便宜、更强:V4-Flash API价格0.2元/百万token,V4发布次日调用量暴涨62.2%。价格降下来,用量就飙上去,这是正向飞轮。就业市场正在重构:IDC数据显示,2025年传统AI编程工具增速约25%,而具备Agent能力的工具增速高达78%。国产替代不再是"备胎":DeepSeek V4证明了:国产算力能打、且省钱。以后企业选择算力,国产会进入优先选项,不是被迫选项。五、拐点之后,路还很长⚠️ 需要清醒的地方
训练效率85%,意味着还有15%的差距CANN框架在第三方库、开发者社区完整性上,仍落后于CUDA英伟达不会原地踏步,下一代B系列芯片的生态壁垒只会更高但方向已经确定了。
当阿里、字节、腾讯把国产算力写进优先选项,当寒武纪、海光们营收翻倍增长,当520万美元就能训练出GPT-4级别的模型——
国产算力的叙事,已经从"能不能活下来",切换到了"能走多远"。
写在最后我干了这么多年科技财经报道,看过太多"弯道超车"的口号。
但这次不太一样。
DeepSeek V4不是PPT,不是实验室数据,是真金白银训练出来、真刀真枪跑通了的。
520万美元的成本公示、昇腾950PR的实测性能、8家国产芯片的Day 0适配——这些细节都在说明一件事:
中国AI产业,正在建立自己的算力主权。
这场竞赛,才刚刚进入最关键的阶段。
但至少现在,我们不再是观众席上的旁观者了。
今日互动:
你觉得DeepSeek V4的突破意味着什么?国产算力的春天真的来了吗?
评论区聊聊~
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体110233