前几天,很多人都在讨论一个叫DeepSeek V4的东西。
有人说它“便宜到不像真的”。
有人说它“帮国产芯片捅破了一层窗户纸”。
但是,它到底是什么?凭什么这么牛?
今天我就用大白话,把它讲清楚。
价格有多狠?
先看一串数字。
DeepSeek V4有两个版本。
轻的Flash版,输入1元/百万token,输出2元。
重的Pro版,输入12元,输出24元。
但是,你可能不知道国外的AI有多贵。
GPT-5.4和Claude Opus 4.6的调用成本,大约是DeepSeek的50倍。
什么叫50倍?
就是人家花1块钱的时候,你要花50块。
因此有人直接把它叫做“价格屠夫”。
它到底是啥?
简单说,这是一种“专家意识”很强的AI模型。
一个人有很多种技能,但做每件事的时候,只调动最擅长的部分来干。
DeepSeek就是按这个思路做的。
Pro版,总参数1.6万亿,每次激活490亿。
Flash版,总参数2840亿,每次激活130亿。
两个版本都支持一百万token的超长上下文。
啥意思?就是能一口气看完三本《三体》那么长的内容。
它哪方面强?
编程能力是最大的亮点。
在Codeforces编程竞赛评分上,V4-Pro拿到3206分。
超过了GPT-5.4的3168分和Gemini 3.1的3052分。
在世界知识测评中,它也大幅领先其他开源模型。
数学和代码推理上,官方说“超越所有已公开评测的开源模型”。
那么便宜,靠谱吗?
很多人第一反应是:便宜没好货。
但这次不一样。
便宜是因为架构上的创新,不是偷工减料。
V4用了一种全新的注意力机制,大幅降低了对计算和显存的需求。
简单说就是:同样的活,花的力气更少。
自然就更便宜。
最炸裂的还在后面
DeepSeek V4这次最大的新闻,不是性能翻了多少倍。
而是它把华为昇腾芯片和英伟达GPU一起写进了技术报告。
什么意思?
以前的顶尖大模型,基本上只认英伟达的芯片。
但DeepSeek打破了这一步。
它在设计之初就把多个硬件平台纳入了规划。
连英伟达的老大黄仁勋都在播客里说,这件事是“灾难性的”。
因为英伟达的护城河不是芯片算力本身,而是CUDA这个软件生态位。
现在这条路被走通了。
但是,它也有短板
在高级Agent(智能体)任务上,V4和Opus 4.6思考模式还有一定差距。
在写作文艺创作的时候,有人觉得V4的回答太“干”、太正式,不够活泼。
跟顶尖闭源模型比,推理能力也还差3到6个月。
DeepSeek V4是一个性能对标杆尖闭源、价格却便宜50倍的开源大模型。
你现在知道了吧,它不只是一个AI,更像是一声宣告,宣告你在国产芯片上也能做出世界级的大模型了。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105719