谁也没想到,国产大模型会以这种“闷声发大财”的方式杀出重围。2026年4月24日,DeepSeek V4以预览版的形式正式上线,同时开源模型权重和技术报告。没有高调发布会,网页端和App端照常免费开放,一股“越强越便宜”的气场扑面而来。如果非要用一句话概括,那就是:上下文拉到百万级、两个版本灵活定价、彻底拥抱国产算力。对普通人来说,这意味着你身边的AI工具很快就要“集体进化”。
变化从入口就能感知得到。早在4月8日,DeepSeek就悄悄改了App交互,输入框上方多了“快速模式”“专家模式”两个选项。前者负责日常聊天、文件与图片文字识别,主打一个“快”;后者专治复杂难题,高峰期得排队,但数学、编程、逻辑这类硬骨头,它更稳、更有底气。等到4月24日,谜底揭晓:V4带来两个版本,1.6T总参数、49B激活的V4-Pro站在能力天花板,284B总参数、13B激活的V4-Flash则追求轻量与性价比,全系标配1M上下文——大约相当于一口气读完《三体》三部的体量,代码库、财报、合同、长篇论文,都能直接塞进窗口里“连本带利”处理完,再不用人工切片、再检索。
能力升不升,硬数据不会说谎。官方评测显示,V4-Pro在数学、STEM、竞赛级代码等核心推理领域,已经把公开评测的开源模型甩在身后,直逼世界顶尖闭源模型;Agent与代码任务上,它成了DeepSeek内部工程师的主力工具,体验甚至接近Claude Opus 4.6的非思考模式、优于Sonnet 4.5,只和Opus 4.6的思考模式存在些许差距。在知识面方面,它的大幅领先绝大多数开源对手,仅比Gemini-Pro-3.1略逊一筹。说通俗点:这是一台既能帮律师揪合同漏洞,又能帮程序员改几十个文件bug的“超级助理”。
价格依旧“亲民得不像话”。API定价显示,V4-Flash每百万tokens输入最低0.2元(缓存命中)、最高1元(缓存未命中),输出2元;V4-Pro缓存命中1元,未命中12元,输出24元。对比海外主流闭源模型,DeepSeek V4的调用成本显著更低,更何况它还开源权重——等于把“底层能力”白送给开发者。为什么会这么便宜?表面看是产品策略,背后却是一个更硬核的逻辑:它在华为昇腾上完成了规模化适配,推理阶段主要由国产NPU来承载,把单token的计算量和显存占用压到上一代V3.2的一小部分,为后续继续降价腾出空间。下半年昇腾950超节点批量上市后,V4-Pro的价格还可能再往下掉一截。这不再只是“有没有算力”的问题,而是“国产算力能不能成为主阵地”的实锤答卷。
算力链条的另一头,是整个国家基建在帮AI“省成本”。全国“东数西算”工程持续铺开,近两年围绕算力枢纽建成的算力大通道已经超过70条,核心思路就是让数据在成本更合适的地方计算,让算力真正“普惠”。DeepSeek一边适配昇腾,一边围绕数据中心扩招岗位,本质上是站在基建红利上,把技术红利反哺给用户:你可以花更少的钱,用上更强的能力。这不只是价格战,而是“算力—模型—应用”三方都在跑通的闭环。
对普通用户来说,这些大词和你我有什么关系?关系比你想象的大。你常用的AI写作、做PPT、代码补全、合同审查等工具,底层很多就是DeepSeek这类开源大模型在撑着。V4这次把长上下文和Agent能力一起打包下放,意味着未来一段时间,你会明显感到:对话工具“记得更久”、自动生成的PPT更“懂你意图”、多步任务执行更稳当。长远看,DeepSeek V4就像一枚投入水面的石子,激起的涟漪会传导到整个国产AI生态——从芯片、训练框架到行业应用,都在同一方向上加速转动。就这点而言,这次更新真正值得关注的不是“又多了什么功能”,而是一条逐渐成型的“中国AI能力链”被跑通了。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105761