盼星星盼月亮,DeepSeek的新模型终于来了。这次发布的是V4版本,一出来网上就炸了锅,大家跟过年似的,纷纷上手测它到底有多强。
DeepSeek自己倒还挺谦虚,说跟GPT-5.4和Gemini-3.1-Pro比起来,还有三到六个月的差距。这个说法其实挺实在的,没有吹牛,也没有妄自菲薄。
但真正让懂行的人兴奋的,不是它跟谁比强了那么一丢丢,而是另一个数字:成本。

在100万token这种超大上下文的场景下,V4-Pro的单次推理计算量,只有老版本V3.2的27%。更夸张的是它的KV缓存,只用了V3.2的10%。
说人话就是——跑一样的东西,V4省了将近四分之三的力气,内存占用直接砍掉九成。这意味着什么?意味着便宜,意味着同样的算力能干更多的活。
不过,上面这些其实还不是大家最炸的点。真正让圈内人拍大腿的,是另一件事。

黄仁勋的想法是,必须让中国基于美国的AI生态去做研究,这样美国AI才能一直保持领先。就像当年电脑上的WINTEL(Windows Intel)一样,让你离不开,以后想换成本高得吓人。
可如今呢?咱们自己的AI生态已经实实在在地跑起来了。DeepSeek V4在线催华为的卡,就差把话挑明了:只要华为的卡供货跟上来,英伟达在中国市场的日子,怕是要到头了。
以前是没得选,现在有得选了,而且还更好更便宜。你说,接下来会发生什么?
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105719