> 自媒体 > (AI)人工智能 > DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么「硬控」硅谷
DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么「硬控」硅谷
来源:爱范儿
2026-04-28 15:41:04
120
管理

DeepSeek 带着 R1 在一年前的今天(2025.1.20)横空出世,一出场就吸引了全球的目光。

那时候为了能顺畅用上 DeepSeek,我翻遍了自部署教程,也下载过不少号称「XX – DeepSeek 满血版」的各类应用。

一年后,说实话,我打开 DeepSeek 的频率少了很多。

豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更不用说海外的 ChatGPT、Gemini 等 SOTA 模型产品。

当这些全能 AI 助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着 DeepSeek?」

于是,DeepSeek 在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。

看一眼 App Store 的排行榜,这种「变心」又似乎不是我一个人的错觉。

没有资方的指手画脚。没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的 Thinking Machine Lab;还有小扎的 Meta AI 实验室各种绯闻。只对技术负责, 因为没有外部估值压力,DeepSeek 不需要为了财报好看而急于推出全能 App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。

App Store 的下载量排名,对于一家需要向 VC 证明「日活增长」的创业公司来说是命门。但对于一家只对 AI 发展负责、不仅不缺钱还不想被钱通过 KPI 控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。

图片来源:https://openaiglobalaffairs.substack.com/p/deepseek-at-1

如果说一年前的 AI 竞赛是比谁的显卡多、谁的模型参数大,那么 DeepSeek 的出现,硬生生把这场竞赛的规则改写了。在 OpenAI 及其内部团队(The Prompt) 的最近发布总结回顾中,他们不得不承认,

DeepSeek R1 的发布在当时给 AI 竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。

DeepSeek 一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。

根据 ICIS 情报服务公司最近的分析,DeepSeek 的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。

2. 核心能力是卷代码和超长上下文

在通用对话已经趋于同质化的今天,V4 选择了一个更硬核的突破口:生产力级别的代码能力。

据接近 DeepSeek 的人士透露,V4 并没有止步于 V3.2 在基准测试上的优异表现,而是在内部测试中,让其代码生成和处理能力,直接超越了 Anthropic 的 Claude 和 OpenAI 的 GPT 系列。

更关键的是,V4 试图解决当前编程 AI 的一大痛点:「超长代码提示词」的处理。这意味着 V4 不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。

为了实现这一点,V4 也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。

3. 关键技术:Engram

比起 V4 模型本身,更值得关注的是 DeepSeek 在上周联合北京大学团队发表的一篇重磅论文。

这篇论文揭示了 DeepSeek 能够在算力受限下持续突围的真正底牌,是一项名为 「Engram(印迹/条件记忆)」 的新技术。

HBM(高带宽内存)是全球 AI 算力竞争的关键领域之一,当对手都在疯狂囤积 H100 显卡来堆内存时,DeepSeek 再次走了一条不寻常的路。

计算与记忆解耦: 现有的模型为了获取基本信息,往往需要消耗大量昂贵的计算力来进行检索。Engram 技术能让模型高效地查阅这些信息,而不需要每次都浪费算力去计算 。省下来的宝贵算力,被专门用于处理更复杂的高层推理。研究人员称,这种技术可以绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。

在显卡资源日趋紧张的背景下,DeepSeek 的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。

DeepSeek 这一年的进化,本质上是在用反常识的方式,解决 AI 行业的常识性难题。

它一年进账 50 亿,能够用来训练出上千个 DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的 HBM。

过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。

这些选择,在短期看都是「错的」。不融资,怎么跟 OpenAI 拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?

但如果把时间线拉长,这些「错的」选择,可能正在为 DeepSeek 的 V4 和 R2 铺路。

这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4 会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。

但至少现在我们知道,在 AI 这个行业里,反常识,有时候才是最大的常识。

下一次,还是 DeepSeek 时刻。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿|原文链接· ·新浪微博

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
朴一生(普通会员)
文章
1931
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105719

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索