> 自媒体 > (AI)人工智能 > 一个美国佬,用 DeepSeek 写了封中文情书
一个美国佬,用 DeepSeek 写了封中文情书
来源:极客笔记君
2026-05-07 16:35:23
23
管理
一个美国佬,用 DeepSeek 写了封中文情书

1. Native RLM:把便宜模型用出花

RLM(Recursive Language Model)能同时拉起 1 到 16 个 deepseek-v4-flash 子模型并行推理。flash 是 DeepSeek 的轻量版,便宜、快,适合批量任务。

比如你要审查十几个文件的代码,与其一个一个来,不如同时开十几个 flash 并行处理,最后汇总结果。成本低,效率高。这设计聪明在一点:它利用了 DeepSeek V4 的定价优势。deepseek-v4-flash 的价格低到可以随便挥霍,换别的模型这么玩早就破产了。所以 Hunter 选 DeepSeek 不是情怀,是数学。

2. 三种模式 Reasoning Effort

Plan 模式只读探索,AI 不动你一行代码,先出方案。Agent 模式交互式执行,危险操作需要 approval。YOLO 模式全自动,适合信任的重复性任务。三个模式按 Tab 循环切换。

还能按 Shift Tab 调 reasoning effort(off → high → max),控制 AI 的”思考深度”。简单任务别浪费 token,复杂任务让 AI 想透。

3. Workspace 快照:AI 改崩了一键回滚

这是我最喜欢的设计。每次 Agent/YOLO 轮次前后,DeepSeek-TUI 会用 side-git 给工作区打快照,存在 ~/.deepseek/snapshots/

// 下面。

输入 /restore N 或 revert_turn 就能回滚到之前的状态,完全不碰你原仓库的 .git。相当于给 AI 的操作上了个”时光机保险”——玩脱了也能一键复活,不用 git stash git reset 一顿手忙脚乱。

4. LSP 诊断注入:让 AI 对自己的产出负责

AI 改完文件(edit_file / apply_patch / write_file),引擎自动触发 LSP 诊断。支持 rust-analyzer、pyright、typescript-language-server、gopls、clangd 等主流语言服务器。

如果有报错,诊断结果会作为合成用户消息注入下一轮对话。AI 自己就能看到”哎呀我刚才改出 bug 了”,然后自我修正。这设计的妙处在于:不是人在给 AI 擦屁股,是 AI 自己发现自己的错误自己修。

5. 持久化任务队列:后台跑任务,崩溃不丢

通过 /task add ... 或 HTTP API POST /v1/tasks 提交的任务,会被持久化到 ~/.deepseek/tasks/ 的本地存储里。程序崩溃、电脑重启,任务队列不会丢。

Worker 池按优先级消费任务,支持 checklist、gate 验证、后台 shell、PR 自动尝试等高级工作流。简单说:你可以丢一个长任务给 DeepSeek-TUI,然后关掉终端去干别的,回来再看结果。这对于代码审查、批量重构、长时间分析非常实用。

6. HTTP/SSE Runtime API:不只是 TUI,是本地 Agent 服务器

deepseek serve --http 启动后,暴露完整的 REST API:

Threads 和 Turns 管理(POST /v1/threads, POST /v1/threads/{id}/turns)事件流回放(GET /v1/threads/{id}/events?since_seq=)任务生命周期查询

这意味着你可以把 DeepSeek-TUI 当作本地 Agent 基础设施,用 curl、Python 脚本、甚至自己的前端来调用。它不止是一个终端工具,它是一个可以嵌入到你工作流里的运行时。

为什么偏偏是 DeepSeek?

1M token 上下文,够你把整个项目的核心代码 文档 多轮对话历史一次性塞进去。不用切文件、不用分批次、不用让 AI”先看一下 src/main.rs 再看一下 src/lib.rs”。

Prefix cache,重复出现的上下文只算一次钱。长会话越聊越便宜,而不是越聊越贵。对于终端 Agent 这种动辄十几轮对话的场景,这是真金白银的成本优势。

Thinking mode streaming,思维链实时展示。终端本身就是流式输出的最佳载体,一行一行往上滚,看着 AI 在”想”,体验很对味。

便宜。deepseek-v4-flash 的价格支撑得起 RLM 并行开 16 个模型。同样的预算,用 DeepSeek 能跑出别家做不到的效果。

还有一些藏在细节里的设计

Session 保存/恢复。--resume / --continue 或 TUI 里按 Ctrl R,可以恢复之前的会话。checkpoint 存在 ~/.deepseek/sessions/checkpoints/latest.json,崩溃后能自动恢复。

Context 智能压缩。上下文快满时自动精简历史,保留关键信息,不是简单截断。

成本追踪。每轮和 session 级别的 token 使用和成本估算,cache hit/miss 明细。用得起的前提是知道花了多少。

User memory。可选的持久化 note 文件,注入系统 prompt,跨会话记住你的偏好。

Hooks 系统。配置前后置钩子,比如每次工具调用前跑个自定义脚本。

Skills 插件。从 GitHub 安装可组合指令包,放到 ~/.deepseek/skills/ 就能用,无后端服务。

MCP 协议。连接外部 Model Context Protocol 工具服务器,扩展工具集。

Side-git 隔离。快照用的是独立的 git 仓库,跟你的项目 .git 完全隔离,回滚不会污染原仓库历史。

这项目现在啥情况

Hunter Bown 是主要维护者,但已经有不少社区贡献者参与。一个个人项目能做到这个地步,不容易。

更让我感兴趣的是他的”下一步”。他想建微信群——一个美国开发者,想拉个中文微信群,跟大家一起聊 DeepSeek、聊开源、聊怎么把 Agent 做得更好。

这事本身就很说明问题。DeepSeek 来自中国,中国开发者对 DeepSeek 的理解深度和使用密度可能是全球最高的。Hunter 想 direct connect 这个群体,说明他清楚地知道 DeepSeek 的核心用户在哪里。

而且他用了一种特别”不美国”的方式来做这件事——不是发英文推特@DeepSeek 官方求转发,不是写英文博客等 Hacker News 上榜,而是直接学中文、混中文社区、用 DeepSeek 给自己当翻译。这种”躬身入局”的姿态,比任何 PR 话术都管用。

最后

我装了 DeepSeek-TUI 试了一下。npm install -g deepseek-tui,配个 API key,deepseek 回车,一个漂亮的终端界面就弹出来了。确实很顺,没有乱七八糟的依赖问题。

用了一会儿,最大的感受是:这不像一个大厂产品,它像一个有性格的人做的工具。选 Rust 而不是 TypeScript,选单二进制而不是 Electron,选 DeepSeek 而不是”兼容所有模型”——每一个选择都有取舍,但取舍背后是清晰的价值观:快、轻、专注、不折腾。

还有那些藏在代码里的小细节。README 有完整的中文版,Hunter 在 X 上说”感谢鲸鱼赐我流利中文”。这些都不是功能,但它们让这个项目有了温度。

如果你也是鲸鱼兄弟,可以去 GitHub 给 Hunter 点个 star。或者更实在一点,试试 cargo install deepseek-tui-cli --locked,然后在终端里跟 DeepSeek 聊两句。

毕竟,一个发誓”不让兄弟受 npm 苦”的作者,值得你花五分钟了解一下。

项目地址:https://github.com/Hmbown/DeepSeek-TUI

安装:

# 最快路径npm install -g deepseek-tui# Rust 开发者推荐cargo install deepseek-tui-cli --locked

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
DeepSeek V4高调发布 美国:不能让世界建立在中国的开源模型之上..
2026年四月底,DeepSeek突然放出V4预览版,这事直接冲进全球科技圈的热搜..
“又要被降维打击了”:DeepSeek V4开源,为什么懂行的人都在慌?..
DeepSeekV4开源,不是来送温暖的,是来重新发牌的。70B参数以上的模型,..
定了,DeepSeek V4首发华为芯片!国产AI开始打破英伟达「垄断」..
来源:市场资讯(来源:爱范儿)星期五中午,本该是盘算周末去哪嗨的黄金..
DeepSeek V4实测:普通人想玩本地部署,你的电脑显卡达标了吗?..
现在很多普通人用AI,普遍都有一个很迷惑的现状。一边是各大平台网页版A..
详解 DeepSeek V4:Infra 巨鲸 “四连击”,百万上下文走进现实..
系统级耦合优化比单点创新更难。访谈丨程曼祺整理丨付自文、李清旸上周五..
美国慌了!DeepSeekV4打破垄断,AI价格打骨折,普通人也能用得起..
最近AI圈爆出天大新闻——DeepSeekV4正式发布了!它的出现,可不是简单的..
DeepSeek V4灰测体验:快速模式、专家模式到底怎么选?..
刚刚我看了一下 DeepSeek 的新界面,目前能明确看到的是两种模式:快速模..
英伟达慌了!DeepSeek 4.0全面转投华为昇腾,成本大跳水!..
DeepSeek 4.0正式发布,这款领跑全球的开源大模型,让华为的昇腾算力芯片..
DeepSeek V4「叫好不叫座」:模型只是入场券,Codex才是决赛圈..
去年 DeepSeek V3 发布时,整个 AI 圈的气氛,和今年完全不一样。那时候..
关于作者
赶海的老阿姨..(普通会员)
文章
2050
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体107717

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索