1. Native RLM:把便宜模型用出花RLM(Recursive Language Model)能同时拉起 1 到 16 个 deepseek-v4-flash 子模型并行推理。flash 是 DeepSeek 的轻量版,便宜、快,适合批量任务。
比如你要审查十几个文件的代码,与其一个一个来,不如同时开十几个 flash 并行处理,最后汇总结果。成本低,效率高。这设计聪明在一点:它利用了 DeepSeek V4 的定价优势。deepseek-v4-flash 的价格低到可以随便挥霍,换别的模型这么玩早就破产了。所以 Hunter 选 DeepSeek 不是情怀,是数学。
2. 三种模式 Reasoning EffortPlan 模式只读探索,AI 不动你一行代码,先出方案。Agent 模式交互式执行,危险操作需要 approval。YOLO 模式全自动,适合信任的重复性任务。三个模式按 Tab 循环切换。
还能按 Shift Tab 调 reasoning effort(off → high → max),控制 AI 的”思考深度”。简单任务别浪费 token,复杂任务让 AI 想透。
3. Workspace 快照:AI 改崩了一键回滚这是我最喜欢的设计。每次 Agent/YOLO 轮次前后,DeepSeek-TUI 会用 side-git 给工作区打快照,存在 ~/.deepseek/snapshots/
// 下面。
输入 /restore N 或 revert_turn 就能回滚到之前的状态,完全不碰你原仓库的 .git。相当于给 AI 的操作上了个”时光机保险”——玩脱了也能一键复活,不用 git stash git reset 一顿手忙脚乱。
4. LSP 诊断注入:让 AI 对自己的产出负责AI 改完文件(edit_file / apply_patch / write_file),引擎自动触发 LSP 诊断。支持 rust-analyzer、pyright、typescript-language-server、gopls、clangd 等主流语言服务器。
如果有报错,诊断结果会作为合成用户消息注入下一轮对话。AI 自己就能看到”哎呀我刚才改出 bug 了”,然后自我修正。这设计的妙处在于:不是人在给 AI 擦屁股,是 AI 自己发现自己的错误自己修。
5. 持久化任务队列:后台跑任务,崩溃不丢通过 /task add ... 或 HTTP API POST /v1/tasks 提交的任务,会被持久化到 ~/.deepseek/tasks/ 的本地存储里。程序崩溃、电脑重启,任务队列不会丢。
Worker 池按优先级消费任务,支持 checklist、gate 验证、后台 shell、PR 自动尝试等高级工作流。简单说:你可以丢一个长任务给 DeepSeek-TUI,然后关掉终端去干别的,回来再看结果。这对于代码审查、批量重构、长时间分析非常实用。
6. HTTP/SSE Runtime API:不只是 TUI,是本地 Agent 服务器deepseek serve --http 启动后,暴露完整的 REST API:
Threads 和 Turns 管理(POST /v1/threads, POST /v1/threads/{id}/turns)事件流回放(GET /v1/threads/{id}/events?since_seq=)任务生命周期查询这意味着你可以把 DeepSeek-TUI 当作本地 Agent 基础设施,用 curl、Python 脚本、甚至自己的前端来调用。它不止是一个终端工具,它是一个可以嵌入到你工作流里的运行时。
为什么偏偏是 DeepSeek?
1M token 上下文,够你把整个项目的核心代码 文档 多轮对话历史一次性塞进去。不用切文件、不用分批次、不用让 AI”先看一下 src/main.rs 再看一下 src/lib.rs”。
Prefix cache,重复出现的上下文只算一次钱。长会话越聊越便宜,而不是越聊越贵。对于终端 Agent 这种动辄十几轮对话的场景,这是真金白银的成本优势。
Thinking mode streaming,思维链实时展示。终端本身就是流式输出的最佳载体,一行一行往上滚,看着 AI 在”想”,体验很对味。
便宜。deepseek-v4-flash 的价格支撑得起 RLM 并行开 16 个模型。同样的预算,用 DeepSeek 能跑出别家做不到的效果。
还有一些藏在细节里的设计Session 保存/恢复。--resume / --continue 或 TUI 里按 Ctrl R,可以恢复之前的会话。checkpoint 存在 ~/.deepseek/sessions/checkpoints/latest.json,崩溃后能自动恢复。
Context 智能压缩。上下文快满时自动精简历史,保留关键信息,不是简单截断。
成本追踪。每轮和 session 级别的 token 使用和成本估算,cache hit/miss 明细。用得起的前提是知道花了多少。
User memory。可选的持久化 note 文件,注入系统 prompt,跨会话记住你的偏好。
Hooks 系统。配置前后置钩子,比如每次工具调用前跑个自定义脚本。
Skills 插件。从 GitHub 安装可组合指令包,放到 ~/.deepseek/skills/ 就能用,无后端服务。
MCP 协议。连接外部 Model Context Protocol 工具服务器,扩展工具集。
Side-git 隔离。快照用的是独立的 git 仓库,跟你的项目 .git 完全隔离,回滚不会污染原仓库历史。
这项目现在啥情况Hunter Bown 是主要维护者,但已经有不少社区贡献者参与。一个个人项目能做到这个地步,不容易。
更让我感兴趣的是他的”下一步”。他想建微信群——一个美国开发者,想拉个中文微信群,跟大家一起聊 DeepSeek、聊开源、聊怎么把 Agent 做得更好。
这事本身就很说明问题。DeepSeek 来自中国,中国开发者对 DeepSeek 的理解深度和使用密度可能是全球最高的。Hunter 想 direct connect 这个群体,说明他清楚地知道 DeepSeek 的核心用户在哪里。
而且他用了一种特别”不美国”的方式来做这件事——不是发英文推特@DeepSeek 官方求转发,不是写英文博客等 Hacker News 上榜,而是直接学中文、混中文社区、用 DeepSeek 给自己当翻译。这种”躬身入局”的姿态,比任何 PR 话术都管用。
最后我装了 DeepSeek-TUI 试了一下。npm install -g deepseek-tui,配个 API key,deepseek 回车,一个漂亮的终端界面就弹出来了。确实很顺,没有乱七八糟的依赖问题。
用了一会儿,最大的感受是:这不像一个大厂产品,它像一个有性格的人做的工具。选 Rust 而不是 TypeScript,选单二进制而不是 Electron,选 DeepSeek 而不是”兼容所有模型”——每一个选择都有取舍,但取舍背后是清晰的价值观:快、轻、专注、不折腾。
还有那些藏在代码里的小细节。README 有完整的中文版,Hunter 在 X 上说”感谢鲸鱼赐我流利中文”。这些都不是功能,但它们让这个项目有了温度。
如果你也是鲸鱼兄弟,可以去 GitHub 给 Hunter 点个 star。或者更实在一点,试试 cargo install deepseek-tui-cli --locked,然后在终端里跟 DeepSeek 聊两句。
毕竟,一个发誓”不让兄弟受 npm 苦”的作者,值得你花五分钟了解一下。
项目地址:https://github.com/Hmbown/DeepSeek-TUI
安装:
# 最快路径npm install -g deepseek-tui# Rust 开发者推荐cargo install deepseek-tui-cli --locked
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体107717