
快速开始
npm install -g deepseek-tui
deepseek
一个命令,你的终端里就多了一个能读代码、写代码、跑命令、管理 Git、搜索网页、调度子 Agent 的 AI 编程助手。不需要 Node.js 或 Python 环境,单个二进制文件,开箱即用。
为什么值得关注?
2026 年,AI 编程 Agent 的竞争已经进入白热化。Cursor 刚开源了 SDK,Claude Code 的源代码泄露催生了 claw-code 生态,而 DeepSeek-TUI 选择了一条完全不同的路:
用 Rust 从零写一个终端原生的编程 Agent,专为 DeepSeek V4 的 100 万 token 上下文和原生思考模式优化。
这不是一个”能用就行”的玩具。这是一个工程级别极高的产品。
核心能力一览
专为 DeepSeek V4 设计
|
特性 |
说明 |
|
100 万 token 上下文 |
直接吞下整个中型项目的代码库 |
|
思考模式流式输出 |
实时显示模型的推理过程 |
|
原生前缀缓存 |
重复查询时大幅降低 token 成本 |
|
智能上下文压缩 |
接近上限时自动压缩,不丢关键信息 |
三种交互模式
|
模式 |
行为 |
适合场景 |
|
Plan |
只读探索,先分析再计划 |
理解陌生代码库 |
|
Agent |
默认模式,工具调用需审批 |
日常开发 |
|
YOLO |
自动批准工具,放手让它干 |
信任的工作区 |
完整工具集
- 文件操作:读、写、编辑、apply-patch
- Shell 执行:直接跑命令
- Git 管理:commit、diff、status
- 网页搜索和浏览
- 子 Agent 调度
- MCP 服务器连接
工程亮点
1. 原生 RLM(递归语言模型)
并行调度 1-16 个低成本的 deepseek-v4-flash 子任务,用于批量分析、任务拆解或并行推理。相当于让模型自己开分身干活。
2. 工作区回滚
通过 side-git 记录每轮前后的快照,支持 /restore 和 revert_turn,不碰你项目自己的 .git。改坏了?一键回退。
3. LSP 集成
编辑完代码后,自动启动语言服务器(rust-analyzer、pyright 等)检查错误,把诊断结果注入模型上下文,下一轮的推理就能修复问题。
4. 会话保存和恢复
长任务可以断点续作,deepseek resume –last 直接回到上次的状态。
5. HTTP/SSE 运行时 API
deepseek serve –http 启动无界面服务,可以集成到 CI/CD 或其他自动化流程中。
安装:比想象中简单
# 方式一:npm(推荐)
npm install -g deepseek-tui
deepseek
# 方式二:Cargo(需要 Rust 1.85+)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked
# 方式三:直接下载预编译二进制
# 支持 Linux x64/ARM64、macOS x64/ARM64、Windows x64
首次启动时输入 DeepSeek API Key,或者提前配置:
deepseek login --api-key "YOUR_DEEPSEEK_API_KEY"
# 或
export DEEPSEEK_API_KEY="YOUR_DEEPSEEK_API_KEY"
架构:Rust 的工程美学
用户界面层
├── TUI (ratatui) — 键盘驱动的终端界面
├── One-shot Mode — 一次性命令
└── Config/CLI — 配置和命令行入口
核心引擎层
├── Agent Loop — 主循环:会话管理、轮次调度、工具编排
├── Session — 会话状态
├── Turn Mgmt — 轮次管理
└── Tool Orchestration — 工具调度
工具与扩展层
├── Tools — shell、file、git、web 等内置工具
├── Skills — 插件系统
├── Hooks — 生命周期钩子
└── MCP Servers — 外部工具协议
运行时 API 层
├── HTTP/SSE Runtime API — 无界面服务
└── Persistent Task Manager — 持久化任务队列
LLM 层
├── DeepSeek Client — 原生客户端
└── Compatible Client — 兼容其他提供商
代码库按功能拆分为多个 crate:
- crates/cli — 调度器入口
- crates/tui — 交互式 TUI 运行时
- crates/core — Agent 循环和会话管理
- crates/tools — 工具调用原语
- crates/agent — 模型注册表
- crates/mcp — MCP 协议客户端
- crates/state — SQLite 持久化层
- crates/secrets — OS keyring 集成
多提供商支持
不锁死 DeepSeek 平台:
|
提供商 |
配置方式 |
|
DeepSeek(默认) |
DEEPSEEK_API_KEY |
|
NVIDIA NIM |
deepseek auth set –provider nvidia-nim |
|
Fireworks AI |
deepseek auth set –provider fireworks |
|
SGLang(自托管) |
SGLANG_BASE_URL=”http://localhost:30000/v1″ |
定价:便宜到离谱
|
模型 |
上下文 |
输入(缓存命中) |
输入(缓存未命中) |
输出 |
|
deepseek-v4-pro |
1M |
$0.003625 / 1M |
$0.435 / 1M |
$0.87 / 1M |
|
deepseek-v4-flash |
1M |
$0.0028 / 1M |
$0.14 / 1M |
$0.28 / 1M |
作为对比:GPT-4o 的输入价格是 $2.5 / 1M,输出 $10 / 1M。DeepSeek 便宜了一个数量级。
与同类产品的对比
|
维度 |
DeepSeek-TUI |
Claude Code |
Cursor SDK |
claw-code |
|
语言 |
Rust |
TypeScript |
TypeScript |
Python |
|
运行时 |
单二进制 |
npm 包 |
npm 包 |
Python 包 |
|
上下文 |
1M token |
200K |
200K |
200K |
|
思考模式 |
原生支持 |
不支持 |
不支持 |
不支持 |
|
成本 |
极低 |
高 |
中等 |
低 |
|
子 Agent |
RLM 并行 |
支持 |
支持 |
支持 |
|
LSP 集成 |
内置 |
无 |
无 |
无 |
|
工作区回滚 |
side-git |
无 |
无 |
无 |
|
MCP 支持 |
是 |
是 |
是 |
是 |
|
开源程度 |
完全开源 |
闭源 |
SDK 开源 |
完全开源 |
谁适合用?
- Rust 开发者:终于有一个用 Rust 写的 AI 编程工具,性能和内存安全都有保障
- DeepSeek 用户:100 万 token 上下文 + 思考模式,这是目前体验最好的 DeepSeek 编程接口
- 终端爱好者:不想离开终端?这就是为你设计的
- CI/CD 工程师:HTTP/SSE API 可以直接集成到自动化流程
- 成本敏感团队:同样的编程 Agent 能力,成本只有竞品的 1/10
快速上手
# 安装
npm install -g deepseek-tui
# 登录
deepseek login --api-key "sk-..."
# 启动交互式 TUI
deepseek
# 一次性命令
deepseek "解释这个函数"
# YOLO 模式(自动批准)
deepseek --yolo
# 指定模型
deepseek --model deepseek-v4-flash "总结代码"
# 恢复上次会话
deepseek resume --last
# 启动 HTTP 服务
deepseek serve --http
# 诊断
deepseek doctor --json
总结
DeepSeek-TUI 不是又一个”AI 编程助手”。它是一个工程级别极高的终端原生 Agent:
- Rust 单二进制,零依赖,性能和安全都有保障
- 专为 DeepSeek V4 的 100 万 token 上下文和思考模式优化
- 原生 RLM 并行、LSP 集成、工作区回滚——这些功能在竞品中找不到
- 成本极低,适合大规模使用
- 完全开源,社区驱动
如果你正在用 DeepSeek,或者想要一个不离开终端就能完成全部编程工作的 Agent,这是目前最好的选择。
项目地址:
github.com/Hmbown/DeepSeek-TUI
你觉得终端原生的编程 Agent 会成为主流,还是 GUI 工具(如 Cursor)最终会赢?