4. MCP、Skills 和子智能体
DeepSeek-TUI 还支持 MCP、Skills、Hooks、RLM 并行分析和子智能体。
README 中提到,它可以通过 rlm_query 派生 1-16 个便宜的 deepseek-v4-flash 子任务进行并行分析,也支持 MCP servers、Skills system、durable task queue、HTTP/SSE runtime API 等能力。
这说明它不只是一个"代码助手",而是在往 Agent Runtime 方向发展。
什么叫 Agent Runtime?
简单理解,就是让模型不只是回答问题,而是拥有任务队列、工具系统、权限机制、上下文管理、状态持久化、外部接口、多智能体协作。
未来真正有价值的 AI 编程工具,大概率不是"聊天框 + 模型",而是"模型 + 工具 + 运行时 + 权限 + 记忆 + 工作流"。
DeepSeek-TUI 正在朝这个方向靠近。
四、怎么安装和体验?
DeepSeek-TUI 提供了多种安装方式。
如果你使用 npm,可以直接:
npm install -g deepseek-tui deepseek --version deepseek
如果你使用 Rust / Cargo,可以:
cargo install deepseek-tui-cli --locked cargo install deepseek-tui --locked
项目也提供 Homebrew 和预编译二进制下载方式,支持 Linux、macOS 和 Windows 等平台。首次启动时,它会提示配置 DeepSeek API Key,也可以通过配置文件保存到 ~/.deepseek/config.toml。
我更建议新手这样开始:
进入一个非核心项目目录,不要上来就用真实生产项目。
先让它只读分析:
请先阅读当前项目结构,不要修改任何文件。 帮我分析这个项目的技术栈、入口文件、主要模块和潜在风险。
然后再让它做小任务:
请只修改 README,补充本地启动步骤。 修改前先说明你的计划,修改后列出变更点。
等你熟悉它的行为之后,再尝试让它修复小 bug、补测试、优化局部函数。










