AI 编程正在从“聊天窗口”走向“终端智能体”!DeepSeek-TUI是如何火起来的(5)

2026-05-08 11:54  头条

4. MCP、Skills 和子智能体

DeepSeek-TUI 还支持 MCP、Skills、Hooks、RLM 并行分析和子智能体。

README 中提到,它可以通过 rlm_query 派生 1-16 个便宜的 deepseek-v4-flash 子任务进行并行分析,也支持 MCP servers、Skills system、durable task queue、HTTP/SSE runtime API 等能力。

这说明它不只是一个"代码助手",而是在往 Agent Runtime 方向发展。

什么叫 Agent Runtime?

简单理解,就是让模型不只是回答问题,而是拥有任务队列、工具系统、权限机制、上下文管理、状态持久化、外部接口、多智能体协作。

未来真正有价值的 AI 编程工具,大概率不是"聊天框 + 模型",而是"模型 + 工具 + 运行时 + 权限 + 记忆 + 工作流"。

DeepSeek-TUI 正在朝这个方向靠近。

四、怎么安装和体验?

DeepSeek-TUI 提供了多种安装方式。

如果你使用 npm,可以直接:

npm install -g deepseek-tui deepseek --version deepseek

如果你使用 Rust / Cargo,可以:

cargo install deepseek-tui-cli --locked cargo install deepseek-tui --locked

项目也提供 Homebrew 和预编译二进制下载方式,支持 Linux、macOS 和 Windows 等平台。首次启动时,它会提示配置 DeepSeek API Key,也可以通过配置文件保存到 ~/.deepseek/config.toml。

我更建议新手这样开始:

进入一个非核心项目目录,不要上来就用真实生产项目。

先让它只读分析:

请先阅读当前项目结构,不要修改任何文件。 帮我分析这个项目的技术栈、入口文件、主要模块和潜在风险。

然后再让它做小任务:

请只修改 README,补充本地启动步骤。 修改前先说明你的计划,修改后列出变更点。

等你熟悉它的行为之后,再尝试让它修复小 bug、补测试、优化局部函数。