DeepSeek-TUI 集成
把 DeepSeek-TUI 接到 QCode.cc:通过 OpenAI 兼容 provider 在终端跑 Claude 模型
DeepSeek-TUI 集成¶
DeepSeek-TUI 是近期爆红的命令行 AI 编程 Agent(10 天 GitHub Star 突破 2.3 万),原生支持 OpenAI 兼容 provider。它在 ~/.deepseek/config.toml 里允许你切换默认 provider,只需写 provider = "openai" 再配置 base_url 与 api_key,就能把后端指向任何 OpenAI Chat Completions 兼容服务。
本文教你把 DeepSeek-TUI 接到 QCode.cc,用熟悉的 TUI 界面在后端跑 Claude 模型——免登录、无地区限制、与 Claude Code 共享同一份 API Key 和配额。
为什么用 DeepSeek-TUI 接 QCode¶
- 熟悉的 TUI 体验:Plan / Agent / YOLO 三种运行模式 + 内置 MCP / Shell / Git / 子代理
- 同一份 API Key:与 Claude Code、Codex CLI 共享 QCode 套餐配额
- 多 provider 切换:同一个工具里随时切到 anthropic / ollama / vllm,调试便利
- 中国大陆友好:
103.236.53.153深圳直连 HTTP,延迟最低 - 完全开源:MIT 协议,配置文件可审计
一、安装¶
任选其一(官方 INSTALL.md):
# npm(最推荐,自动下载平台二进制)
npm install -g deepseek-tui
# Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
# Scoop(Windows)
scoop install deepseek-tui
# Cargo(从源码构建)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked
验证安装:
deepseek --version
二、配置 ~/.deepseek/config.toml¶
把默认 provider 切到 openai,并在 [providers.openai] 子表里指向 QCode.cc:
# ~/.deepseek/config.toml
provider = "openai"
[providers.openai]
api_key = "cr_your_qcode_api_key"
base_url = "https://api.qcode.cc/openai/v1"
model = "claude-sonnet-4-6"
字段说明:
| 字段 | 说明 |
|---|---|
provider |
顶级 "openai" 表示默认走 OpenAI 兼容 provider |
api_key |
QCode.cc 控制台获取,cr_ 开头 |
base_url |
不要带尾部斜杠——DeepSeek-TUI 会自拼 /chat/completions,带斜杠会拼成 //chat/completions 导致 404 |
model |
QCode 暴露的 Claude 模型 ID(见下方"可用模型") |
中国大陆用户改成 HTTP 直连(唯一支持 probe.qcode.cc 请求查询的端点):
[providers.openai]
api_key = "cr_your_qcode_api_key"
base_url = "http://103.236.53.153/openai/v1"
model = "claude-sonnet-4-6"
三、环境变量替代方式¶
不想写配置文件可直接用环境变量:
export OPENAI_API_KEY="cr_your_qcode_api_key"
export OPENAI_BASE_URL="https://api.qcode.cc/openai/v1"
export OPENAI_MODEL="claude-sonnet-4-6"
deepseek --provider openai
永久设置追加到 ~/.zshrc 或 ~/.bashrc 即可。
四、可用模型¶
QCode 的 OpenAI 兼容端点暴露 Claude 全系:
| 模型 ID | 用途建议 |
|---|---|
claude-opus-4-6 |
重型规划 / 复杂架构设计 |
claude-sonnet-4-6 |
日常编码(推荐) |
claude-haiku-4-5-20251001 |
快速小任务 / 低成本场景 |
完整列表用 curl 实时查询:
curl https://api.qcode.cc/openai/v1/models \
-H "Authorization: Bearer $OPENAI_API_KEY"
五、验证连通¶
先用 curl 验证路径与认证:
# 路径连通性(应返回 401,路径通了只是缺 auth header)
curl -X POST https://api.qcode.cc/openai/v1/chat/completions
# 带 Key 端到端
curl -X POST https://api.qcode.cc/openai/v1/chat/completions \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"claude-sonnet-4-6","messages":[{"role":"user","content":"ping"}],"max_tokens":32}'
返回 JSON 含 choices[0].message.content 即接入成功。然后启动 deepseek-tui:
deepseek
输入一句 prompt,看到 Claude 风格的回答即大功告成。
六、运行模式¶
DeepSeek-TUI 三种模式,在 TUI 内用 /mode 命令切换:
| 模式 | 行为 | 适用场景 |
|---|---|---|
plan |
只读探索,AI 不能改文件 | 阅读代码 / 设计方案 |
agent |
多步工具调用,关键操作需用户批准 | 日常编码(推荐) |
yolo |
自动批准所有工具调用 | 受信任的 sandbox |
七、备用接入域¶
主域不稳定时切到其他区域,同一个 API Key 全部能用:
| 域名 | 面向 | base_url 写法 |
|---|---|---|
api.qcode.cc |
全球(Route 53 就近) | https://api.qcode.cc/openai/v1 |
103.236.53.153 |
中国大陆 HTTP 直连 | http://103.236.53.153/openai/v1 |
us.qcode.cc |
北美备用 | https://us.qcode.cc/openai/v1 |
eu.qcode.cc |
欧洲备用 | https://eu.qcode.cc/openai/v1 |
asia.qcode.cc |
亚洲备用 | https://asia.qcode.cc/openai/v1 |
详见接入点与 API 格式。
八、常见问题¶
为什么后端跑的是 Claude 而不是 DeepSeek 模型?¶
QCode.cc 当前主营 Claude 和 Codex 模型中转,OpenAI 兼容端点 /openai/v1 后端接的是 Claude 系列。如果想跑 DeepSeek 官方模型,需要切回 DeepSeek-TUI 默认的 deepseek provider 并填 https://api.deepseek.com。
和 Claude Code、Codex CLI 是什么关系?¶
三者共享同一份 API Key 和配额:
- DeepSeek-TUI 走 OpenAI Chat Completions 协议(
/openai/v1) - Claude Code 走 Anthropic Messages 协议(
/api/v1/messages) - Codex CLI 走 OpenAI Responses 协议(
/openai/v1/responses)
后端在 QCode CRS 内部都映射到同一份 Claude 模型池。详见接入点与 API 格式。
base_url 末尾要不要 /?¶
不要带。DeepSeek-TUI 在 openai provider 下会自动拼 /chat/completions,带斜杠会拼成 //chat/completions 导致 404。
Function calling、SSE 流式能用吗?¶
能。DeepSeek-TUI 在 openai provider 下发送标准 OpenAI Chat Completions schema,QCode CRS 完整支持 tools / stream: true,与 OpenAI Python SDK 行为一致。
模型列表为空 / Model not found?¶
QCode 不暴露 DeepSeek-TUI 默认的 deepseek-v4-pro / deepseek-v4-flash,必须把 model 改成 QCode 支持的 Claude 模型 ID(如 claude-sonnet-4-6)。手动填入即可,无需从列表选择。
MCP / 子代理怎么配?¶
DeepSeek-TUI 的 MCP / 子代理配置与上游模型解耦——参考其官方 CONFIGURATION.md,QCode 不需要额外配置。
如何省 token?¶
- 用
plan模式先让 AI 阅读、再切到agent模式动手 - 简单任务用
claude-haiku-4-5-20251001模型 - 长任务定期
/compact清理上下文
下一步¶
- 查看接入点与 API 格式 了解 QCode 多协议路由全貌
- 查看 Cline 集成 / Aider 集成 了解 IDE 内插件方案
- 查看 Claude Code 完整教程 了解官方 CLI
- 访问 DeepSeek-TUI 官方仓库 了解最新功能