DeepSeek-TUI 集成

把 DeepSeek-TUI 接到 QCode.cc:通过 OpenAI 兼容 provider 在终端跑 Claude 模型

DeepSeek-TUI 集成

DeepSeek-TUI 是近期爆红的命令行 AI 编程 Agent(10 天 GitHub Star 突破 2.3 万),原生支持 OpenAI 兼容 provider。它在 ~/.deepseek/config.toml 里允许你切换默认 provider,只需写 provider = "openai" 再配置 base_urlapi_key,就能把后端指向任何 OpenAI Chat Completions 兼容服务。

本文教你把 DeepSeek-TUI 接到 QCode.cc,用熟悉的 TUI 界面在后端跑 Claude 模型——免登录、无地区限制、与 Claude Code 共享同一份 API Key 和配额。

为什么用 DeepSeek-TUI 接 QCode

  • 熟悉的 TUI 体验:Plan / Agent / YOLO 三种运行模式 + 内置 MCP / Shell / Git / 子代理
  • 同一份 API Key:与 Claude Code、Codex CLI 共享 QCode 套餐配额
  • 多 provider 切换:同一个工具里随时切到 anthropic / ollama / vllm,调试便利
  • 中国大陆友好103.236.53.153 深圳直连 HTTP,延迟最低
  • 完全开源:MIT 协议,配置文件可审计

一、安装

任选其一(官方 INSTALL.md):

# npm(最推荐,自动下载平台二进制)
npm install -g deepseek-tui

# Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui

# Scoop(Windows)
scoop install deepseek-tui

# Cargo(从源码构建)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked

验证安装:

deepseek --version

二、配置 ~/.deepseek/config.toml

把默认 provider 切到 openai,并在 [providers.openai] 子表里指向 QCode.cc:

# ~/.deepseek/config.toml

provider = "openai"

[providers.openai]
api_key  = "cr_your_qcode_api_key"
base_url = "https://api.qcode.cc/openai/v1"
model    = "claude-sonnet-4-6"

字段说明:

字段 说明
provider 顶级 "openai" 表示默认走 OpenAI 兼容 provider
api_key QCode.cc 控制台获取,cr_ 开头
base_url 不要带尾部斜杠——DeepSeek-TUI 会自拼 /chat/completions,带斜杠会拼成 //chat/completions 导致 404
model QCode 暴露的 Claude 模型 ID(见下方"可用模型")

中国大陆用户改成 HTTP 直连(唯一支持 probe.qcode.cc 请求查询的端点):

[providers.openai]
api_key  = "cr_your_qcode_api_key"
base_url = "http://103.236.53.153/openai/v1"
model    = "claude-sonnet-4-6"

三、环境变量替代方式

不想写配置文件可直接用环境变量:

export OPENAI_API_KEY="cr_your_qcode_api_key"
export OPENAI_BASE_URL="https://api.qcode.cc/openai/v1"
export OPENAI_MODEL="claude-sonnet-4-6"

deepseek --provider openai

永久设置追加到 ~/.zshrc~/.bashrc 即可。

四、可用模型

QCode 的 OpenAI 兼容端点暴露 Claude 全系:

模型 ID 用途建议
claude-opus-4-6 重型规划 / 复杂架构设计
claude-sonnet-4-6 日常编码(推荐
claude-haiku-4-5-20251001 快速小任务 / 低成本场景

完整列表用 curl 实时查询:

curl https://api.qcode.cc/openai/v1/models \
  -H "Authorization: Bearer $OPENAI_API_KEY"

五、验证连通

先用 curl 验证路径与认证:

# 路径连通性(应返回 401,路径通了只是缺 auth header)
curl -X POST https://api.qcode.cc/openai/v1/chat/completions

# 带 Key 端到端
curl -X POST https://api.qcode.cc/openai/v1/chat/completions \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model":"claude-sonnet-4-6","messages":[{"role":"user","content":"ping"}],"max_tokens":32}'

返回 JSON 含 choices[0].message.content 即接入成功。然后启动 deepseek-tui:

deepseek

输入一句 prompt,看到 Claude 风格的回答即大功告成。

六、运行模式

DeepSeek-TUI 三种模式,在 TUI 内用 /mode 命令切换:

模式 行为 适用场景
plan 只读探索,AI 不能改文件 阅读代码 / 设计方案
agent 多步工具调用,关键操作需用户批准 日常编码(推荐
yolo 自动批准所有工具调用 受信任的 sandbox

七、备用接入域

主域不稳定时切到其他区域,同一个 API Key 全部能用

域名 面向 base_url 写法
api.qcode.cc 全球(Route 53 就近) https://api.qcode.cc/openai/v1
103.236.53.153 中国大陆 HTTP 直连 http://103.236.53.153/openai/v1
us.qcode.cc 北美备用 https://us.qcode.cc/openai/v1
eu.qcode.cc 欧洲备用 https://eu.qcode.cc/openai/v1
asia.qcode.cc 亚洲备用 https://asia.qcode.cc/openai/v1

详见接入点与 API 格式

八、常见问题

为什么后端跑的是 Claude 而不是 DeepSeek 模型?

QCode.cc 当前主营 Claude 和 Codex 模型中转,OpenAI 兼容端点 /openai/v1 后端接的是 Claude 系列。如果想跑 DeepSeek 官方模型,需要切回 DeepSeek-TUI 默认的 deepseek provider 并填 https://api.deepseek.com

和 Claude Code、Codex CLI 是什么关系?

三者共享同一份 API Key 和配额:

  • DeepSeek-TUI 走 OpenAI Chat Completions 协议(/openai/v1
  • Claude Code 走 Anthropic Messages 协议(/api/v1/messages
  • Codex CLI 走 OpenAI Responses 协议(/openai/v1/responses

后端在 QCode CRS 内部都映射到同一份 Claude 模型池。详见接入点与 API 格式

base_url 末尾要不要 /

不要带。DeepSeek-TUI 在 openai provider 下会自动拼 /chat/completions,带斜杠会拼成 //chat/completions 导致 404。

Function calling、SSE 流式能用吗?

能。DeepSeek-TUI 在 openai provider 下发送标准 OpenAI Chat Completions schema,QCode CRS 完整支持 tools / stream: true,与 OpenAI Python SDK 行为一致。

模型列表为空 / Model not found?

QCode 不暴露 DeepSeek-TUI 默认的 deepseek-v4-pro / deepseek-v4-flash,必须把 model 改成 QCode 支持的 Claude 模型 ID(如 claude-sonnet-4-6)。手动填入即可,无需从列表选择。

MCP / 子代理怎么配?

DeepSeek-TUI 的 MCP / 子代理配置与上游模型解耦——参考其官方 CONFIGURATION.md,QCode 不需要额外配置。

如何省 token?

  • plan 模式先让 AI 阅读、再切到 agent 模式动手
  • 简单任务用 claude-haiku-4-5-20251001 模型
  • 长任务定期 /compact 清理上下文

下一步

相关文档

Подключение редактора Cursor
Подключите QCode.cc в Cursor IDE через пользовательские эндпоинты Anthropic / OpenAI; поддерживаются Agents Window и Design Mode из Cursor v3
Подключение редактора Zed
Подключите QCode.cc к Claude Code в редакторе Zed через Agent Client Protocol (ACP) и используйте agent panel с Opus 4.7 и контекстом 1M
Подключение Claude Desktop
Настройте QCode.cc как сторонний шлюз вывода в режиме разработчика Claude Desktop и используйте единую квоту QCode
🚀
开始使用 QCode — Claude Code & Codex
一份套餐同时加速 Claude Code 和 Codex,亚太低延迟
查看套餐定价 → 注册账号
团队 3 人以上?
企业团队版:独立域名 + 子Key管理 + 封号保障,人均低至 ¥250/月
了解企业版 →