DeepSeek-TUI 統合
DeepSeek-TUI を QCode.cc に接続:OpenAI 互換 provider を経由してターミナルで Claude モデルを実行する
DeepSeek-TUI 統合¶
DeepSeek-TUI は最近爆発的に人気を集めているコマンドライン AI プログラミング Agent(10 日間で GitHub Star が 2.3 万を突破)で、OpenAI 互換 provider をネイティブにサポートしています。~/.deepseek/config.toml でデフォルト provider を切り替えることができ、provider = "openai" と書いて base_url と api_key を設定するだけで、バックエンドを任意の OpenAI Chat Completions 互換サービスに向けることが可能です。
本記事では DeepSeek-TUI を QCode.cc に接続し、使い慣れた TUI インターフェースでバックエンドの Claude モデルを実行する方法を解説します——ログイン不要、地域制限なし、Claude Code と同じ API キーとクォータを共有できます。
なぜ DeepSeek-TUI で QCode に接続するのか¶
- 使い慣れた TUI 体験:Plan / Agent / YOLO の 3 つの実行モード + 組み込み MCP / Shell / Git / サブエージェント
- 同一の API キー:Claude Code、Codex CLI と QCode プランのクォータを共有
- マルチ provider 切り替え:同じツール内で anthropic / ollama / vllm にいつでも切り替え可能、デバッグが便利
- 中国大陸に優しい:
103.236.53.153深セン直結 HTTP、最低レイテンシ - 完全オープンソース:MIT ライセンス、設定ファイルは監査可能
一、インストール¶
いずれかを選択(公式 INSTALL.md):
# npm(最もおすすめ、プラットフォーム別バイナリを自動ダウンロード)
npm install -g deepseek-tui
# Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
# Scoop(Windows)
scoop install deepseek-tui
# Cargo(ソースからビルド)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked
インストールの確認:
deepseek --version
二、~/.deepseek/config.toml の設定¶
デフォルト provider を openai に切り替え、[providers.openai] サブテーブルで QCode.cc を指定します:
# ~/.deepseek/config.toml
provider = "openai"
[providers.openai]
api_key = "cr_your_qcode_api_key"
base_url = "https://api.qcode.cc/openai/v1"
model = "claude-sonnet-4-6"
フィールド説明:
| フィールド | 説明 |
|---|---|
provider |
トップレベルの "openai" はデフォルトで OpenAI 互換 provider を使うことを表します |
api_key |
QCode.cc コンソールで取得、cr_ で始まります |
base_url |
末尾のスラッシュを付けないでください——DeepSeek-TUI は自動的に /chat/completions を連結するので、スラッシュを付けると //chat/completions になり 404 になります |
model |
QCode が公開する Claude モデル ID(下記「利用可能なモデル」を参照) |
中国大陸のユーザーは HTTP 直結に変更します(probe.qcode.cc のリクエスト検索をサポートする唯一のエンドポイント):
[providers.openai]
api_key = "cr_your_qcode_api_key"
base_url = "http://103.236.53.153/openai/v1"
model = "claude-sonnet-4-6"
三、環境変数による代替方式¶
設定ファイルを書きたくない場合は、環境変数を直接使えます:
export OPENAI_API_KEY="cr_your_qcode_api_key"
export OPENAI_BASE_URL="https://api.qcode.cc/openai/v1"
export OPENAI_MODEL="claude-sonnet-4-6"
deepseek --provider openai
永続的に設定する場合は ~/.zshrc または ~/.bashrc に追記してください。
四、利用可能なモデル¶
QCode の OpenAI 互換エンドポイントは Claude シリーズ全体を公開しています:
| モデル ID | 用途のおすすめ |
|---|---|
claude-opus-4-6 |
重量級プランニング / 複雑なアーキテクチャ設計 |
claude-sonnet-4-6 |
日常的なコーディング(推奨) |
claude-haiku-4-5-20251001 |
高速な小タスク / 低コストシーン |
完全なリストは curl でリアルタイムに取得できます:
curl https://api.qcode.cc/openai/v1/models \
-H "Authorization: Bearer $OPENAI_API_KEY"
五、接続の確認¶
まず curl でパスと認証を確認します:
# パスの疎通性(401 が返れば、パスは通っており auth header が無いだけ)
curl -X POST https://api.qcode.cc/openai/v1/chat/completions
# キー付きエンドツーエンド
curl -X POST https://api.qcode.cc/openai/v1/chat/completions \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"claude-sonnet-4-6","messages":[{"role":"user","content":"ping"}],"max_tokens":32}'
レスポンス JSON に choices[0].message.content が含まれていれば接続成功です。続いて deepseek-tui を起動します:
deepseek
プロンプトを 1 行入力し、Claude スタイルの返答が表示されれば完了です。
六、実行モード¶
DeepSeek-TUI は 3 つのモードを備え、TUI 内で /mode コマンドで切り替えます:
| モード | 動作 | 用途 |
|---|---|---|
plan |
読み取り専用の探索、AI はファイルを変更できません | コードを読む / 設計を立てる |
agent |
複数ステップのツール呼び出し、重要操作はユーザー承認が必要 | 日常コーディング(推奨) |
yolo |
すべてのツール呼び出しを自動承認 | 信頼された sandbox |
七、バックアップ接続ドメイン¶
メインドメインが不安定な場合は他のリージョンに切り替えてください、同一の API キーですべて利用可能です:
| ドメイン | 対象 | base_url の書き方 |
|---|---|---|
api.qcode.cc |
グローバル(Route 53 で最寄り) | https://api.qcode.cc/openai/v1 |
103.236.53.153 |
中国大陸 HTTP 直結 | http://103.236.53.153/openai/v1 |
us.qcode.cc |
北米バックアップ | https://us.qcode.cc/openai/v1 |
eu.qcode.cc |
ヨーロッパバックアップ | https://eu.qcode.cc/openai/v1 |
asia.qcode.cc |
アジアバックアップ | https://asia.qcode.cc/openai/v1 |
詳細は接続エンドポイントと API フォーマットを参照してください。
八、よくある質問¶
なぜバックエンドで動くのが DeepSeek モデルではなく Claude なのですか?¶
QCode.cc は現在 Claude と Codex モデルの中継を主業務としており、OpenAI 互換エンドポイント /openai/v1 のバックエンドは Claude シリーズに接続されています。DeepSeek 公式モデルを使いたい場合は、DeepSeek-TUI デフォルトの deepseek provider に戻し、https://api.deepseek.com を指定してください。
Claude Code、Codex CLI との関係は?¶
3 つは同じ API キーとクォータを共有します:
- DeepSeek-TUI は OpenAI Chat Completions プロトコル(
/openai/v1)を使用 - Claude Code は Anthropic Messages プロトコル(
/api/v1/messages)を使用 - Codex CLI は OpenAI Responses プロトコル(
/openai/v1/responses)を使用
バックエンドは QCode CRS 内部ですべて同じ Claude モデルプールにマッピングされます。詳細は接続エンドポイントと API フォーマットを参照してください。
base_url の末尾に / は必要ですか?¶
付けないでください。DeepSeek-TUI は openai provider の下で自動的に /chat/completions を連結するため、スラッシュを付けると //chat/completions になり 404 になります。
Function calling、SSE ストリーミングは使えますか?¶
使えます。DeepSeek-TUI は openai provider の下で標準の OpenAI Chat Completions スキーマを送信し、QCode CRS は tools / stream: true を完全にサポートしており、OpenAI Python SDK と同じ挙動になります。
モデルリストが空 / Model not found になる場合は?¶
QCode は DeepSeek-TUI デフォルトの deepseek-v4-pro / deepseek-v4-flash を公開していないため、model を QCode がサポートする Claude モデル ID(例:claude-sonnet-4-6)に変更する必要があります。手動で入力すれば良く、リストからの選択は不要です。
MCP / サブエージェントはどう設定しますか?¶
DeepSeek-TUI の MCP / サブエージェント設定は上流モデルから切り離されています——公式 CONFIGURATION.md を参照してください、QCode 側で追加設定は不要です。
トークンを節約するには?¶
- まず
planモードで AI に読ませ、その後agentモードに切り替えて作業 - 簡単なタスクには
claude-haiku-4-5-20251001モデルを使う - 長いタスクでは定期的に
/compactでコンテキストを整理する
次のステップ¶
- 接続エンドポイントと API フォーマットで QCode のマルチプロトコルルーティングの全体像を確認
- Cline 連携 / Aider 連携 で IDE 内プラグイン方式を確認
- Claude Code 完全チュートリアルで公式 CLI を確認
- DeepSeek-TUI 公式リポジトリで最新機能を確認