料金について¶
このドキュメントでは、QCode.cc の料金体系と価格設定のロジックについて詳しく説明します。費用がどのように計算されるかを理解ことができます。
料金原理¶
QCode.cc は token 使用量 に基づいて請求を行います。AI モデルの每次呼び出しにおいて、費用は次の2つの部分で構成されます:
-
入力 tokens(Input Tokens):モデルに送信する内容で、プロンプト、コンテキスト、ファイル内容などが含まれます
-
出力 tokens(Output Tokens):モデルが生成した応答内容
Token とは? Token はモデルがテキストを処理する基本単位です。英語では、1 tokenは約4文字または¾語に相当します。中文では、1つの漢字は通常1〜2個の token に対応します。
費用計算式:
総費用 = 入力 tokens × 入力単価 + 出力 tokens × 出力単価
価格データソース¶
なぜ公式価格をそのまま使用しないのですか?¶
Anthropic や OpenAI などのモデルproviderは API 呼び出しの公示価格 を発表していますが、内部の token 統計の完全な計算規則(例如:システムプロンプトがカウントされるかどうか、tool use の token の統計方法、キャッシュヒット時の料金計算など)は公開していません。これにより、公式価格で見積もりった費用と実際の請求金額に差异が生じる可能性があります。
LiteLLM オープンソース価格表¶
請求の透明性と公平性を確保するため、QCode.cc は業界で広く認められているオープンソースプロジェクト LiteLLM がメンテナンスしているモデル価格表を料金基準として使用しています:
データソースURL: github.com/BerriAI/litellm/model_prices_and_context_window.json
LiteLLM を選んだ理由:
-
業界標準:LiteLLM は最も注目されている LLM API プロキシゲートウェイの一つで、数千の企業や開発者に使用されています
-
コミュニティメンテナンス:価格データはオープンソースコミュニティによって 지속적으로メンテナンスと検証が行われ、正確性を確保しています
-
カバー範囲が広い:Anthropic、OpenAI、Google などの主要モデルproviderのすべてのモデルをカバーしています
-
公開・透明:すべてのデータが GitHub で公開されており、誰であっても閲覧と検証を行うことができます
-
タイムリーな更新:モデルproviderが価格を調整した後、コミュニティはタイムリーに価格データを更新します
主要モデルの価格参考¶
以下はよく使用されるモデルの価格(単位:米ドル / 100万 tokens):
Claude シリーズ(Anthropic)¶
| モデル | 入力価格 | 出力価格 | キャッシュ書き込み | キャッシュ読み取り |
|---|---|---|---|---|
| claude-opus-4-6 | $5.00 | $25.00 | $6.25 | $0.50 |
| claude-sonnet-4-6 | $3.00 | $15.00 | $3.75 | $0.30 |
| claude-opus-4-5-20251101 | $5.00 | $25.00 | $6.25 | $0.50 |
| claude-sonnet-4-5-20250929 | $3.00 | $15.00 | $3.75 | $0.30 |
| claude-haiku-4-5-20251001 | $1.00 | $5.00 | $1.25 | $0.10 |
GPT / Codex シリーズ(OpenAI)¶
| モデル | 入力価格 | 出力価格 | キャッシュ読み取り |
|---|---|---|---|
| gpt-5.4 | $2.00 | $16.00 | $0.20 |
| gpt-5.4-pro (gpt-5.4 Pro) | $2.00 | $16.00 | $0.20 |
| gpt-5.4-codex | $2.00 | $16.00 | $0.20 |
| gpt-5.3-codex-spark | $1.75 | $14.00 | $0.175 |
| gpt-5.3-codex | $1.75 | $14.00 | $0.175 |
注意:上記の価格は LiteLLM 価格表からのもので、providerの价格調整によって変更される場合があります。最新価格は LiteLLM データソース を参照してください。gpt-5.4 シリーズは最新世代のモデルです。
キャッシュ価格について¶
一部のモデル(Claude シリーズなど)は Prompt Caching をサポートしており、繰り返し使用するコンテキスト内容をキャッシュします。キャッシュ関連の価格は以下の通りです:
-
キャッシュ書き込み(Cache Write):初めて内容をキャッシュに書き込む際の費用で、通常の入力価格よりやや高くなります
-
キャッシュ読み取り(Cache Read):キャッシュがヒットしたときの費用で、通常の入力価格の約10%程度です
キャッシュメカニズムにより、繰り返しコンテキストを使用するシナリオでのコストを大幅に削減できます。
料金例¶
claude-sonnet-4-5-20250929 を使用してコード>Q&Aを1回行った場合の例:
| 項目 | 数量 | 単価 | 費用 |
|---|---|---|---|
| 入力 tokens | 5,000 | $3.00 / 100万 | $0.015 |
| 出力 tokens | 2,000 | $15.00 / 100万 | $0.030 |
| 合計 | $0.045 |
実際の使用では、Claude Code の完全な1回の対話には通常複数の API 呼び出し(コード分析、プラン生成、操作実行など)が含まれるため、実際の費用は単一の呼び出しよりも高くなります。
価格更新メカニズム¶
-
QCode.cc は LiteLLM の最新価格データを定期的に同期します
-
モデルproviderが価格調整を発表した後、LiteLLM コミュニティはタイムリーにデータソースを更新し、私たちはそれに伴い同期します
-
価格の更新は既に発生した履歴費用に影響はなく、更新後の新しい使用量にのみ影響します
使用量の確認方法¶
Dashboard(推奨)¶
QCode.cc コンソール にログインし、「使用統計」ページで以下を確認できます:
-
モデル呼び出しの詳細:每次呼び出しのモデル、token 数、費用
-
費用サマリー:日別、月別の費用統計
-
プラン消費進捗:現在のサブスクリプションプランの配额使用状況
CLI 内での確認¶
Claude Code で /cost コマンドを使用して、現在のセッションの使用量概要をすばやく確認できます:
/cost
ヒント:
/costで表示される費用は概算値です。Dashboard のデータを正確にしてください。
よくある質問¶
価格は公式価格と同じですか?¶
私たちの token 単価は LiteLLM オープンソース価格表から直接取得しており、各providerが公示している API 価格と一致しています。差异は主に token 統計方法にあります——providerの内部 token 計算規則は完全には公開されていないため、CLI 組み込みの /cost 估算との間に小さな差异が生じる可能性があります。
価格データはどれくらいの頻度で更新されますか?¶
LiteLLM データソースと定期的に同期しています。通常、providerが価格調整を発表した後、数日以内に更新を完了します。
価格を自分で検証するにはどうすればいいですか?¶
LiteLLM の価格データソースを直接確認できます:
-
model_prices_and_context_window.json にアクセスします
-
使用しているモデル名(例如:
claude-sonnet-4-5-20250929)を検索します -
input_cost_per_tokenとoutput_cost_per_tokenフィールドを確認します -
1 token あたりの価格に 1,000,000 を掛けると、100万 tokens あたりの価格になります
なぜサードパーティの価格表を選び、カスタム価格にしないのですか?¶
公開・透明なサードパーティデータソースを選ぶのは、公平性を確保ためです。LiteLLM の価格表はコミュニティで共同メンテナンスされており、誰もがレビューと検証を行うことができ、価格に関する論争を避けることができます。