计费说明

了解 QCode.cc 的计费方式、定价数据来源和费用计算逻辑

计费说明

本文档详细介绍 QCode.cc 的计费方式和定价逻辑,帮助你了解费用是如何计算的。

计费原理

QCode.cc 基于 token 用量 进行计费。每次调用 AI 模型时,费用由两部分组成:

  • 输入 tokens(Input Tokens):你发送给模型的内容,包括提示词、上下文、文件内容等

  • 输出 tokens(Output Tokens):模型生成的回复内容

什么是 Token? Token 是模型处理文本的基本单位。英文中,1 个 token 大约对应 4 个字符或 ¾ 个单词;中文中,1 个汉字通常对应 1-2 个 token。

费用计算公式:

总费用 = 输入 tokens × 输入单价 + 输出 tokens × 输出单价

定价数据来源

为什么不直接使用官方价格?

Anthropic 和 OpenAI 等模型厂商公示的是 API 调用的标价,但并未公开其内部 token 统计的完整计算规则(例如:系统提示词是否计入、tool use 的 token 如何统计、缓存命中如何计价等)。这导致直接按官方标价估算的费用与实际账单之间存在差异。

LiteLLM 开源定价表

为了确保计费的透明性和公允性,QCode.cc 采用业界广泛认可的开源项目 LiteLLM 维护的模型定价表作为计费基准:

数据源地址: github.com/BerriAI/litellm/model_prices_and_context_window.json

为什么选择 LiteLLM?

  • 行业标准:LiteLLM 是最流行的 LLM API 代理网关之一,被数千家企业和开发者使用

  • 社区维护:定价数据由开源社区持续维护和验证,确保准确性

  • 覆盖全面:涵盖 Anthropic、OpenAI、Google 等主流模型厂商的所有模型

  • 公开透明:所有数据公开在 GitHub 上,任何人都可以查看和验证

  • 及时更新:模型厂商调价后,社区会及时更新定价数据

主要模型定价参考

以下是常用模型的定价(单位:美元 / 百万 tokens):

Claude 系列(Anthropic)

模型 输入价格 输出价格 缓存写入 缓存读取
claude-opus-4-6 $5.00 $25.00 $6.25 $0.50
claude-sonnet-4-6 $3.00 $15.00 $3.75 $0.30
claude-opus-4-5-20251101 $5.00 $25.00 $6.25 $0.50
claude-sonnet-4-5-20250929 $3.00 $15.00 $3.75 $0.30
claude-haiku-4-5-20251001 $1.00 $5.00 $1.25 $0.10

GPT / Codex 系列(OpenAI)

模型 输入价格 输出价格 缓存读取
gpt-5.3-codex $1.75 $14.00 $0.175
gpt-5.2-codex $1.75 $14.00 $0.175
gpt-5.2-2025-12-11 $1.75 $14.00 $0.175

注意:以上价格来自 LiteLLM 定价表,可能随厂商调价而变化。最新价格请参考 LiteLLM 数据源。gpt-5.3-codex 为最新模型,LiteLLM 尚未单独收录,此处参照同系列 gpt-5.2-codex 的定价。

关于缓存定价

部分模型(如 Claude 系列)支持 Prompt Caching,即对重复使用的上下文内容进行缓存。缓存相关定价:

  • 缓存写入(Cache Write):首次将内容写入缓存的费用,通常略高于普通输入价格

  • 缓存读取(Cache Read):命中缓存时的费用,通常为普通输入价格的 10% 左右

缓存机制可以显著降低重复上下文场景下的使用成本。

计费示例

假设你使用 claude-sonnet-4-5-20250929 进行一次代码问答:

项目 数量 单价 费用
输入 tokens 5,000 $3.00 / 百万 $0.015
输出 tokens 2,000 $15.00 / 百万 $0.030
合计 $0.045

实际使用中,Claude Code 的一次完整交互通常包含多轮 API 调用(分析代码、生成方案、执行操作等),因此实际费用会高于单次调用。

价格更新机制

  • QCode.cc 定期同步 LiteLLM 的最新定价数据

  • 当模型厂商宣布调价后,LiteLLM 社区会及时更新数据源,我们会随之同步

  • 价格更新对已产生的历史费用没有影响,仅影响更新后的新用量

如何查看用量

Dashboard(推荐)

登录 QCode.cc 控制台,在「使用统计」页面可以查看:

  • 模型调用明细:每次调用的模型、token 数量和费用

  • 费用汇总:按日、按月的费用统计

  • 套餐消耗进度:当前订阅套餐的配额使用情况

CLI 内查看

在 Claude Code 中使用 /cost 命令快速查看当前会话的用量概况:

/cost

提示/cost 显示的费用为概估值,建议以 Dashboard 数据为准。

常见问题

你们的价格和官方价格一样吗?

我们的 token 单价直接取自 LiteLLM 开源定价表,与各厂商公示的 API 标价一致。差异主要体现在 token 统计方式上——厂商内部的 token 计数规则并未完全公开,因此可能与 CLI 自带的 /cost 估算存在微小差异。

定价数据多久更新一次?

我们定期与 LiteLLM 数据源同步。通常在厂商宣布调价后数日内完成更新。

如何自行验证价格?

你可以直接查看 LiteLLM 的定价数据源:

  1. 访问 model_prices_and_context_window.json

  2. 搜索你使用的模型名称(如 claude-sonnet-4-5-20250929

  3. 查看 input_cost_per_tokenoutput_cost_per_token 字段

  4. 将单 token 价格乘以 1,000,000 即为每百万 tokens 的价格

为什么选择第三方定价表而不是自定义价格?

选择公开、透明的第三方数据源是为了确保公允性。LiteLLM 的定价表由社区共同维护,任何人都可以审查和验证,避免了定价争议。


企业用户:QCode 企业团队版支持对公转账正规增值税发票,可签署正式服务协议。人均低至 ¥320/月,详见 企业版指南 或咨询 qcode.cc/enterprise

相关页面

🚀
开始使用 QCode — Claude Code & Codex
一份套餐同时加速 Claude Code 和 Codex,亚太低延迟
查看套餐定价 → 注册账号
团队 3 人以上?
企业团队版:独立域名 + 子Key管理 + 封号保障,人均低至 ¥250/月
了解企业版 →