计费说明
了解 QCode.cc 的计费方式、定价数据来源和费用计算逻辑
计费说明¶
本文档详细介绍 QCode.cc 的计费方式和定价逻辑,帮助你了解费用是如何计算的。
计费原理¶
QCode.cc 基于 token 用量 进行计费。每次调用 AI 模型时,费用由两部分组成:
-
输入 tokens(Input Tokens):你发送给模型的内容,包括提示词、上下文、文件内容等
-
输出 tokens(Output Tokens):模型生成的回复内容
什么是 Token? Token 是模型处理文本的基本单位。英文中,1 个 token 大约对应 4 个字符或 ¾ 个单词;中文中,1 个汉字通常对应 1-2 个 token。
费用计算公式:
总费用 = 输入 tokens × 输入单价 + 输出 tokens × 输出单价
定价数据来源¶
为什么不直接使用官方价格?¶
Anthropic 和 OpenAI 等模型厂商公示的是 API 调用的标价,但并未公开其内部 token 统计的完整计算规则(例如:系统提示词是否计入、tool use 的 token 如何统计、缓存命中如何计价等)。这导致直接按官方标价估算的费用与实际账单之间存在差异。
LiteLLM 开源定价表¶
为了确保计费的透明性和公允性,QCode.cc 采用业界广泛认可的开源项目 LiteLLM 维护的模型定价表作为计费基准:
数据源地址: github.com/BerriAI/litellm/model_prices_and_context_window.json
为什么选择 LiteLLM?
-
行业标准:LiteLLM 是最流行的 LLM API 代理网关之一,被数千家企业和开发者使用
-
社区维护:定价数据由开源社区持续维护和验证,确保准确性
-
覆盖全面:涵盖 Anthropic、OpenAI、Google 等主流模型厂商的所有模型
-
公开透明:所有数据公开在 GitHub 上,任何人都可以查看和验证
-
及时更新:模型厂商调价后,社区会及时更新定价数据
主要模型定价参考¶
以下是常用模型的定价(单位:美元 / 百万 tokens):
Claude 系列(Anthropic)¶
| 模型 | 输入价格 | 输出价格 | 缓存写入 | 缓存读取 |
|---|---|---|---|---|
| claude-opus-4-6 | $5.00 | $25.00 | $6.25 | $0.50 |
| claude-sonnet-4-6 | $3.00 | $15.00 | $3.75 | $0.30 |
| claude-opus-4-5-20251101 | $5.00 | $25.00 | $6.25 | $0.50 |
| claude-sonnet-4-5-20250929 | $3.00 | $15.00 | $3.75 | $0.30 |
| claude-haiku-4-5-20251001 | $1.00 | $5.00 | $1.25 | $0.10 |
GPT / Codex 系列(OpenAI)¶
| 模型 | 输入价格 | 输出价格 | 缓存读取 |
|---|---|---|---|
| gpt-5.3-codex | $1.75 | $14.00 | $0.175 |
| gpt-5.2-codex | $1.75 | $14.00 | $0.175 |
| gpt-5.2-2025-12-11 | $1.75 | $14.00 | $0.175 |
注意:以上价格来自 LiteLLM 定价表,可能随厂商调价而变化。最新价格请参考 LiteLLM 数据源。gpt-5.3-codex 为最新模型,LiteLLM 尚未单独收录,此处参照同系列 gpt-5.2-codex 的定价。
关于缓存定价¶
部分模型(如 Claude 系列)支持 Prompt Caching,即对重复使用的上下文内容进行缓存。缓存相关定价:
-
缓存写入(Cache Write):首次将内容写入缓存的费用,通常略高于普通输入价格
-
缓存读取(Cache Read):命中缓存时的费用,通常为普通输入价格的 10% 左右
缓存机制可以显著降低重复上下文场景下的使用成本。
计费示例¶
假设你使用 claude-sonnet-4-5-20250929 进行一次代码问答:
| 项目 | 数量 | 单价 | 费用 |
|---|---|---|---|
| 输入 tokens | 5,000 | $3.00 / 百万 | $0.015 |
| 输出 tokens | 2,000 | $15.00 / 百万 | $0.030 |
| 合计 | $0.045 |
实际使用中,Claude Code 的一次完整交互通常包含多轮 API 调用(分析代码、生成方案、执行操作等),因此实际费用会高于单次调用。
价格更新机制¶
-
QCode.cc 定期同步 LiteLLM 的最新定价数据
-
当模型厂商宣布调价后,LiteLLM 社区会及时更新数据源,我们会随之同步
-
价格更新对已产生的历史费用没有影响,仅影响更新后的新用量
如何查看用量¶
Dashboard(推荐)¶
登录 QCode.cc 控制台,在「使用统计」页面可以查看:
-
模型调用明细:每次调用的模型、token 数量和费用
-
费用汇总:按日、按月的费用统计
-
套餐消耗进度:当前订阅套餐的配额使用情况
CLI 内查看¶
在 Claude Code 中使用 /cost 命令快速查看当前会话的用量概况:
/cost
提示:
/cost显示的费用为概估值,建议以 Dashboard 数据为准。
常见问题¶
你们的价格和官方价格一样吗?¶
我们的 token 单价直接取自 LiteLLM 开源定价表,与各厂商公示的 API 标价一致。差异主要体现在 token 统计方式上——厂商内部的 token 计数规则并未完全公开,因此可能与 CLI 自带的 /cost 估算存在微小差异。
定价数据多久更新一次?¶
我们定期与 LiteLLM 数据源同步。通常在厂商宣布调价后数日内完成更新。
如何自行验证价格?¶
你可以直接查看 LiteLLM 的定价数据源:
-
搜索你使用的模型名称(如
claude-sonnet-4-5-20250929) -
查看
input_cost_per_token和output_cost_per_token字段 -
将单 token 价格乘以 1,000,000 即为每百万 tokens 的价格
为什么选择第三方定价表而不是自定义价格?¶
选择公开、透明的第三方数据源是为了确保公允性。LiteLLM 的定价表由社区共同维护,任何人都可以审查和验证,避免了定价争议。
企业用户:QCode 企业团队版支持对公转账和正规增值税发票,可签署正式服务协议。人均低至 ¥320/月,详见 企业版指南 或咨询 qcode.cc/enterprise。