模型选择指南
新模型不断发布,因此本指南重点关注目前与 Caret 配合良好的模型。随着形势变化,我们会持续更新。
当前顶级模型
模型 | 上下文窗口 | 输入价格* | 输出价格* | 最适合 |
---|---|---|---|---|
Claude Sonnet 4 | 1M tokens | $3-6 | $15-22.50 | 可靠的工具使用,复杂代码库 |
Qwen3 Coder | 256K tokens | $0.20 | $0.80 | 编程任务,开源灵活性 |
Gemini 2.5 Pro | 1M+ tokens | TBD | TBD | 大型代码库,文档分析 |
GPT-5 | 400K tokens | $1.25 | $10 | 最新 OpenAI 技术,三种模式 |
*每百万令牌
预算选项
模型 | 上下文窗口 | 输入价格* | 输出价格* | 注释 |
---|---|---|---|---|
DeepSeek V3 | 128K tokens | $0.14 | $0.28 | 日常编程的极佳价值 |
DeepSeek R1 | 128K tokens | $0.55 | $2.19 | 预算推理冠军 |
Qwen3 32B | 128K tokens | 不等 | 不等 | 开源,多个提供商 |
Z AI GLM 4.5 | 128K tokens | TBD | TBD | MIT许可,混合推理 |
*每百万令牌
上下文窗口指南
大小 | 字数 | 用例 |
---|---|---|
32K tokens | ~24,000 字 | 单个文件,小项目 |
128K tokens | ~96,000 字 | 大多数编程项目 |
200K tokens | ~150,000 字 | 大型代码库 |
400K+ tokens | ~300,000+ 字 | 完整应用程序 |
性能注意:大多数模型在 400-500K tokens 左右开始质量下降,即使它们声称有更高的限制。
开源 vs 闭源
开源优势
- 多个提供商 竞争托管它们
- 更便宜的价格 由于竞争
- 提供商选择 - 如果一个宕机可以切换
- 更快的创新 周期
可用的开源模型
- Qwen3 Coder (Apache 2.0)
- Z AI GLM 4.5 (MIT)
- Kimi K2 (开源)
- DeepSeek 系列 (各种许可证)
快速决策矩阵
如果您想要... | 使用这个 |
---|---|
开箱即用的东西 | Claude Sonnet 4 |
节省金钱 | DeepSeek V3 或 Qwen3 变体 |
巨大的上下文窗口 | Gemini 2.5 Pro 或 Claude Sonnet 4 |
开源 | Qwen3 Coder, Z AI GLM 4.5, 或 Kimi K2 |
最新技术 | GPT-5 |
速度 | Qwen3 Coder on Cerebras(最快可用) |
其他人在使用什么
查看 OpenRouter 的 Caret 使用统计 了解社区的真实使用模式。
上下文管理
Caret 使用自动压缩自动处理上下文限制。当您接近模型的限制时,Caret 会总结对话以继续工作。您无需微管理这个过程。
结论
如果您想要可靠性,请从 Claude Sonnet 4 开始。一旦熟悉后,尝试开源选项以找到最适合您工作流程和预算的选择。
形势变化很快——这些建议反映了目前有效的选择,但要留意新版本的发布。