モデル選択ガイド
新しいモデルが頻繁にリリースされるため、このガイドでは現在Clineでよく機能しているものに焦点を当てています。状況の変化に応じて定期的に更新していきます。
現在のトップモデル
モデル | コンテキストウィンドウ | 入力価格* | 出力価格* | 最適な用途 |
---|---|---|---|---|
Claude Sonnet 4 | 1M tokens | $3-6 | $15-22.50 | 信頼性の高いツール使用、複雑なコードベース |
Qwen3 Coder | 256K tokens | $0.20 | $0.80 | コーディングタスク、オープンソースの柔軟性 |
Gemini 2.5 Pro | 1M+ tokens | TBD | TBD | 大規模なコードベース、ドキュメント解析 |
GPT-5 | 400K tokens | $1.25 | $10 | 最新のOpenAI技術、3つのモード |
*100万トークンあたり
予算重視のオプション
モデル | コンテキストウィンドウ | 入力価格* | 出力価格* | 備考 |
---|---|---|---|---|
DeepSeek V3 | 128K tokens | $0.14 | $0.28 | 日常的なコーディングに優れたコストパフォーマンス |
DeepSeek R1 | 128K tokens | $0.55 | $2.19 | 予算に優しい推論チャンピオン |
Qwen3 32B | 128K tokens | 可変 | 可変 | オープンソース、複数のプロバイダー |
Z AI GLM 4.5 | 128K tokens | TBD | TBD | MITライセンス、ハイブリッド推論 |
*100万トークンあたり
コンテキストウィンドウガイド
サイズ | 単語数 | 使用ケース |
---|---|---|
32K tokens | ~24,000語 | 単一ファイル、小規模プロジェクト |
128K tokens | ~96,000語 | 一般的なコーディングプロジェクト |
200K tokens | ~150,000語 | 大規模なコードベース |
400K+ tokens | ~300,000語以上 | アプリケーション全体 |
パフォーマンス注意: ほとんどのモデルは、より高い制限を謳っていても、400-500Kトークン付近で品質が低下し始めます。
オープンソース vs クローズドソース
オープンソースの利点
- 複数のプロバイダーがホスティングを競争
- 競争による安価な価格設定
- プロバイダーの選択肢 - 一つがダウンしても切り替え可能
- より速いイノベーションサイクル
利用可能なオープンソースモデル
- Qwen3 Coder (Apache 2.0)
- Z AI GLM 4.5 (MIT)
- Kimi K2 (オープンソース)
- DeepSeekシリーズ (各種ライセンス)
クイック決定マトリックス
求めるもの | 使用するモデル |
---|---|
とにかく動くもの | Claude Sonnet 4 |
費用を節約したい | DeepSeek V3またはQwen3バリアント |
大きなコンテキストウィンドウ | Gemini 2.5 ProまたはClaude Sonnet 4 |
オープンソース | Qwen3 Coder、Z AI GLM 4.5、またはKimi K2 |
最新技術 | GPT-5 |
速度 | Qwen3 Coder on Cerebras(利用可能な最速) |
他のユーザーの利用状況
OpenRouterのCline利用統計をチェックして、コミュニティの実際の利用パターンを確認してください。
コンテキスト管理
Clineはauto-compact機能でコンテキスト制限を自動的に処理します。モデルの制限に近づくと、Clineが会話を要約して作業を続行します。これを細かく管理する必要はありません。
まとめ
信頼性を求めるならClaude Sonnet 4から始めてください。慣れてきたらオープンソースオプションを試して、ワークフローと予算に最適なものを見つけてください。
この分野は変化が早く、これらの推奨事項は現在機能しているものを反映していますが、新しいリリースにも注意を払ってください。