모델 선택 가이드
새로운 모델이 끊임없이 출시되므로, 이 가이드는 현재 Cline과 잘 작동하는 모델에 중점을 둡니다. 상황이 변함에 따라 계속 업데이트할 것입니다.
현재 최고 모델
모델 | 컨텍스트 창 | 입력 가격* | 출력 가격* | 최적 용도 |
---|---|---|---|---|
Claude Sonnet 4 | 1M 토큰 | $3-6 | $15-22.50 | 안정적인 도구 사용, 복잡한 코드베이스 |
Qwen3 Coder | 256K 토큰 | $0.20 | $0.80 | 코딩 작업, 오픈 소스 유연성 |
Gemini 2.5 Pro | 1M+ 토큰 | 미정 | 미정 | 대규모 코드베이스, 문서 분석 |
GPT-5 | 400K 토큰 | $1.25 | $10 | 최신 OpenAI 기술, 세 가지 모드 |
*백만 토큰당
예산 옵션
모델 | 컨텍스트 창 | 입력 가격* | 출력 가격* | 참고 |
---|---|---|---|---|
DeepSeek V3 | 128K 토큰 | $0.14 | $0.28 | 일상적인 코딩에 탁월한 가치 |
DeepSeek R1 | 128K 토큰 | $0.55 | $2.19 | 예산 추론 챔피언 |
Qwen3 32B | 128K 토큰 | 가변 | 가변 | 오픈 소스, 여러 공급자 |
Z AI GLM 4.5 | 128K 토큰 | 미정 | 미정 | MIT 라이선스, 하이브리드 추론 |
*백만 토큰당
컨텍스트 창 가이드
크기 | 단어 수 | 사용 사례 |
---|---|---|
32K 토큰 | ~24,000 단어 | 단일 파일, 작은 프로젝트 |
128K 토큰 | ~96,000 단어 | 대부분의 코딩 프로젝트 |
200K 토큰 | ~150,000 단어 | 대규모 코드베이스 |
400K+ 토큰 | ~300,000+ 단어 | 전체 애플리케이션 |
성능 참고: 대부분의 모델은 더 높은 제한을 주장하더라도 400-500K 토큰 부근에서 품질이 저하되기 시작합니다.
오픈 소스 vs 클로즈드 소스
오픈 소스 장점
- 여러 공급자가 호스팅 경쟁
- 경쟁으로 인한 저렴한 가격
- 공급자 선택 - 하나가 다운되면 전환 가능
- 더 빠른 혁신 주기
사용 가능한 오픈 소스 모델
- Qwen3 Coder (Apache 2.0)
- Z AI GLM 4.5 (MIT)
- Kimi K2 (오픈 소스)
- DeepSeek 시리즈 (다양한 라이선스)
빠른 결정 매트릭스
원한다면... | 이것을 사용하십시오 |
---|---|
그냥 작동하는 것 | Claude Sonnet 4 |
돈을 절약하고 싶다면 | DeepSeek V3 또는 Qwen3 변형 |
거대한 컨텍스트 창 | Gemini 2.5 Pro 또는 Claude Sonnet 4 |
오픈 소스 | Qwen3 Coder, Z AI GLM 4.5 또는 Kimi K2 |
최신 기술 | GPT-5 |
속도 | Cerebras의 Qwen3 Coder (가장 빠른 사용 가능) |
다른 사람들이 사용하는 것
커뮤니티의 실제 사용 패턴을 보려면 OpenRouter의 Caret 사용 통계를 확인하십시오.
컨텍스트 관리
Cline은 자동 압축으로 컨텍스트 제한을 자동으로 처리합니다. 모델의 제한에 가까워지면 Cline은 대화를 요약하여 작업을 계속합니다. 이를 세세하게 관리할 필요가 없습니다.
결론
안정성을 원한다면 Claude Sonnet 4로 시작하십시오. 워크플로 및 예산에 가장 적합한 것을 찾기 위해 익숙해지면 오픈 소스 옵션을 실험해 보십시오.
상황은 빠르게 변합니다. 이 권장 사항은 현재 작동하는 것을 반영하지만, 새로운 릴리스에 계속 주시하십시오.