Ollama
📋 전제 조건
- Windows, macOS 또는 Linux 컴퓨터
- VS Code에 Caret 설치
🚀 설정 단계
1. Ollama 설치
-
ollama.com 방문
-
운영 체제에 맞는 버전 다운로드 및 설치
2. 모델 선택 및 다운로드
-
ollama.com/search에서 모델 탐색
-
모델 선택 및 명령 복사:
ollama run [model-name]
-
터미널을 열고 명령 실행:
-
예시:
ollama run llama2
-
✨ 이제 Cline에서 모델을 사용할 준비가 되었습니다!
3. Caret 구성
-
VS Code 열기
-
Caret 설정 아이콘 클릭
-
API 공급자로 "Ollama" 선택
-
구성 입력:
- 기본 URL:
http://localhost:11434/
(기본값, 그대로 둘 수 있음) - 사용 가능한 옵션에서 모델 선택
- 기본 URL:
⚠️ 중요 참고 사항
- Cline과 함께 사용하기 전에 Ollama를 시작하세요.
- Ollama를 백그라운드에서 계속 실행하세요.
- 첫 모델 다운로드는 몇 분이 걸릴 수 있습니다.
🔧 문제 해결
Cline이 Ollama에 연결할 수 없는 경우:
- Ollama가 실행 중인지 확인합니다.
- 기본 URL이 올바른지 확인합니다.
- 모델이 다운로드되었는지 확인합니다.
더 많은 정보가 필요하세요? Ollama 문서를 읽어보세요.