Skip to main content

Ollama

📋 전제 조건

  • Windows, macOS 또는 Linux 컴퓨터
  • VS Code에 Caret 설치

🚀 설정 단계

1. Ollama 설치

  • ollama.com 방문

  • 운영 체제에 맞는 버전 다운로드 및 설치

    Ollama 다운로드 페이지

2. 모델 선택 및 다운로드

  • ollama.com/search에서 모델 탐색

  • 모델 선택 및 명령 복사:

    ollama run [model-name]
    Ollama에서 모델 선택
  • 터미널을 열고 명령 실행:

    • 예시:

      ollama run llama2
    터미널에서 Ollama 실행

✨ 이제 Cline에서 모델을 사용할 준비가 되었습니다!

3. Caret 구성

  1. VS Code 열기

  2. Caret 설정 아이콘 클릭

  3. API 공급자로 "Ollama" 선택

  4. 구성 입력:

    • 기본 URL: http://localhost:11434/ (기본값, 그대로 둘 수 있음)
    • 사용 가능한 옵션에서 모델 선택
    Ollama로 Caret 구성

⚠️ 중요 참고 사항

  • Cline과 함께 사용하기 전에 Ollama를 시작하세요.
  • Ollama를 백그라운드에서 계속 실행하세요.
  • 첫 모델 다운로드는 몇 분이 걸릴 수 있습니다.

🔧 문제 해결

Cline이 Ollama에 연결할 수 없는 경우:

  1. Ollama가 실행 중인지 확인합니다.
  2. 기본 URL이 올바른지 확인합니다.
  3. 모델이 다운로드되었는지 확인합니다.

더 많은 정보가 필요하세요? Ollama 문서를 읽어보세요.