Skip to main content

Ollama

Cline은 Ollama를 사용하여 로컬에서 모델을 실행하는 것을 지원합니다. 이 접근 방식은 개인 정보 보호, 오프라인 액세스 및 잠재적으로 비용 절감 효과를 제공합니다. 초기 설정과 충분히 강력한 컴퓨터가 필요합니다. 현재 소비자 하드웨어의 상태로 인해 평균 하드웨어 구성에서는 성능이 좋지 않을 가능성이 높으므로 Cline과 함께 Ollama를 사용하는 것은 권장되지 않습니다.

웹사이트: https://ollama.com/

Ollama 설정

  1. Ollama 다운로드 및 설치: Ollama 웹사이트에서 운영 체제에 맞는 Ollama 설치 프로그램을 다운로드하고 설치 가이드를 따르세요. Ollama가 실행 중인지 확인하세요. 일반적으로 다음 명령으로 시작할 수 있습니다.

    ollama serve
  2. 모델 다운로드: Ollama는 다양한 모델을 지원합니다. 사용 가능한 모델 목록은 Ollama 모델 라이브러리에서 찾을 수 있습니다. 코딩 작업에 권장되는 일부 모델은 다음과 같습니다.

    • codellama:7b-code (좋고 작은 시작점)
    • codellama:13b-code (더 나은 품질, 더 큰 크기 제공)
    • codellama:34b-code (훨씬 더 높은 품질, 매우 큰 크기 제공)
    • qwen2.5-coder:32b
    • mistralai/Mistral-7B-Instruct-v0.1 (견고한 범용 모델)
    • deepseek-coder:6.7b-base (코딩에 효과적)
    • llama3:8b-instruct-q5_1 (일반 작업에 적합)

    모델을 다운로드하려면 터미널을 열고 다음을 실행하세요.

    ollama pull <model_name>

    예를 들어:

    ollama pull qwen2.5-coder:32b
  3. 모델의 컨텍스트 창 구성: 기본적으로 Ollama 모델은 2048 토큰의 컨텍스트 창을 사용하며, 이는 많은 Caret 요청에 불충분할 수 있습니다. 적절한 결과를 위해서는 최소 12,000 토큰이 권장되며, 32,000 토큰이 이상적입니다. 이를 조정하려면 모델의 매개변수를 수정하고 새 버전으로 저장해야 합니다.

    먼저 모델을 로드합니다(qwen2.5-coder:32b를 예시로 사용).

    ollama run qwen2.5-coder:32b

    Ollama 대화형 세션 내에서 모델이 로드되면 컨텍스트 크기 매개변수를 설정합니다.

    /set parameter num_ctx 32768

    그런 다음 이 구성된 모델을 새 이름으로 저장합니다.

    /save your_custom_model_name

    (your_custom_model_name을 원하는 이름으로 바꾸세요.)

  4. Caret 구성:

    • Caret 사이드바(일반적으로 Caret 아이콘으로 표시됨)를 엽니다.
    • 설정 톱니바퀴 아이콘(⚙️)을 클릭합니다.
    • API 공급자로 "ollama"를 선택합니다.
    • 이전 단계에서 저장한 모델 이름(예: your_custom_model_name)을 입력합니다.
    • (선택 사항) Ollama가 다른 머신이나 포트에서 실행 중인 경우 기본 URL을 조정합니다. 기본값은 http://localhost:11434입니다.
    • (선택 사항) Cline의 고급 설정에서 모델 컨텍스트 크기를 구성합니다. 이는 Cline이 사용자 지정 Ollama 모델과 함께 컨텍스트 창을 효과적으로 관리하는 데 도움이 됩니다.

팁 및 참고 사항

  • 리소스 요구 사항: 대규모 언어 모델을 로컬에서 실행하는 것은 시스템 리소스에 많은 부담을 줄 수 있습니다. 컴퓨터가 선택한 모델의 요구 사항을 충족하는지 확인하세요.
  • 모델 선택: 다양한 모델을 실험하여 특정 작업 및 선호도에 가장 적합한 모델을 찾으세요.
  • 오프라인 기능: 모델을 다운로드한 후에는 인터넷 연결 없이도 해당 모델과 함께 Cline을 사용할 수 있습니다.
  • 토큰 사용량 추적: Cline은 Ollama를 통해 액세스하는 모델의 토큰 사용량을 추적하여 소비량을 모니터링할 수 있도록 합니다.
  • Ollama 자체 문서: 더 자세한 정보는 공식 Ollama 문서를 참조하세요.