Skip to main content

Ollama

📋 前提条件

  • Windows、macOS、またはLinuxコンピューター
  • VS CodeにClineがインストール済み

🚀 設定手順

1. Ollamaをインストール

  • ollama.comにアクセス
  • お使いのオペレーティングシステム用をダウンロードしてインストール
Ollamaダウンロードページ

2. モデルを選択してダウンロード

  • ollama.com/searchでモデルを閲覧

  • モデルを選択してコマンドをコピー:

    ollama run [モデル名]
Ollamaでモデルを選択
  • ターミナルを開いてコマンドを実行:

    • 例:

      ollama run llama2
ターミナルでOllamaを実行

✨ モデルがCline内で使用できるようになりました!

3. Clineを設定

  1. VS Codeを開く
  2. Cline設定アイコンをクリック
  3. APIプロバイダーとして「Ollama」を選択
  4. 設定を入力:
    • Base URL: http://localhost:11434/(デフォルト値、そのままで可)
    • 利用可能なオプションからモデルを選択
OllamaでClineを設定

⚠️ 重要な注意事項

  • Clineで使用する前にOllamaを開始
  • Ollamaをバックグラウンドで実行し続ける
  • 初回モデルダウンロードは数分かかる場合があります

🔧 トラブルシューティング

ClineがOllamaに接続できない場合:

  1. Ollamaが実行中であることを確認
  2. ベースURLが正しいことを確認
  3. モデルがダウンロード済みであることを確認

詳細情報が必要ですか?Ollama Docsをお読みください。