Ollama
📋 前提条件
- Windows、macOS、またはLinuxコンピューター
- VS CodeにClineがインストール済み
🚀 設定手順
1. Ollamaをインストール
- ollama.comにアクセス
- お使いのオペレーティングシステム用をダウンロードしてインストール
%20(1)%20(1).png)
2. モデルを選択してダウンロード
-
ollama.com/searchでモデルを閲覧
-
モデルを選択してコマンドをコピー:
ollama run [モデル名]
.gif)
-
ターミナルを開いてコマンドを実行:
-
例:
ollama run llama2
-
.gif)
✨ モデルがCline内で使用できるようになりました!
3. Clineを設定
- VS Codeを開く
- Cline設定アイコンをクリック
- APIプロバイダーとして「Ollama」を選択
- 設定を入力:
- Base URL:
http://localhost:11434/
(デフォルト値、そのままで可) - 利用可能なオプションからモデルを選択
- Base URL:
.gif)
⚠️ 重要な注意事項
- Clineで使用する前にOllamaを開始
- Ollamaをバックグラウンドで実行し続ける
- 初回モデルダウンロードは数分かかる場合があります
🔧 トラブルシューティング
ClineがOllamaに接続できない場合:
- Ollamaが実行中であることを確認
- ベースURLが正しいことを確認
- モデルがダウンロード済みであることを確認
詳細情報が必要ですか?Ollama Docsをお読みください。