Ollama
Note
Dies ist ein Dokument basierend auf Careti. Es folgt dem Careti v3.38.1 Merge-Stand. Falls es spezifische Careti-Richtlinien gibt (unterstützte lokale Runtimes, Authentifizierung/Routing, Modell-Beschränkungen), werden diese im Text mit <Note> markiert.
Voraussetzungen
- Windows-, macOS- oder Linux-Computer
- Careti in VS Code installiert
Einrichtungsschritte
1. Ollama installieren
- Besuchen Sie ollama.com
- Für Ihr Betriebssystem herunterladen und installieren
2. Ein Modell auswählen und herunterladen
-
Durchsuchen Sie Modelle unter ollama.com/search
-
Wählen Sie ein Modell aus und kopieren Sie den Befehl:
ollama run [model-name]
-
Öffnen Sie Ihr Terminal und führen Sie den Befehl aus:
-
Beispiel:
ollama run llama2
-
Ihr Modell ist nun für die Verwendung in Careti bereit.
3. Careti konfigurieren
Öffnen Sie VS Code und konfigurieren Sie Careti:
- Klicken Sie auf das Careti-Einstellungen-Icon
- Wählen Sie „Ollama“ als Ihren API-Provider aus
- Base URL:
http://localhost:11434/(Standard, normalerweise keine Änderung erforderlich) - Wählen Sie Ihr Modell aus dem Dropdown-Menü aus
Empfohlene Modelle
Für die beste Erfahrung mit Careti verwenden Sie Qwen3 Coder 30B. Dieses Modell bietet starke Coding-Fähigkeiten und eine zuverlässige Tool-Nutzung für die lokale Entwicklung.
Um es herunterzuladen:
ollama run qwen3-coder-30b
Andere leistungsfähige Modelle sind:
mistral-small– Gute Balance zwischen Performance und Geschwindigkeitdevstral-small– Optimiert für Coding-Aufgaben
Wichtige Hinweise
- Starten Sie Ollama, bevor Sie es mit Careti verwenden
- Lassen Sie Ollama im Hintergrund laufen
- Der erste Modell-Download kann einige Minuten dauern
Compact Prompts aktivieren
Für eine bessere Performance mit lokalen Modellen aktivieren Sie Compact Prompts in den Careti-Einstellungen. Dies reduziert die Prompt-Größe um 90 %, während die Kernfunktionalität erhalten bleibt.
Navigieren Sie zu Careti Settings → Features → Use Compact Prompt und schalten Sie die Option ein.
Fehlerbehebung
Wenn Careti keine Verbindung zu Ollama herstellen kann:
- Überprüfen Sie, ob Ollama läuft
- Prüfen Sie, ob die Base URL korrekt ist
- Stellen Sie sicher, dass das Modell heruntergeladen wurde
Benötigen Sie weitere Informationen? Lesen Sie die Ollama Docs.
%20(1)%20(1).png)
.gif)
.gif)
