Skip to main content

Ollama

ℹ️Note

Dies ist ein Dokument basierend auf Careti. Es folgt dem Careti v3.38.1 Merge-Stand. Falls es spezifische Careti-Richtlinien gibt (unterstützte lokale Runtimes, Authentifizierung/Routing, Modell-Beschränkungen), werden diese im Text mit <Note> markiert.

Voraussetzungen

  • Windows-, macOS- oder Linux-Computer
  • Careti in VS Code installiert

Einrichtungsschritte

1. Ollama installieren

  • Besuchen Sie ollama.com
  • Für Ihr Betriebssystem herunterladen und installieren
Ollama Download-Seite

2. Ein Modell auswählen und herunterladen

  • Durchsuchen Sie Modelle unter ollama.com/search

  • Wählen Sie ein Modell aus und kopieren Sie den Befehl:

    ollama run [model-name]
Auswählen eines Modells in Ollama
  • Öffnen Sie Ihr Terminal und führen Sie den Befehl aus:

    • Beispiel:

      ollama run llama2
Ollama im Terminal ausführen

Ihr Modell ist nun für die Verwendung in Careti bereit.

3. Careti konfigurieren

Vollständiger Ollama-Einrichtungsprozess

Öffnen Sie VS Code und konfigurieren Sie Careti:

  1. Klicken Sie auf das Careti-Einstellungen-Icon
  2. Wählen Sie „Ollama“ als Ihren API-Provider aus
  3. Base URL: http://localhost:11434/ (Standard, normalerweise keine Änderung erforderlich)
  4. Wählen Sie Ihr Modell aus dem Dropdown-Menü aus

Empfohlene Modelle

Für die beste Erfahrung mit Careti verwenden Sie Qwen3 Coder 30B. Dieses Modell bietet starke Coding-Fähigkeiten und eine zuverlässige Tool-Nutzung für die lokale Entwicklung.

Um es herunterzuladen:

ollama run qwen3-coder-30b

Andere leistungsfähige Modelle sind:

  • mistral-small – Gute Balance zwischen Performance und Geschwindigkeit
  • devstral-small – Optimiert für Coding-Aufgaben

Wichtige Hinweise

  • Starten Sie Ollama, bevor Sie es mit Careti verwenden
  • Lassen Sie Ollama im Hintergrund laufen
  • Der erste Modell-Download kann einige Minuten dauern

Compact Prompts aktivieren

Für eine bessere Performance mit lokalen Modellen aktivieren Sie Compact Prompts in den Careti-Einstellungen. Dies reduziert die Prompt-Größe um 90 %, während die Kernfunktionalität erhalten bleibt.

Navigieren Sie zu Careti Settings → Features → Use Compact Prompt und schalten Sie die Option ein.

Fehlerbehebung

Wenn Careti keine Verbindung zu Ollama herstellen kann:

  1. Überprüfen Sie, ob Ollama läuft
  2. Prüfen Sie, ob die Base URL korrekt ist
  3. Stellen Sie sicher, dass das Modell heruntergeladen wurde

Benötigen Sie weitere Informationen? Lesen Sie die Ollama Docs.