Ollama
Note
Il s'agit d'un document basé sur Careti. Il suit la version Careti v3.38.1, et si des politiques spécifiques à Careti (runtime local pris en charge, authentification/routage, limites de modèle) s'appliquent, elles sont indiquées par <Note> dans le corps du texte.
Prérequis
- Un ordinateur sous Windows, macOS ou Linux
- Careti installé dans VS Code
Étapes de configuration
1. Installer Ollama
- Visitez ollama.com
- Téléchargez et installez-le pour votre système d'exploitation
2. Choisir et télécharger un modèle
-
Parcourez les modèles sur ollama.com/search
-
Sélectionnez un modèle et copiez la commande :
ollama run [model-name]
-
Ouvrez votre Terminal et exécutez la commande :
-
Exemple :
ollama run llama2
-
Votre modèle est maintenant prêt à être utilisé avec Careti.
3. Configurer Careti
Ouvrez VS Code et configurez Careti :
- Cliquez sur l'icône des paramètres de Careti
- Sélectionnez "Ollama" comme fournisseur d'API
- Base URL :
http://localhost:11434/(par défaut, généralement pas besoin de changer) - Sélectionnez votre modèle dans la liste déroulante
Modèles recommandés
Pour une expérience optimale avec Careti, utilisez Qwen3 Coder 30B. Ce modèle offre de solides capacités de codage et une utilisation fiable des outils pour le développement local.
Pour le télécharger :
ollama run qwen3-coder-30b
D'autres modèles performants incluent :
mistral-small- Bon équilibre entre performance et rapiditédevstral-small- Optimisé pour les tâches de codage
Remarques importantes
- Démarrez Ollama avant de l'utiliser avec Careti
- Laissez Ollama s'exécuter en arrière-plan
- Le premier téléchargement du modèle peut prendre plusieurs minutes
Activer les Compact Prompts
Pour de meilleures performances avec les modèles locaux, activez les compact prompts dans les paramètres de Careti. Cela réduit la taille du prompt de 90 % tout en conservant les fonctionnalités de base.
Accédez à Careti Settings → Features → Use Compact Prompt et activez l'option.
Dépannage
Si Careti ne parvient pas à se connecter à Ollama :
- Vérifiez qu'Ollama est en cours d'exécution
- Vérifiez que l'URL de base est correcte
- Assurez-vous que le modèle est téléchargé
Besoin de plus d'informations ? Lisez la documentation d'Ollama.
%20(1)%20(1).png)
.gif)
.gif)
