Skip to main content

Guide de la fenêtre de contexte

ℹ️Note

Ce document est basé sur Careti. Il suit la version Careti v3.38.1 et toute politique spécifique à Careti (limites de contexte par modèle supporté/bloqué, authentification/routage) sera signalée par une balise <Note> dans le texte.

Qu'est-ce qu'une fenêtre de contexte ?

Une fenêtre de contexte est la quantité maximale de texte qu'un modèle d'IA peut traiter en une seule fois. Considérez-la comme la « mémoire de travail » du modèle : elle détermine quelle proportion de votre conversation et de votre code le modèle peut prendre en compte lors de la génération de réponses.

ℹ️Note

Point clé : Des fenêtres de contexte plus larges permettent au modèle de comprendre une plus grande partie de votre codebase en une fois, mais peuvent augmenter les coûts et les temps de réponse.

Tailles des fenêtres de contexte

Référence rapide

TailleTokensMots approximatifsCas d'utilisation
Petite8K-32K6 000-24 000Fichiers uniques, corrections rapides
Moyenne128K~96 000La plupart des projets de code
Grande200K~150 000Codebases complexes
Très grande400K+~300 000+Applications entières
Massive1M+~750 000+Analyse multi-projets

Fenêtres de contexte par modèle

ModèleFenêtre de contexteFenêtre effective*Notes
Claude Sonnet 4.51M tokens~500K tokensMeilleure qualité à haut contexte
GPT-5400K tokens~300K tokensTrois modes affectent la performance
Gemini 2.5 Pro1M+ tokens~600K tokensExcellent pour les documents
DeepSeek V3128K tokens~100K tokensOptimal pour la plupart des tâches
Qwen3 Coder256K tokens~200K tokensBon équilibre

*La fenêtre effective est celle où le modèle maintient une haute qualité

Gérer le contexte efficacement

Ce qui compte pour le contexte

  1. Votre conversation actuelle - Tous les messages du chat
  2. Contenu des fichiers - Tous les fichiers que vous avez partagés ou que Careti a lus
  3. Sorties d'outils - Résultats des commandes exécutées
  4. System prompts - Instructions de Careti (impact minimal)

Stratégies d'optimisation

1. Repartir de zéro pour les nouvelles fonctionnalités

/new - Creates a new task with clean context

Avantages :

  • Maximum de contexte disponible
  • Pas d'historique non pertinent
  • Meilleure focalisation du modèle

2. Utiliser les @ mentions stratégiquement

Au lieu d'inclure des fichiers entiers :

  • @filename.ts - À inclure uniquement quand c'est nécessaire
  • Utiliser la recherche plutôt que de lire des fichiers volumineux
  • Référencer des fonctions spécifiques plutôt que des fichiers entiers

3. Activer l'Auto-compact

Careti peut résumer automatiquement les conversations longues :

  • Settings → Features → Auto-compact
  • Préserve le contexte important
  • Réduit l'utilisation des tokens

Avertissements sur la fenêtre de contexte

Signes que vous atteignez les limites

Signe d'avertissementSignificationSolution
"Context window exceeded"Limite stricte atteinteCommencer une nouvelle tâche ou activer l'Auto-compact
Réponses plus lentesLe modèle a du mal avec le contexteRéduire les fichiers inclus
Suggestions répétitivesFragmentation du contexteRésumer et repartir de zéro
Changements récents manquantsDébordement du contexteUtiliser des checkpoints pour suivre les changements

Bonnes pratiques par taille de projet

Petits projets (< 50 fichiers)

  • Tous les modèles fonctionnent bien
  • Inclure librement les fichiers pertinents
  • Aucune optimisation spéciale nécessaire

Projets moyens (50-500 fichiers)

  • Utiliser des modèles avec 128K+ de contexte
  • Inclure uniquement le groupe de fichiers de travail
  • Effacer le contexte entre les fonctionnalités

Grands projets (500+ fichiers)

  • Utiliser des modèles avec 200K+ de contexte
  • Se concentrer sur des modules spécifiques
  • Utiliser la recherche au lieu de lire de nombreux fichiers
  • Diviser le travail en tâches plus petites

Gestion avancée du contexte

Optimisation du mode Plan/Act

Tirez parti du mode Plan/Act pour une meilleure utilisation du contexte :

  • Plan Mode : Utiliser un contexte plus petit pour la discussion
  • Act Mode : Inclure les fichiers nécessaires pour l'implémentation

Configuration :

Plan Mode: DeepSeek V3 (128K) - Lower cost planning
Act Mode: Claude Sonnet (1M) - Maximum context for coding

Stratégies d'élagage du contexte

  1. Élagage temporel : Supprimer les anciennes parties de la conversation
  2. Élagage sémantique : Garder uniquement les sections de code pertinentes
  3. Élagage hiérarchique : Maintenir la structure de haut niveau, élaguer les détails

Conseils pour le comptage des tokens

Estimations approximatives

  • 1 token ≈ 0,75 mot
  • 1 token ≈ 4 caractères
  • 100 lignes de code ≈ 500-1000 tokens

Directives par taille de fichier

Type de fichierTokens par KB
Code~250-400
JSON~300-500
Markdown~200-300
Plain text~200-250

FAQ sur la fenêtre de contexte

Q : Pourquoi les réponses se dégradent-elles avec de très longues conversations ?

R : Les modèles peuvent perdre leur focalisation avec trop de contexte. La « fenêtre effective » représente généralement 50 à 70 % de la limite annoncée.

Q : Dois-je utiliser la plus grande fenêtre de contexte disponible ?

R : Pas toujours. Les contextes plus larges augmentent les coûts et peuvent réduire la qualité des réponses. Adaptez le contexte à la taille de votre tâche.

Q : Comment savoir quelle quantité de contexte j'utilise ?

R : Careti affiche l'utilisation des tokens dans l'interface. Surveillez la jauge de contexte lorsqu'elle approche des limites.

Q : Que se passe-t-il si je dépasse la limite de contexte ?

R : Careti va soit :

  • Compacter automatiquement la conversation (si activé)
  • Afficher une erreur et suggérer de commencer une nouvelle tâche
  • Tronquer les messages plus anciens (avec un avertissement)

Recommandations par cas d'utilisation

Cas d'utilisationContexte recommandéSuggestion de modèle
Corrections rapides32K-128KDeepSeek V3
Développement de fonctionnalités128K-200KQwen3 Coder
Refactorisation majeure400K+Claude Sonnet 4.5
Revue de code200K-400KGPT-5
Documentation128KN'importe quel modèle économique