Skip to main content

Руководство по контекстному окну

ℹ️Note

Это документация для Careti. Соответствует версии Careti v3.38.1 (мерж). Если есть политика, специфичная для Careti (ограничение контекста по модели поддержки/блокировки, аутентификация/маршрутизация), это будет указано в тексте с помощью <Note>.

Что такое контекстное окно?

Контекстное окно - это максимальный объем текста, который AI модель может обработать за один раз. Представьте это как "рабочую память" модели - она определяет, какой объем вашей беседы и кода модель может учитывать при генерации ответов.

ℹ️Note

Ключевой момент: Большие контекстные окна позволяют модели понимать больший объем вашего кода одновременно, но могут увеличить затраты и время ответа.

Размеры контекстных окон

Краткий справочник

РазмерTokensПримерное количество словВариант использования
Маленький8K-32K6,000-24,000Единичные файлы, быстрые исправления
Средний128K~96,000Большинство проектов кодирования
Большой200K~150,000Сложные кодовые базы
Очень большой400K+~300,000+Целые приложения
Огромный1M+~750,000+Анализ нескольких проектов

Контекстные окна моделей

МодельКонтекстное окноЭффективное окно*Примечания
Claude Sonnet 4.51M tokens~500K tokensЛучшее качество при большом контексте
GPT-5400K tokens~300K tokensТри режима влияют на производительность
Gemini 2.5 Pro1M+ tokens~600K tokensОтлично подходит для документов
DeepSeek V3128K tokens~100K tokensОптимально для большинства задач
Qwen3 Coder256K tokens~200K tokensХороший баланс

*Эффективное окно - это место, где модель поддерживает высокое качество

Эффективное управление контекстом

Что учитывается в контексте

  1. Ваша текущая беседа - Все сообщения в чате
  2. Содержимое файлов - Любые файлы, которыми вы поделились или которые Careti прочитал
  3. Вывод инструментов - Результаты выполненных команд
  4. Системные подсказки - Инструкции Careti (минимальное влияние)

Стратегии оптимизации

1. Начинайте с чистого листа для новых функций

/new - Создает новую задачу с чистым контекстом

Преимущества:

  • Максимальный доступный контекст
  • Отсутствие нерелевантной истории
  • Лучшая фокусировка модели

2. Используйте @ Mentions стратегически

Вместо включения целых файлов:

  • @filename.ts - Включайте только при необходимости
  • Используйте поиск вместо чтения больших файлов
  • Ссылайтесь на конкретные функции, а не на целые файлы

3. Включите Auto-compact

Careti может автоматически суммировать длинные разговоры:

  • Settings → Features → Auto-compact
  • Сохраняет важный контекст
  • Уменьшает использование tokens

Предупреждения о контекстном окне

Признаки достижения лимитов

Предупреждающий знакЧто это значитРешение
"Context window exceeded"Достигнут жесткий пределНачните новую задачу или включите auto-compact
Более медленные ответыМодель испытывает трудности с контекстомУменьшите количество включенных файлов
Повторяющиеся предложенияФрагментация контекстаСуммируйте и начните с чистого листа
Отсутствуют последние измененияПереполнение контекстаИспользуйте checkpoints для отслеживания изменений

Рекомендации в зависимости от размера проекта

Маленькие проекты (< 50 файлов)

  • Любая модель работает хорошо
  • Включайте релевантные файлы свободно
  • Никакой специальной оптимизации не требуется

Средние проекты (50-500 файлов)

  • Используйте модели с контекстом 128K+
  • Включайте только рабочий набор файлов
  • Очищайте контекст между функциями

Большие проекты (500+ файлов)

  • Используйте модели с контекстом 200K+
  • Сосредоточьтесь на конкретных модулях
  • Используйте поиск вместо чтения многих файлов
  • Разбейте работу на более мелкие задачи

Расширенное управление контекстом

Оптимизация режима Plan/Act

Используйте режим Plan/Act для лучшего использования контекста:

  • Plan Mode: Используйте меньший контекст для обсуждения
  • Act Mode: Включайте необходимые файлы для реализации

Конфигурация:

Plan Mode: DeepSeek V3 (128K) - Более дешевое планирование
Act Mode: Claude Sonnet (1M) - Максимальный контекст для кодирования

Стратегии сокращения контекста

  1. Временное сокращение: Удалите старые части разговора
  2. Семантическое сокращение: Сохраняйте только релевантные разделы кода
  3. Иерархическое сокращение: Поддерживайте структуру высокого уровня, сокращайте детали

Советы по подсчету tokens

Грубые оценки

  • 1 token ≈ 0.75 слов
  • 1 token ≈ 4 символа
  • 100 строк кода ≈ 500-1000 tokens

Рекомендации по размеру файлов

Тип файлаTokens на KB
Code~250-400
JSON~300-500
Markdown~200-300
Plain text~200-250

Context Window FAQ

В: Почему ответы становятся хуже при очень длинных разговорах?

О: Модели могут терять фокус при слишком большом количестве контекста. "Эффективное окно" обычно составляет 50-70% от заявленного лимита.

В: Следует ли использовать самое большое доступное контекстное окно?

О: Не всегда. Большие контексты увеличивают затраты и могут снизить качество ответа. Сопоставьте контекст с размером вашей задачи.

В: Как узнать, сколько контекста я использую?

О: Careti показывает использование tokens в интерфейсе. Следите за тем, чтобы индикатор контекста приближался к пределам.

В: Что происходит, когда я превышаю предел контекста?

О: Careti будет либо:

  • Автоматически уплотнять разговор (если включено)
  • Показывать ошибку и предлагать начать новую задачу
  • Усекать старые сообщения (с предупреждением)

Рекомендации по вариантам использования

Вариант использованияРекомендуемый контекстПредложение модели
Быстрые исправления32K-128KDeepSeek V3
Разработка функций128K-200KQwen3 Coder
Большой рефакторинг400K+Claude Sonnet 4.5
Code review200K-400KGPT-5
Документация128KЛюбая бюджетная модель