Skip to main content

Ollama

ℹ️Note

Это документация для Careti. Она основана на версии Careti v3.38.1. Если существуют специфические политики Careti (поддерживаемые локальные среды исполнения, аутентификация/маршрутизация, ограничения моделей), они будут отмечены в тексте как <Note>.

Предварительные условия

  • Компьютер под управлением Windows, macOS или Linux
  • Установленное расширение Careti в VS Code

Инструкция по настройке

1. Установите Ollama

  • Перейдите на ollama.com
  • Скачайте и установите версию для вашей операционной системы
Страница загрузки Ollama

2. Выберите и скачайте модель

  • Выберите подходящую модель на ollama.com/search

  • Выберите модель и скопируйте команду:

    ollama run [model-name]
Выбор модели в Ollama
  • Откройте Terminal и выполните команду:

    • Пример:

      ollama run llama2
Запуск Ollama в Terminal

Теперь ваша модель готова к использованию в Careti.

3. Настройте Careti

Полный процесс настройки Ollama

Откройте VS Code и настройте Careti:

  1. Нажмите на иконку настроек Careti
  2. Выберите «Ollama» в качестве API провайдера
  3. Base URL: http://localhost:11434/ (по умолчанию, обычно менять не требуется)
  4. Выберите вашу модель из выпадающего списка

Рекомендуемые модели

Для наилучшей работы с Careti используйте Qwen3 Coder 30B. Эта модель обладает отличными навыками написания кода и надежно работает с инструментами при локальной разработке.

Чтобы скачать её:

ollama run qwen3-coder-30b

Другие подходящие модели включают:

  • mistral-small — хороший баланс производительности и скорости
  • devstral-small — оптимизирована для задач программирования

Важные примечания

  • Запустите Ollama перед использованием Careti
  • Оставьте Ollama работать в фоновом режиме
  • Первая загрузка модели может занять несколько минут

Включите компактные промпты (Compact Prompts)

Для повышения производительности при работе с локальными моделями включите компактные промпты в настройках Careti. Это уменьшит размер промпта на 90%, сохраняя при этом основные функции.

Перейдите в Careti Settings → Features → Use Compact Prompt и включите этот параметр.

Устранение неполадок

Если Careti не может подключиться к Ollama:

  1. Убедитесь, что Ollama запущена
  2. Проверьте правильность Base URL
  3. Убедитесь, что модель скачана

Нужно больше информации? Ознакомьтесь с документацией Ollama.