Skip to main content

Requesty

Careti поддерживает доступ к моделям через AI-платформу Requesty. Requesty предоставляет простой и оптимизированный API для взаимодействия с более чем 150 большими языковыми моделями (LLM).

Веб-сайт: https://www.requesty.ai/

Получение API Key

  1. Регистрация/Вход: Перейдите на веб-сайт Requesty и создайте учетную запись или войдите в систему.
  2. Получение API Key: Вы можете получить API Key в разделе API Management вашей панели управления Requesty.

Поддерживаемые модели

Requesty предоставляет доступ к широкому спектру моделей. Careti автоматически загрузит актуальный список доступных моделей. Вы можете просмотреть полный список доступных моделей на странице Model List.

Настройка в Careti

  1. Откройте настройки Careti: Нажмите на иконку настроек (⚙️) на панели Careti.
  2. Выберите провайдера: Выберите «Requesty» в выпадающем списке «API Provider».
  3. Введите API Key: Вставьте ваш Requesty API Key в поле «Requesty API Key».
  4. Выберите модель: Выберите нужную модель в выпадающем списке «Model».

Советы и примечания

  • Оптимизация: Requesty предлагает ряд оптимизаций затрат «на лету» для снижения ваших расходов.
  • Единая и упрощенная система оплаты: Неограниченный доступ ко всем провайдерам и моделям, автоматическое пополнение баланса и многое другое через один API Key.
  • Отслеживание затрат: Отслеживайте стоимость в разрезе моделей, языков программирования, измененных файлов и многого другого через Cost dashboard или Requesty VS Code extension.
  • Статистика и логи: Просматривайте свою панель статистики кодинга или изучайте логи взаимодействия с LLM.
  • Резервные политики (Fallback policies): Поддерживайте работу вашей LLM с помощью резервных политик на случай сбоев у провайдеров.
  • Prompt Caching: Некоторые провайдеры поддерживают кэширование промптов. Поиск моделей с кэшированием.

Полезные ресурсы