Skip to content

Настройка модели

Выбор модели влияет на скорость, тон и стоимость ответа виртса. Эта страница помогает быстро настроить параметры под конкретный сценарий.

Перед началом

  • Роль редактора или админа в рабочем пространстве
  • Понимание частоты диалогов и бюджета на токены
  • Рекомендации по провайдерам от службы безопасности

Шаги

01

Откройте карточку конфигурации

Выберите нужного виртса, перейдите во вкладку AI и кликните секцию Модель. Убедитесь, что открыт нужный виртс и видны блоки выбора вендора и модели перед изменением параметров.

Раздел конфигурации моделиРаздел конфигурации модели
Страница AI — Модель показывает провайдера, параметры и расчёт стоимости
02

Выберите провайдера и модель

В выпадающем списке выберите нужного вендора: OpenAI или GigaChat подходят для большинства консультаций, DeepSeek и Anthropic удобны для длинного контекста. Сохраните выбор и сразу убедитесь, что подключенные ключи прошли проверку.

Список провайдеров моделиСписок провайдеров модели
Сравните рекомендованные модели по цене и доступности
03

Настройте температуру и лимиты

Сдвиньте ползунок Температура к 0.3 для строгих ответов либо к 0.9 для более дружелюбной речи. Ниже задайте ограничение токенов: 700 подходит для чатов поддержки, 1500 для консультаций с длинными выдержками.

Ползунки температуры и токеновПолзунки температуры и токенов
Панель параметров показывает подсказки по диапазонам
04

Проверьте параметры и сохраните

Проверьте связку Вендор + Модель, затем ещё раз оцените Температуру, Top P и лимит токенов. При необходимости скорректируйте значения и нажмите Сохранить.

Финальная проверка параметров моделиФинальная проверка параметров модели
Перед сохранением сверьте вендора, модель и лимиты ответа

Предупреждение

Если токены заканчиваются быстрее ожиданий, сначала снижайте лимит контекста и только потом переключайте модель, так проще сравнить результаты.

Практический пример

Пример

Практический пример

Сеть служб доставки использует GigaChat для русскоязычных заказов. Модель настроена на температуру 0.4 и лимит 900 токенов, чтобы ответы были короткими и точными. После внедрения команда увидела, что стоимость диалога снизилась на 18 процентов, а первый ответ стал появляться на 2 секунды быстрее.

Связанные разделы

Руководство пользователя Worken AI