AI-интерпретация анализов
Промт и параметры, которые AI использует при кнопке «Интерпретировать с AI» в мобильном приложении.
Как это работает
Когда пользователь нажимает «Интерпретировать с AI» в мобильном приложении, бэкенд берёт системный промт + подставляет в шаблон сообщения данные результата (биомаркер, значение, статус, норма, пол и возраст пользователя), и отправляет в OpenAI. Ответ сохраняется и возвращается в приложение в формате Markdown.
Язык ответа. Бэкенд автоматически дописывает к системному промту жёсткую директиву («Reply strictly in English» / «Отвечай строго на русском»), исходя из preferred_languageпользователя. Так что промт можно держать на русском — AI всё равно ответит en-юзеру по-английски.
Одиночный биомаркер
Кнопка «Интерпретировать с AI» в карточке результата.Системный промт (одиночный биомаркер)
Запустите миграцию 054_lab_ai_prompt_settingsБазовая инструкция для AI: тон, формат вывода, ограничения. Поддерживает Markdown в ответе. Бэкенд автоматически добавляет в конец директиву языка ответа в зависимости от настроек профиля пользователя.
Шаблон сообщения пользователя (одиночный биомаркер)
Запустите миграцию 054_lab_ai_prompt_settingsПодставляются данные конкретного результата. Плейсхолдеры: {{biomarker}}, {{value}}, {{unit}}, {{status}}, {{status_label}}, {{norm_min}}, {{norm_max}}, {{norm_unit}}, {{sex}}, {{age}}, {{trend}}, {{history}}.
Максимум токенов в ответе (одиночный)
Запустите миграцию 054_lab_ai_prompt_settings1 токен ≈ 0.75 русского слова. 600 токенов ≈ 400 слов. Чем больше — тем подробнее, но дольше и дороже.
Общий разбор анализов
Сводный AI-разбор всего набора результатов с учётом истории.Системный промт (общий разбор всех анализов)
Запустите миграцию 054_lab_ai_prompt_settingsИспользуется для агрегатной AI-интерпретации (POST /lab/results/ai-summary). Отдельный промт, потому что задача другая: связи между биомаркерами и тренды, а не разбор одного результата.
Максимум токенов в ответе (общий разбор)
Запустите миграцию 054_lab_ai_prompt_settingsДефолт 900. Для общего разбора больших наборов анализов нужен запас побольше, чем для одного биомаркера.
Общие настройки модели
Модель, температура, лимиты — действуют на оба сценария.Модель
Запустите миграцию 054_lab_ai_prompt_settingsOpenAI-модель для интерпретации. По умолчанию gpt-4o-mini — быстрая и дешёвая. Для лучшего качества можно gpt-4o.
Температура (0.0–1.0)
Запустите миграцию 054_lab_ai_prompt_settingsКреативность. 0 — максимально стабильно и предсказуемо, 1 — больше вариативности. Для медицинских текстов рекомендуем 0.3–0.5.
Лимит частоты (секунды)
Запустите миграцию 054_lab_ai_prompt_settingsМинимальная задержка между нажатиями «Интерпретировать с AI» для одного результата. Защита от случайного «спама» по кнопке.