Добрый день!
Пытаюсь создать универсальный промт для анализа телефонных разговоров менеджеров. Столкнулся с такой проблемой: На одном разговоре вроде вычистил всё, результат плюс-минус нормальный. На другом - полная ерунда. Так же возвращаясь в новом чате к первому разговору, получаю другой результат. Я пробовал уменьшать температуру, не помогает. Я готовлю промт для работе по АПИ, поэтому мне важна начальная формулировка, контекстное обучение не подходит. А путаница возникает в простых вещах. Например, я жестко задаю, что должен быть вопрос или что должна использоваться формула - 1 раз срабатывает, второй нет, При чем, когда я указываю на ошибку, чат извиняется и исправляет. Короче, 2 вопроса: 1. Можно ли как-то стабилизировать выдачу результата (выводи ТОЛЬКО ТАК) и 2. Может быть другие модели работают с подобными вещами лучше?