Приветствую Вас, уважаемые читатели. Сталкивался ли кто из Вас с подобным феноменом? Генерация изображений путем прописных команд в Dalle 3+GPT+HD Multi-image. На мой взгляд, достаточно неплохо изучил механику общения с ИИ, путем прописывания нужных команд. В течении целого дня осваивал на практике гибкость и отклик данной нейронки. Генерировала отличные результаты, раз за разом, постоянно совершенствуя общение. Но в какой-то момент ИИ стал выдавать откровенную шляпу. Причем настолько абсурдную, что некоторые команды будто игнорируются. К примеру : "кухонный cтол, на котором лежит арбуз" (условно). Все желаемое заказывается в стиле фотореализма. Но на выходе получаю мыльное низкополигональное подобие стола, на котором арбуза не будет, либо же будет лежать что - либо другое, схожее лишь по размеру и геометрии. То есть, изначально, определенные команды конкретных обьектов ИИ генерировало отлично, но спустя время эти же самые команды абсолютно не воспринимаются, выдавая дешевую подделку. Поначалу хорошо поработали, потом, словно уставший школьник, ИИ стал генерить мусорный результат. Очень интересно будет почитать Ваши комментарии по этому вопросу.