Перейти к содержанию

admin

Администратор
  • Постов

    481
  • Зарегистрирован

  • Посещение

  • Победитель дней

    8

Весь контент admin

  1. Алые волосы среди руин: взгляд из мира Fallout - Результат работы нейросети Midjourney Завораживающий взгляд сквозь пелену времени и руин. Эта картина – погружение в мир, где отблески былой цивилизации мерцают среди обломков прошлого. Девушка с огненными волосами, словно яркое пламя на фоне безжалостного пейзажа, становится символом стойкости и надежды в постапокалиптическом мире, напоминающем вселенную Fallout. Город-призрак, застывший во времени, хранит молчаливые свидетельства катастрофы, а разрушенные здания и пустынные улицы рассказывают историю утерянного мира. Этюд в алых тонах – это не просто изображение, это визуальная поэма о крахе цивилизации и выживании человеческого духа. Красный цвет волос контрастирует с серыми оттенками руин, подчеркивая силу воли главной героини и ее стремление к новой жизни среди пепла былого величия. Картина вызывает ощущение тревоги и загадки, заставляя зрителя задуматься о хрупкости человеческого существования и неизбежности перемен. Она словно приглашает в опасное путешествие по миру, где каждый шаг может стать последним, а судьба зависит от силы духа и умения адаптироваться к новым реалиям. Эта работа - визуальное воплощение атмосферы безысходности и одновременно – неугасимой надежды на возрождение ✏️ Промт: этюд в алых тонах, девушка с красными волосами, на фоне город-призрак, разрушенная цивилизация в мире пост-апокалипсиса. вселенная fallout 🧩 Нейросеть: 🖌 Midjourney 🎭 Стили: No style 🧩 Нейросеть: midjourney
  2. Nano Banana Pro — улучшенная версия нейросети Nano Banana (не путать с Nano Banana 2, которая еще не вышла на момент написания статьи). Новая версия, как и предыдущая, отличается от ближайших конкурентов (Sora Images, Midjourney, Qwen Images и др.) в первую очередь тем, что гораздо лучше понимает задачи, описанные в промтах, скоростью генераций, уровнем сохранения образов людей и предметов (при использовании референсов), способностью писать текст на изображениях на разных языках, причем, почти всегда без ошибок. В этой статье мы опишем основные возможности нейросети Nano Banana Pro и ее младшей версии, а также расскажем, как получить к ней доступ без VPN и иностранных карт. Nano Banana создана компанией Google, что уже говорит о многом, ведь команда разработчиков обладает большими финансовыми и человеческими ресурсами, что позволило создать одну из лучших нейросетей для генерации изображений по промтам и референсам. Если сравнивать Nano Banana, например, с Midjourney, то окажется, что в арсенале продукта от Google имеется куда больше возможностей, ведь та же MJ, хоть и создает изображения высокого качества и уровнем художественной обработки, не умеет нормально писать текст на изображениях, передавать образы персонажей, создавать полноценную инфографику и т.д. Возможности нейросети Nano Banana Обширная база знаний: нейросеть очень хорошо знает, как должны выглядеть многие известные персонажи, даже кот Матроскин из советского мультфильма будет нарисован почти как оригинальный; способность "думать" прежде чем генерировать, т.е. нейросеть может самостоятельно дорабатывать ваш промт перед созданием картинки. Например, вы можете заказать первую картинку комикса с диалогами по своим предпочтениям, а потом, используя полученный референс, отправить следующее задание с просьбой продолжить сюжет — нейросеть сама все придумает; исходя из предыдущего пункта, вы могли догадаться, что "банана" умеет читать текст не только из ваших промтов, но и тот, который находится в референсах! Вот пример использования этой "фишки": допустим, у вас есть картинка, на которой размещен некий текст, можно попросить Nano Banana изменить его или исправить ошибки. А вот еще идея: можно попросить нейросеть перевести текст с картинки на нужный язык, теперь не вызовет никаких проблем создание рекламных материалов для соц. сетей на разных языках; фрагментация промтов: нейросеть понимает взаимосвязи и логику... к какому предмету относится та или иная часть текста из промта. Например, можно в рамках одной генерации перечислить несколько действий: на фоне помести еловый лес, цвет шляпы на девушке замени на зеленый, мужчина держит в руке самовар Большинство других нейросетей запросто могут перепутать перечисленные действия: самовар отдадут девушке, а шляпу — мужчине; высокая скорость генераций: так как "банан" был создан компанией Google, то в комплекте с одной из умнейших нейросетей бонусом вы получаете очень мощное железо, так что создание генераций занимает всего 10-40 секунд (зависит от версии: Nano Banana или Nano Banana Pro). Однако из-за высокого спроса иногда бывают перегрузки и задания отклоняются, в этом случае повторяйте попытки; точное копирование лиц, одежды и образов с исходных фотографий (если использовались референсы); способность писать тексты на картинках на разных языках, в т.ч. на русском; поддержка разных стилей написания текста и шрифтов; возможность создавать инфографику с множеством элементов и подписей; возможность создавать бесконечные цепочки генераций с использованием референсов (подойдет, например, для создания комиксов); глубокий анализ промтов, их автоматическая модернизация с помощью нейросети Gemini 2.5 и 3.0; возможность удалять какие-либо предметы и/или людей с фотографий, менять позы персонажей, менять цвета перечисленных предметов или одежды; способность почти идеально передавать признаки стилей, которые указаны в промте (реализм, студийная фотография, сюрреализм, аниме и пр.); замена фона или его удаление; поддержка мульти-референсов: можно загружать несколько фотографий и описать в промте то, что нужно сделать с элементами, которые на них изображены; изменение одежды и образов персонажей по описанию с сохранением внешности; переодевание персонажей по референсам с поддержкой нескольких элементов одежды, например, головной убор, пиджак, перчатки и пр.; стилизация референсов: можно взять любое фото и изменить его в соответствии с указанным стилем, например, преобразовать в аниме, студийное фото, ретро-футуризм и пр. Пример использования цепочек референсов Создаем генерацию по промту "нарисуй комикс с диалогами про кота матроскина и собаку шарика". Просим нейросеть перевести все тексты с картинки на русский язык (используем предыдущую картинку в качестве референса). Теперь просим нейросеть продолжить сюжет комикса (используем предыдущую картинку в качестве референса). Пример замены нескольких элементов одежды через нейросеть Отправляем нейросети фотографию человека и пару элементов одежды + промт с описанием задачи. На выходе получаем очень достойный результат, причем Nano Banana преобразовала исходник в стиль Реализм, так как иное не было указано в промте. Как и другие современные нейросети, Nano Banana поддерживает эти функции прямо из текста, написанного в промте, т.е. вам достаточно в свободной форме описать задачи, а банана постарается это сделать. * Рекомендуем подробно описывать суть задачи, например: надень на мужчину эту шляпу и пиджак, поменяй его позу, чтобы он указывал пальцем вверх Многие полезные функции недоступны в официальных сборках Nano Banana, например, автоматическое применение стилей и автокоррекция промтов для генерации текстов на разных языках, поэтому рекомендуем использовать для работы этой нейросети Телеграм-бота Yes Ai. Пользуясь Yes Ai, вы также получаете возможность генерировать изображения по самым низким ценам. Теперь перечислим то, что запрещено или сложно реализовать в "банане": подделка документов. Запрещено использовать нейросеть для любых целей, противоречащих законодательству. Если коротко, запрещен любой NSFW-контент, подробнее рассказали в этой статье; "удаление фона" — понятие достаточно растяжимое, так что Nano Banana при использовании такой общей формулировки может удалить бэкграунд и заменить его на серо-белую сетку. Следует четко указывать, что именно нужно сделать с фоном; пример правильной формулировки задачи: замени весь фон на белый цвет, человека оставь без изменений так как "банан" использует в качестве интерпретатора нейросеть Gemini, то все ваши промты будут автоматически доработаны — это плюс, но есть и недостаток, он заключается в том, что если вы очень абстрактно или кратко опишете суть задачи без пояснений, то "гемини" может придумать что-то неподходящее или не удовлетворяющее вашим ожиданиям; если вы опишете стиль, с применением которого должна быть создана генерация и при этом укажете имя известного художника, характер картин которого хотите применить, то есть вероятность, что нано банана напишет текстом имя или автограф этого художника прямо на вашей картинке. Это можно предотвратить — упомяните в промте, что никаких надписей быть не должно; "банан" иногда ругается на просьбы удалить водяные знаки, так что для этой цели лучше использовать Qwen Image Edit; анализатор промтов Gemini, встроенный в Nano Banana, иногда отказывается делать генерации, даже если текст запроса не содержит запрещенных слов и фраз, т.е. иногда фильтр срабатывает там, где не должен. Стоит признать, что фильтры "банана" гораздо мягче, чем у Миджорни и у Sora; если вы создаете комиксы с участием нескольких персонажей, то, при использовании цепочек референсов, их образы и/или реплики могут быть перепутаны местами. Это не проблема, просто отправляйте заказы на генерации повторно. Чем отличаются Nano Banana и Nano Banana Pro скорость генераций (Pro-версия делает картинки чуть дольше); Pro-версия гораздо лучше сохраняет образы персонажей и лица людей при использовании референсов; более высокое качество генераций ("про" может делать апскейл картинок до 2K - 4K); глубина понимания и проработки промтов ("про" версия работает на базе Gemini 3.0, за счет чего уровень анализа задач, описанных текстом, заметно выше); количество референсов (исходных фотографий и картинок), которые можно загрузить в "про" версии увеличено до 10, это позволит делать очень интересные вещи, например, можно загрузить фото человека и множество элементов одежды с целью надеть их все. Теперь вы можете всего за одно действие выполнить задачу, для решения которой раньше приходилось делать несколько генераций, меняя элементы одежды поштучно; группировка нескольких персонажей на одном изображении: благодаря поддержке мульти-референсов и возможности загружать большое количество фотографий, pro-версия способна усадить нескольких человек за один стол или сделать их коллективное фото на фоне египетских пирамид. Данная возможность присутствует и в базовой версии "банана", но "прошка" гораздо качественнее повторяет образы и лица; способность делать фокус на нужных областях референсов: допустим, что у вас есть фотография, на которой хорошо виден человек, но фон слишком размыт. Можно попросить нейросеть сделать фон более четким, при этом сохранив резкость очертаний человека, находящегося впереди. Подобным образом можно делать любые манипуляции с фокусировкой. Если вы хотите посмотреть примеры генераций из нейросети Nano Banana, то рекомендуем заглянуть в нашу галерею. Где получить доступ к нейросети Nano Banana Pro Есть несколько путей: через Телеграм-бота Yes Ai https://t.me/yes_ai_bot?start=_nanobanana ...самый простой вариант (не нужны ни заграничные карты, ни VPN, ни регистрация). На момент публикации статьи некоторые расширенные функции нейросети находятся на этапе доработки. через API для разработчиков собственных проектов и приложений https://yesai.su/ru/docs/nanobanana ...по всем вопросам интеграции обращайтесь в техподдержку @yes_ai_support через чат с Gemini https://gemini.google.com ...требуется платная подписка + VPN + заграничная карта для оплаты + заграничный аккаунт Google через AI Studio https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-image-preview ...требуется платная подписка + VPN + заграничная карта для оплаты + заграничный аккаунт Google через Flow https://labs.google/fx/tools/flow ...требуется платная подписка + VPN + заграничная карта для оплаты + заграничный аккаунт Google через панель для разработчиков https://ai.google.dev/gemini-api/docs/image-generation ...требуется платная подписка + VPN + заграничная карта для оплаты + заграничный аккаунт Google, генерации стоят достаточно дорого через Vertex AI Studio https://cloud.google.com/generative-ai-studio ...требуется платная подписка + VPN + заграничная карта для оплаты + заграничный аккаунт Google Инструкция по использованию Nano Banana в боте Yes Ai Как подать задание на генерацию изображений по текстовому описанию (по промту): откройте Телеграм-бота по этой ссылке (автоматически запустится нейросеть Nano Banana); в ⚙️ настройках выберите нужную версию (v.1 или v.1.Pro) и соотношение сторон; при необходимости выберите от 1 до 3 стилей (они будут применены к генерации), для этого в нижнем меню нажмите кнопку "🎭 Стили"; отправьте боту промт с подробным описанием того, что нужно сгенерировать (поддерживаются любые языки). Если на картинках должен присутствовать текст, то следует писать его "внутри двойных кавычек" — это снизит вероятность ошибок. Как подать задание с использованием одного или нескольких референсов (исходных картинок): откройте Телеграм-бота по этой ссылке в ⚙️ настройках выберите нужную версию (v.1 или v.1.Pro) и соотношение сторон; отправьте боту одну или несколько 📎 картинок-референсов + описание того, что нейросеть должна с ними сделать. Если на картинках должен присутствовать текст, то следует писать его "внутри двойных кавычек" — это снизит вероятность ошибок; при необходимости выберите от 1 до 3 стилей (они будут применены к генерации), для этого в нижнем меню нажмите кнопку "🎭 Стили"; в появившемся сообщении нажмите кнопку "🎡 Смешать изображения". Кстати, вот что получилось в результате смешивания этих трех изображений. Если у вас появятся вопросы по работе с Nano Banana или с какой-то другой нейросетью, то пишите в наш чат.
  3. Небесный воин над Красной площадью: символ эпохи и вечности - Пример изображения, созданного ИИ Nano Banana Монументальное полотно, пронизанное символизмом и величием, изображает архангела – могущественного защитника, чьи крылья пылают золотым огнем, олицетворяя божественную силу и чистоту. В его руках крепко зажат острый золотой меч, символ справедливости, борьбы и неуклонной защиты идеалов. Над нимбом, источающим сияние, гордо выгравированы буквы СССР – мощное напоминание о времени становления великой державы, о ее стремлении к прогрессу и социальной гармонии. Фоном для этого эпического образа служит величественный кремль, сердце русской государственности, с которого открывается панорамный вид на Красную площадь – символ исторических событий, народных гуляний и государственных торжеств. На фоне бескрайнего неба, словно вечное напоминание о связи земного и небесного, возвышается полумесяц – древний символ мудрости, интуиции и духовного поиска. Вся композиция пронизана духом патриотизма, силы духа и веры в светлое будущее. Это не просто изображение архангела, а воплощение мощи государства, его истории и надежд на благополучие народа. Каждое детально проработано с любовью к Родине, передавая величие момента и значимость исторических событий. Символика переплетается в единое целое, создавая мощный визуальный образ, который заставляет задуматься о ценностях, которые лежат в основе национальной идентичности. Это символ защиты, справедливости, веры и величия ✏️ Промт: архангел с горящими крыльями, золотой меч держит в двух руках, над нимбом светятся русские буквы СССР. на фоне кремль, красная площадь, на небе полумесяц 🧩 Нейросеть: 🦋 GNB Images 🎭 Стили: Cybernetic 🧩 Нейросеть: nanobanana
  4. Визитка с логотипом и авторской подписью в стиле минимализм - Картинка, сгенерированная нейросетью NanoBanana Современный минимализм и технологичный подход сливаются воедино в этом визуальном образе. Черная визитка, словно воплощение элегантности и сдержанности, становится холстом для лаконичного логотипа, созданного искусственным интеллектом Yes Ai Bot – Nano banana. Этот союз подчеркивает инновационность бренда и его умение адаптироваться к новым технологиям. Фон из текстурированной поверхности деревянного стола добавляет нотку рустикальности и природной красоты, контрастируя с гладкой поверхностью визитной карточки. Объёмная 3D-визитка не просто передаёт информацию – она создаёт тактильный опыт, приглашая к взаимодействию. Впечатление от изображения усиливается благодаря детальной проработке текстур и освещения, что делает его привлекательным и запоминающимся. Это сочетание цифровой точности и естественной теплоты создает ощущение надежности и профессионализма, демонстрируя современный взгляд на брендинг и дизайн. Визитка выглядит как предмет эксклюзивности, подчеркивая индивидуальность и внимание к деталям, что делает её идеальным выбором для тех, кто ценит качество и инновации. Она говорит о технологичности и креативности, а также об умении сочетать современность с традициями, создавая уникальный и запоминающийся образ ✏️ Промт: логотип на черной визиной карточке, надпись "Изображение сгенерировано в Yes Ai Bot - Nano banana". деревенная поверхность стола, объемная 3D визитная карточка 🧩 Нейросеть: 🦋 GNB Images 🎭 Стили: No style 🧩 Нейросеть: nanobanana
  5. Отправьте боту команду /tariffs - там выберите подходящий пакет монет, если на балансе хватает средств, то пакет активируется. Но минимальный пакет монет стоит не 10 рублей.
  6. Здравствуйте. Переодеть по фотографии можно с помощью нейросети ACC (вот ссылка с инструкцией), все цены указаны тут: https://yesai.su/prices Конкретно для этой нейросети цена такая: 1 замена одежды ACC: 🔅5.0 (это примерно 4-5 рублей)
  7. Вы можете сформулировать вопрос более конкретно ? Что делали и что получилось в итоге ? Какие задачи стоят ? И что с переодеванием не так ?
  8. Sora 2 Storyboard — это инструмент для генерации видео, позволяющий создавать ролики длительностью до 25 секунд. Пользователь может самостоятельно разбивать сюжет на сцены, указывая описание и длительность каждой из них. Стандартные модели Sora 2 и Sora 2 Pro включают возможность генерации видео длительностью до 15 секунд, поэтому их следует отличать от Storyboard. В конструкторе Sora 2 Storyboard доступна функция добавления нескольких сцен (фрагментов). Для каждой сцены необходимо выбрать длительность и написать промт. Следует подчеркнуть, что нет возможности создать общее описание всего ролика, которое будет учтено глобально, так как каждая сцена описывается отдельно. В связи с этим рекомендуется добавлять все пожелания по стилистике в описание самого первого фрагмента в Storyboard. Еще одной важной особенностью конструктора историй в Sora 2 является то, что пользователь не может выбрать произвольную длительность видео: доступны только три варианта: 10 секунд 15 секунд 25 секунд Если суммарная длительность сцен составляет менее 10 секунд, потребуется либо добавить дополнительную сцену, чтобы "добрать" недостающие секунды до 10, либо увеличить длительность любой из сцен. По тому же принципу работает округление длительности до 15 или до 25 секунд. В стандартном генераторе видео Sora 2 можно создавать ролики длительностью до 15 секунд (об этом мы писали в новостях), а в Storyboard максимальная длительность увеличена до 25 секунд. Также стоит упомянуть, что генерация в Storyboard занимает больше времени, особенно если общий хронометраж всех фрагментов достигает 25 секунд — ждать придется от 10 до 20 и более минут. Если для создания видео выбрана модель Sora 2 Pro, то ожидание может увеличиться до 25 и более минут. Возможности Sora 2 Storyboard: поддержка большого количества фрагментов; поддержка разных языков ввода промтов (текстовых описаний); поддержка диалогов персонажей (рекомендуем писать тексты реплик "в кавычках"); поддержка стартового кадра (референсного изображения); выбор соотношения сторон (16:9 или 9:16); выбор версии модели (Sora 2 или Sora 2 Pro). Недостатки Storyboard: это все еще бета-версия, в которой могут возникать ошибки; неточное следование таймингам, указанным в настройках, возможны погрешности; резкий переход между сценами, если нейросеть не сможет сделать бесшовное видео; качество детализации видео, как и в базовой версии Sora 2, все еще не дотягивает до Veo 3; разрешение 1080p на данный момент недоступно в Storyboard (есть только 720p). Нам, как активным пользователям нейросетей, не совсем понравился конструктор Storyboard в Sora 2, поэтому в Yes Ai Bot мы решили упростить его для себя и клиентов. Об этом расскажем чуть ниже 👇 Как подать задание Sora 2 в Storyboard через Yes Ai Bot Запустите Телеграм-бота по этой ссылке @yes_ai_bot Отправьте промт в специальном формате* с разбивкой на фрагменты (при необходимости прикрепите к сообщению 📎 стартовый референсный кадр); В меню выберите нейросеть 🦋 Sora 2; Выполните расширенные настройки (соотношение сторон [9:16 или 16:9] и версию модели [Sora 2 или Sora 2 Pro]); Запустите задание и дождитесь результата. * Формат ввода промтов для переключения в режим Storyboard (работает только в системе Yes Ai): [длительность первого фрагмента в секундах] описание первого фрагмента [длительность второго фрагмента в секундах] описание второго фрагмента [длительность третьего фрагмента в секундах] описание третьего фрагмента ...и т.д. Внимание! В квадратных скобках указывается именно количество секунд, в течение которых должны происходить события, описанные в промте для соответствующего фрагмента. Пример промта с фрагментами: [3] толпа людей собралась на площади возле египетской пирамиды. стиль реализм, солнечный день, древний Египет [5] мужчина говорит: "мы требуем защиты прав всех котиков" [10] на центральную площадь медленно выходит кот в золотых украшениях и садится среди толпы людей Как будет работать Sora 2 Storyboard при отправке промта из этого примера: Будет создано три фрагмента длительностью 3, 5 и 10 секунд соответственно. Последний фрагмент будет автоматически удлинен на 7 секунд, так как сумма секунд в квадратных скобках равна 18, а ближайший доступный интервал — 25 секунд (произойдет округление в большую сторону). В итоге длительность фрагментов станет такой: 3, 5 и 17 секунд. Рекомендуется не допускать автоматического округления длительности фрагментов, так как в видео появятся лишние паузы и эффект затянутости, когда персонажи просто чего-то ждут. Лучше всего разбивать видео на большее количество фрагментов либо сокращать его длительность. Подбирайте количество секунд в каждом фрагменте так, чтобы сцены не были затянуты по хронометражу, но при этом все описанные в промте события успевали произойти. Важно! Не вставляйте длинные реплики диалогов в короткие фрагменты — персонажи могут не уложиться в отведенные интервалы. Пример промта с грамотными таймингами: [3] толпа людей собралась на площади возле египетской пирамиды. стиль реализм, солнечный день, древний Египет [5] мужчина говорит: "мы требуем защиты прав всех котиков" [4] на центральную площадь медленно выходит кот в золотых украшениях и садится посреди толпы людей [7] кот говорит: "не нужны нам ваши права, мы и так правим всем миром" [3] толпа людей аплодирует котику [3] люди расходятся по домам В этом примере весь 25-секундный хронометраж заполнен на 100%: сумма секунд в квадратных скобках равна 25. Рекомендуем всегда заполнять интервалы и напоминаем, что сумма секунд внутри квадратных скобок должна быть равна одному из трех значений: 10 секунд 15 секунд 25 секунд 352976447_1761385678208382.mp4 Правила, по которым Yes Ai определяет, что генерация видео в Sora 2 должна быть выполнена именно в Storyboard: в промте найдено не менее двух блоков с таймингами в формате [x] ... [x] ... во всех квадратных скобках указаны именно числа, сумма которых не превышает 25 (ограничение длительности в 25 секунд); Если любое из этих правил будет нарушено, то при подаче задания вы либо получите ошибку, либо генерация будет выполнена в Sora 2 без Storyboard. Как рассчитывается стоимость генерации видео в Storyboard Цена каждой генерации рассчитывается индивидуально — она зависит от количества секунд, указанных в промте. Есть три варианта длительности: 10, 15 и 25 секунд. Если сумма секунд в квадратных скобках будет меньше, то произойдет автоматическое округление до ближайшего доступного интервала (в большую сторону). Также стоимость зависит от выбранной версии модели (Sora 2 или Sora 2 Pro). С полным списком цен на услуги Yes Ai можно ознакомиться по [этой ссылке]. Если вы не знакомы с базовыми принципами работы нейросети Sora 2, рекомендуем прочитать эти статьи: Как пользоваться нейросетью Sora 2 Как писать промты для Sora 2
  9. Вот тут доступна эта нейросеть: https://t.me/yes_ai_bot?start=_chatgpt Когда перейдете по этой ссылке, нажмите на выбор нейросети в нижнем меню, а затем выберите GPT 4.1, как показано на скриншоте
  10. Sora 2 — это обновлённая версия нейросети для генерации видео от компании OpenAI. Официальный запуск состоялся в октябре 2025 года. Самые важные изменения: генерация звука и диалогов, высокое качество и разрешение видео (до 1080p), поддержка различных языков в промтах и в речи. Нейросети еще никогда не были так близки к созданию реалистичных видео кинематографического качества. С помощью Sora 2 можно создавать целые клипы, генерируя их отрезками по 10 или 15 секунд. На данный момент уже поддерживается стартовый кадр, что позволяет продлевать ролики по аналогии с тем, как это реализовано в Veo 3 [см. описание]. Sora 2 доступна в двух вариантах: Базовая версия, которая так и называется "Sora 2": разрешение 720p, длительность 10 или 15 секунд. Генерация осуществляется быстро (несколько минут). Расширенная версия "Sora 2 Pro": разрешение 720p или 1080p, длительность 10 или 15 секунд, более глубокая проработка деталей. Генерация занимает больше времени (от 5 до 10+ минут). Сильные стороны Sora 2 Реалистичность (почти неотличимая от реальности физика взаимодействия персонажей с предметами и друг с другом); Высокое качество видео (от 720p до 1080p); Альбомный и портретный форматы (16:9 и 9:16); Длительность (10 и 15 секунд на выбор); Поддержка референсов (картинка в качестве стартового кадра); Озвучка диалогов на разных языках, в том числе на русском; Автоматическая генерация окружающих звуков и эффектов; Нативная поддержка текста промтов на большинстве языков (не требуется перевод на английский); Понимание промтов на очень высоком уровне (нейросеть выполняет почти всё, что описано в тексте). Примеры генераций из Sora 2 можно посмотреть в нашей группе в Телеграм: https://t.me/yes_ai_chat/130591 Ограничения и недостатки Sora 2 Наличие водяного знака на видео (если у нейросети есть на это основания, см. описание ниже); Запрещено использовать в качестве референсов реалистичные изображения и фотографии (допускаются только арты, аниме, рисунки или фотографии без присутствия людей). Исключение — функция "Камео", когда в качестве референса используется образ реального человека (поддерживается только в официальном мобильном приложении); Запрещено использовать в качестве референсов изображения, на которых присутствуют любые известные персонажи фильмов, мультфильмов и пр.; Запрещено в промтах указывать имена любых известных персонажей, защищенных авторскими правами; Видео с высоким разрешением генерируются достаточно долго (10+ минут), но это нельзя считать полноценным недостатком; Иногда реплики или музыкальное сопровождение обрываются в неудачный момент (не полностью умещаются в отведенный временной интервал); Sora 2, как и прочие нейросети от OpenAI, недоступна на территории РФ и некоторых других стран. Однако этот недостаток можно обойти, используя Yes Ai Bot в мессенджере Telegram; Если сравнивать с Veo 3, то Sora 2 обойдётся дороже, ведь для полноценного доступа ко всем функциям придётся платить по $200 в месяц (без учёта VPN и других побочных расходов). Но в Yes Ai генерации можно делать без оплаты месячных тарифов. ⚠️ Внимание! В нейросети Sora 2 запрещено генерировать контент категории NSFW (not safe for work) и диалоги с нецензурной лексикой — за подобные попытки можно получить бан. Как генерировать видео в Sora 2 без водяного знака Нейросеть добавляет водяные знаки с целью предотвращения создания фейков и сомнительных материалов, но при выполнении нескольких условий вы сможете избежать появления вотермарков. Как работает водяной знак в Sora 2: Если вы делаете генерацию с использованием стартового кадра (референса), то watermark будет всегда; Если вы делаете генерацию только по промту, но в нём есть прямые или косвенные намёки на фотореалистичность, водяной знак будет присутствовать; Если генерация создаётся по промту, в котором есть упоминания каких-либо конкретных личностей, то вотермарк будет присутствовать; Если промт является "стерильным" с точки зрения нейросети, то водяного знака не будет. Как сгенерировать видео по промту без референса в Sora 2 через Yes Ai Bot Откройте нейросеть Sora 2 в Telegram по этой ссылке https://t.me/yes_ai_bot?start=_soravideo2 Отправьте промт на любом языке В появившемся меню выберите нейросеть "🦋 Sora" Нажмите кнопку "Версия" и выберите "Sora 2" или "Sora 2 Pro" Установите расширенные настройки, доступность которых зависит от выбранной версии: соотношение сторон (формат), разрешение, длительность Запустите генерацию Как сгенерировать видео по промту со стартовым кадром в Sora 2 через Yes Ai Bot Откройте нейросеть Sora 2 в Telegram по этой ссылке https://t.me/yes_ai_bot?start=_soravideo2 Прикрепите к сообщению 📎 стартовый кадр (картинку), описание (промт) нужно отправить вместе с ним В появившемся меню выберите нейросеть "🦋 Sora" Нажмите кнопку "Версия" и выберите "Sora 2" или "Sora 2 Pro" Установите расширенные настройки, доступность которых зависит от выбранной версии: соотношение сторон (формат), разрешение, длительность Запустите генерацию Количество одновременно генерируемых видео в Yes Ai для нейросети Sora 2 зависит от вашего тарифа. На бесплатном тарифе вы можете создавать видео по одному, по очереди. Описание всех тарифов [смотрите здесь]. Обновление (15 октября): Мы опубликовали инструкцию по написанию промтов для Sora 2, вам следует прочесть ее перед началом работы с нейросетью. https://forum.yesai.su/topic/3297-sora-2-kak-pisat-pravilnye-prompty-dlya-sozdaniya-video-s-pomoschyu-neyroseti/ Референсы (стартовые кадры) для Sora 2 можно генерировать в других нейросетях. Лучше всего для этих целей подойдут: Sora Images (оптимальный вариант) Midjourney Если у вас возникнут вопросы по работе с Sora 2 или другими нейросетями, обратитесь за решением в чат нашего [телеграм-сообщества].
  11. Эта команда допустима к использованию только через оригинальный миджорни. Во всех сторонних сервисах эти команды обрезаются в целях безопасности.
  12. Для этого вам не нужен тарифный план, достаточно покупать монеты для генераций. Вы тратите монеты по мере необходимости.
  13. Нейрофотосессия — это современный тренд, заключающийся в том, что вы отправляете нейросети свою фотографию, а система автоматически подбирает различные локации и стили, генерируя результаты в виде фотографий. Теперь для получения различных образов не нужно обращаться к фотографам — нейросеть Qwen Images сделает всё за вас! В этой статье мы разберём процесс создания фотографий с помощью нейросети Qwen. Ранее в статьях мы уже рассказывали о том, как Qwen Images может обрабатывать любые изображения, в том числе фотографии. Если вы пропустили этот материал [вот ссылка]. Принцип работы нейрофотосессий Разберём процесс проведения нейрофотосессий на примере бота @yes_ai_bot в Telegram — в нём доступен полный функционал нейросети Qwen, в том числе стилизация фото. Существует два типа нейрофотосессий: по вашей фотографии; по текстовому описанию и вашей фотографии. Первый способ — если вы отправите боту фотографию, на которой хорошо видно ваше лицо, будет достаточно выбрать количество изображений, которые хотите получить в результате (5 или 10 штук). Каждая из них будет сгенерирована с уникальным стилем и в уникальной локации. 🚩 Этот метод в некоторых случаях создает генерации с погрешностями, в частности, нейросеть может не на всех фото правильно определить пол человека или цвет волос. По этой причине рекомендуем указывать ключевые моменты в тестовом описании, см. второй способ 👇 Вот несколько примеров: Второй способ — это когда вместе с фотографией вы указываете дополнительное текстовое описание (промт), которое нейросеть должна учесть. 👆В нашем примере девушке вручили стакан апельсинового сока. Лучшим применением этой "фишки" можно назвать управление расположением человека в кадре: например, вы можете отправить фото, на котором человека видно не полностью, а в промте написать "в полный рост". В результате вы получите изображение персонажа, снятого с отдалением от камеры. Примеры промтов для управления нейрофотосессиями: в полный рост / сидит в кресле / смотрит вверх и т. д.; только лицо; держит в руках... (укажите, какие предметы человек должен держать в руках); голубые глаза / фиолетовые светящиеся глаза (если нужно изменить цвет глаз); зелёные волосы / длинные волосы / лысый и др.; в средневековом платье / в джинсах (можно переодевать персонажа); с улыбкой / плачет / смеётся (управление эмоциями). Если коротко, вы можете описать почти любые пожелания, но не всегда есть гарантия, что нейросеть поймёт, о чём идёт речь. Рекомендуем тестировать нейрофотосессии на минимальных объёмах (5 штук). Если какие-то генерации не удались, попробуйте повторить попытку с другой исходной картинкой. Если на вашей фотографии изображено более одного человека, следует указать в промте, что стилизовать нужно всех людей, иначе нейросеть может выбрать только одного из них. 🚩 Чтобы нейросеть не ошиблась с полом персонажа, лучше указать его в промте. Как провести нейрофотосессию через Telegram-бота Yes Ai Краткая инструкция: Перейдите в бота по ссылке: @yes_ai_bot Отправьте 📎 фотографию человека, для которого хотите провести фотосессию. Важно! Если нужно, чтобы нейросеть каким-либо специфическим образом обработала фотографию, в примечании к ней укажите текстовое описание на любом языке (промт). В появившемся меню нажмите кнопку «👩‍🎨 Нейрофотосессия». Выберите количество фотографий, которые хотите получить. Дождитесь результатов (длительность процесса зависит от количества заказанных генераций). От чего зависят размер и пропорции генерируемых изображений? Всё просто: система сохраняет пропорции и размеры, которые были у исходной фотографии. Отправили «квадрат» — получите «квадрат» на выходе и т. д. В результате проведения нейрофотосессии вы получите каждую фотографию отдельным сообщением в боте, после чего любую из них можно будет дополнительно обработать (стилизовать или модифицировать с помощью расширенных функций и т. д.). При запуске нейрофотосессии система будет подбирать случайные локации и стили из коллекции, поэтому для каждой фотографии можно делать по несколько «заходов». Если вам понравилась та или иная генерация, её размер можно увеличить без потери качества с помощью [функции Upscale] Если возникнут вопросы по работе с Qwen (или с другими нейросетями), обращайтесь в наш Telegram-чат.
  14. Все верно, для получения бесплатных генераций нужно кому-то порекомендовать бота, так как бесплатные генерации не являются неотъемлемой частью тарифа, это по сути бонус от администрации. Буквально двумя сообщениями выше был подробно разобран и этот вопрос. Рекомендуем прочесть: https://forum.yesai.su/topic/621-bezlimitnyy-dostup-k-neyrosetyam-v-yes-ai-bot/?do=findComment&comment=5159
  15. Здравствуйте, согласно прайсу (по ссылке): https://yesai.su/prices 1 генерация Sora Images: 🔅0.7 монет Каждая генерация в Sora Images - это 4 картинки по 🔅0.7 монет В день баланс на пакетах VIP восстанавливается на 🔅100 монет, делаем несложный расчет: ( 100 / 0.7 ) * 30 = 4260 изображений в месяц ИЛИ 142 в сутки. Но в пакетах VIP можно брать монеты авансом со следующего дня, что позволит делать больше генераций ежедневно. Подробнее про авансы написано тут: https://t.me/yes_ai_official/1359 Кроме того, монеты можно покупать отдельно (без покупки пакета VIP), в этом случае стоимость будет тем ниже, чем большее количество монет покупаете за раз. Для покупки монет или тарифов отправьте боту @yes_ai_bot команду /tariffs
  16. Рекомендуем для создания обложек использовать нейросеть Sora Images, вот ссылка: https://t.me/yes_ai_bot?start=_soraimages Пример промта: обложка книги с зеленой обложкой, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA" Вы можете добавлять к промту любые пожелания в свободной форме, вот еще пример для управления цветом обложки: обложка книги с зеленой обложкой разных оттенков, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA"
  17. Отвечаем по порядку важности тезисов, касающихся бесплатных генераций в нейросетях для пакетов VIP. Пункт номер НОЛЬ: Уважаемый Makentosh, объясняем, почему у вас не сработали бесплатные генерации. К сожалению, вы в данном обращении НЕ указали, что использовали именно нейросеть Flux.1. Однако именно для нее в условиях предоставления бесплатных генераций указано следующее: «Генерации изображений в нейросети Flux.1 (при максимальной ширине и/или высоте не более 1024 пикселей), в том числе с использованием моделей LoRA». Чего вы не учли: при генерациях у вас использовалось соотношение сторон 900×1600 пикселей — это выходит за рамки действия безлимита для нейросети Flux.1. Как решить эту проблему в будущем? Пожалуйста, читайте описание внимательнее 🙏 Но для полноценного ответа на вопрос о бесплатных генерациях мы упомянем и другие важные пункты, с которыми часто сталкиваются пользователи. 1. Важно понимать, что бесплатные генерации (с разумными ограничениями) не являются неотъемлемой частью пакетов VIP. Данная опция предоставляется по усмотрению администрации для обладателей пакетов VIP. Об этом написано в оферте в начале этого топика: «Данное предложение не является офертой, Yes Ai оставляет за собой право изменить правила предоставления безлимитов в любой момент». Если вы поняли, что это НЕ является офертой, двигаемся дальше. 2. Если пользователь очень активно пользуется ботом, у системы есть основания полагать, что он потенциально может злоупотреблять безлимитными генерациями, либо использует телеграм-аккаунт не один, либо автоматизирует действия внутри системы. По этой причине (для обеспечения безопасности) бесплатные генерации временно ограничиваются для пользователя. Важно: система ничего не утверждает, в частности — НЕ утверждается, что пользователь совершает какие-либо действия со злым умыслом, НО система вправе ограничить бесплатные генерации для обеспечения собственной безопасности. 3. Ограничения на бесплатные генерации в пакетах VIP накладываются автоматически, точно так же (автоматически) они снимаются спустя некоторое время. Когда снимается ограничение на бесплатные генерации: рекомендуем подождать до СЛЕДУЮЩЕГО дня, либо для генераций вы можете использовать монеты, которые включены в пакет. Напоминаем, что вы можете забирать монеты авансом из пакета — об этом рассказано здесь: https://t.me/yes_ai_official/1359 4. Как избежать ограничений бесплатных генераций на пакете VIP в будущем? Всего два простых тезиса: Если пользователь ведет среднестатистический образ жизни (спит, делает перерывы на обед, иногда отдыхает от нейросетей) и не использует бота постоянно, то бесплатные генерации не отключатся вплоть до окончания срока действия пакета VIP. Если пользователь генерирует в нейросетях больше, чем среднестатистический человек, для него действуют стандартные опции пакета VIP, описанные в тарифах: https://forum.yesai.su/topic/412-tarify-yes-ai-bot (в том числе ежедневные начисления монет, баллов и возможность получать монеты и баллы авансом).
  18. нейросеть Sora Images не поддерживает негативные промты в чистом виде, вместо этого следует четко указывать, что именно вы хотите видеть на изображении. Например, если вы не хотите, чтобы на человеке был синий пиджак, то просто укажите, какого цвета должен быть этот пиджак. Другими словами, нужно просто более подробно описывать то, что вы хотите видеть.
  19. Следует задавать вопросы более конкретно, о какой нейросети идет речь ? Но, если коротко, все цены указаны в прайсе: https://yesai.su/prices
  20. Нейросеть Qwen Images способна не только генерировать изображения, но и обрабатывать любые картинки и фотографии. Список возможностей очень широк, в скором времени он будет расширен за счет выхода обновленных моделей Qwen Image Edit. Вот некоторые из доступных функций: изменение определенных деталей на референсах по описанию из промта; стилизация картинок (применение стиля к фотографиям, например, создание аниме-аватара человека и пр.) [выполнить в боте] удаление водяных знаков (remove watermarks) [выполнить в боте] реставрация старых фотографий [выполнить в боте] генерация фотографий интерьера по чертежам или наброскам; генерация чертежей (контуров) интерьера по фотографиям; генерация цветных фотографий из черно-белых [выполнить в боте] удаление фона (замена на белый) [выполнить в боте] [beta] дорисовка областей с учетом контекста - Outpaint (дорисовка справа, слева, сверху, снизу, вокруг); преобразование объектов и персонажей в их 3D версии; поворот объектов и персонажей; генерация карты глубины по картинке; изменение возраста персонажей (сделать старше или моложе); замена одежды на человеке по описанию; [скоро] замена одежды на человеке по фотографии; замена черт лица, цвета кожи и прочих деталей у людей и персонажей; исправление дефектов внешности; [unstable] экстракция (извлечение) элементов одежды с фотографий. В этом списке перечислены далеко не все возможности обработки референсов (ваши изображений) Qwen, но тут важно отметить, что сама по себе эта нейросеть не имеет этих встроенных функций, они работают по иному принципу — вы отправляете в Квен картинку + промт с описанием того, что нужно сделать, а ИИ делает обработку (опирается именно на текст из промта). 👆 Этот момент является ключевым! С одной стороны, возможность самостоятельно описать то или иное действие позволяет изменять референсы так, как взбредет в голову, но у этого подхода есть несколько недостатков: результат выполнения того или иного преобразования может сильно зависеть от исходного референса, например, функция Outpaint (дорисовка), доступная в Yes Ai Bot, на одних картинках будет давать стабильный результат, а на других могут просто появляться пустые добавленные области без учета контекста. Эта функция сейчас работает в бета-режиме; нейросеть может не понять суть поставленной задачи (потребуется подбирать подходящий промт для получения стабильных результатов); нейросеть может не уметь делать некоторые вещи, и вы не узнаете об этом, пока не сделаете тест. 💡 Обязательно учтите описанные выше особенности, ведь оплата берется за факт генерации, а не за результат. Подробнее об этом рассказано в статье "Почему нейросети не возвращают деньги" Хорошая новость в том, что Qwen является достаточно продвинутой нейросетью, которая справляется с перечисленными задачами намного лучше многих конкурентов, поэтому жаловаться особо не приходится. Да, иногда результат будет достигаться не с первой попытки, и во многих случаях достаточно доработать свой промт, но это уже, как говорится, приходит с опытом. В Телеграм-боте Yes Ai многие из перечисленных функций реализованы в "однокнопочном" формате, т.е. вам достаточно отправить боту картинку и кликнуть из списка по соответствующей кнопке. Это сильно упрощает жизнь. Разберем на примерах. Как удалить водяной знак с помощью нейросети Qwen откройте бота по этой ссылке @yes_ai_bot отправьте одно изображение, на котором необходимо удалить водяной знак; в появившемся меню разверните список доступных возможностей кнопкой "🐼 Функции Qwen"; нажмите на кнопку "💧 Удалить Watermark" и дождитесь результата генерации. Как стилизовать фотографию в нейросети Qwen Стилизация через нейросеть Qwen позволяет перерисовать исходное изображение целиком, полностью заменив его стилистику, но при этом сохранятся общие черты персонажей и окружения. Покажем это на примере: переходим в бота по этой ссылке @yes_ai_bot отправляем фотографию, например, с вашим прекрасным лицом; в появившемся меню нажмите кнопку "🎭 Стилизовать"; выберите любой из стилей в списке (обратите внимание, что список можно листать влево и вправо), стилизация запустится автоматически, останется только дождаться результата. Как изменять картинки по промту в Qwen Выше мы разобрали функции Квена, которые были "упакованы" разработчиками Yes Ai в кнопки, но фундаментальной следует считать именно модификацию референсов по собственным промтам. В этом случае вам предстоит самостоятельно текстом описывать то, что необходимо сотворить с исходными изображениями. Писать промты для Qwen Images можно на любом языке, с свободной форме (если работаете через Yes Ai Bot, но постарайтесь не перегружать задачи избыточными данными. Лаконичность — залог успеха. Откройте бота Yes Ai. Отправьте изображение вместе с текстовым примечанием, оно будет автоматически применено в качестве промта при генерации. В появившемся меню нажмите кнопку "🌇 Референс картинки" и дождитесь результата. Все модификации изображений в боте Yes Ai работают с применением следующих принципов: Пропорции для генераций будут взяты из исходных картинок, а не из базовых настроек в боте Если используются функции категории "Outpaint", то пропорции будут вычисляться автоматически, но площадь картинок, сгенерированных нейросетью будет ограничена порогом в 1.2 Мегапикселя. Если результат генерации необходимо увеличить, то используйте отдельный инструмент [Как сделать апскейл картинки через нейросеть] Если вы хотите сделать Outpaint, то бесполезно писать об этом в промте при использовании функции "🌇 Референс картинки". Дорисовка работает исключительно через отдельные функции, доступные в списке под кнопкой "🐼 Функции Qwen". В скором времени мы расширим данную инструкцию, так как уже ведем разработки в области обработки изображений через нейросеть Qwen Images Edit. Сообщим об этом на нашем канале в Телеграм, рекомендуем подписаться: https://t.me/yes_ai_official По всем вопросам обращайтесь в наш чат: https://t.me/yes_ai_talk Если вы еще не читали первую статью с описанием базовых функций Qwen, то следует сделать это:
  21. Нейросеть Qwen Images от разработчиков из Китая, хоть и можно условно назвать логическим продолжением Flux.1, ведь уровень качества их генераций очень близок, но в некоторых аспектах Qwen на голову выше оппонента. Нейросеть Qwen справляется с множеством задач, но основной "фишкой" можно без сомнений считать широкие возможности обработки изображений, а не простые генерации по промтам. Объясним суть проблем, которые способна решить нейросеть Qwen. Обработка изображений Проблема большинства пропиетарных нейросетей (Midjourney, Sora Images и пр.), предоставляющих возможность обрабатывать ваши изображения, заключается в том, что в них используются через чур жесткие NSFW-фильтры (not safe for work), которые часто ограничивают генерации, которые НЕ содержат ничего запрещенного. А Квен может быть установлен на собственных серверах, поэтому фильтрация контента будет работать более адекватно. Да, базовые версии Qwen не генерируют NSFW, так как не обучены для этих целей, но за мелкие нарушения вы хотя бы не получите бан. Если будет замечено подозрение на "запрещенку", то генерация будет выполнена в "дистиллированном" виде (без NSFW). А теперь перейдем к самой важной части — к функциям обработки картинок. Вы можете загрузить в Qwen собственные изображения с целью переработки и стилизации, вот некоторые опции: Замена одежды на персонаже или иные модификации окружения с сохранением черт лица оригинала (нейросети Midjourney и Sora Images молча завидуют Квену =) ) [скоро] Объединение нескольких изображений (аналогично тому, как это работает в Sora Images). [скоро] Замена одежды на человеке по фотографии человека и элементов одежды. [скоро] Поддержка карты глубины (depth map) (из Control.Net) для получения более предсказуемых результатов. [скоро] Поддержка шаблонов Open Pose для управления позами персонажей (из Control.Net). Замена стиля на тот, который описан в промте, например, из собственной фотографии можно создать аниме аватар [выполнить в боте] Реставрация старых фото в один клик [выполнить в боте] [beta] Дорисовка областей слева, справа, внизу, вверху, вокруг (Outpaint), пока работает не для всех картинок, но это решаемо. Расскажем об этом в отдельной статье. Колоризация черно-белых фото (сделать фотографии цветными) [выполнить в боте] Реставрация фото без изменения образов персонажей. Преобразование объектов в 3D-модели. [beta] Экстракция одежды для маркетплейсов (работает не очень стабильно). Можно с фотографии вытащить одежду. Удаление водяных знаков [выполнить в боте] Удаление фона (замена фона на белый) [выполнить в боте] Свободная модификация картинок с использованием произвольного промта. ...это далеко не все. Полный список возможностей почти безграничен, ведь вы сами можете описать, что именно нужно сделать с фотографиями. Неплохой список достоинств, не правда ли ? Это не все, вот еще пара важных моментов... Лица людей при модификации референсов не изменяются (остаются оригинальными), если иное не указано в промте. Умеет писать текст на английском и китайском, причем, не просто текст, а слова и фразы, разделенные на фрагменты. Например, можно сделать обложку журнала, где будет четко выделен заголовок, название и дополнительные блоки текста. Квен поддерживает LoRA (Low-Rank Adaptation), вы можете расширять базу знаний Qwen за счет обученных моделей, которые можно установить, например, с сайта civitai.com в Yes Ai Bot (в мессенджере Телеграм). Недостатки нейросети Qwen Images Qwen — не волшебная палочка, а нейросеть, способности которой не безграничны. Перечислим некоторые сложности, с которыми вы можете столкнуться: При дорисовке (Outpaint) добавляемые области могут не всегда соответствовать референсу, но эта проблема часто решается повторными попытками или пост-модификациями Достаточно высокая нагрузка на железо, без дорогостоящего оборудования практически не обойтись (либо придется долго ждать генераций). Рекомендуем видеокарты не ниже NVIDIA 3090, в идеале 4090 или 5090, так что придется выложить из кармана лишние (или не лишние?) несколько тысяч долларов. Жалко денег? Тогда не придется покупать собственное железо, все функции Qwen доступны в Telegram-боте @yes_ai_bot При работе с референсами иногда может происходить неожиданная замена элементов, например, фона, хотя в промте об этом не упоминалось Не самая богатая база знаний терминов, словарный запас заметно ниже, чем у той же Sora Images Не поддерживаются никакие языки кроме английского и китайского Как сгенерировать картинки в Qwen Images Разберем процесс на примере Yes Ai Bot, в котором доступна эта нейросеть. Перейдите по ссылке в Телеграм-бота @yes_ai_bot Сделайте настройки, если необходимо: можно выбрать модель (чекпойнт), количество шагов сэмплинга (почти всегда достаточно 20), размер генераций (в пикселях) и количество генераций для каждого запроса. Выберите стиль из галереи, если лень самостоятельно придумывать сложные промты. Отправьте промт на любом языке (сервис Yes Ai автоматически переведет его на английский). Настройки для нейросети Qwen Images: модель (чекпойнт): определяет базовую стилистику изображения, чекпойнты обучены на разных дата-сетах, что позволяет им делать совершенно уникальные генерации. Например, можно выбрать чекпойнт, который больше "заточен" под генерации в стиле реализм, если требуется повышенная фотореалистичность; количество шагов сэмплинга: чем их больше, тем большее количество раз нейросеть будет "додумывать" содержимое генераций, но тем больше будет стоимость и время ожидания. В 99% случаев будет достаточно 20 шагов; размер генераций: вы можете выбрать формат 1:1 / 2:3 / 3:2 / 9:16 / 16:9, причем доступны различные размеры (в настройках они указаны в пикселях); количество генераций: если выбрана 1 копия, то на каждый отправленный промт будет создаваться только 1 картинка, если выбрано 2 копии, то будет два уникальных результата и т.д. Если вам нужны примеры промтов для генераций, рекомендуем открыть бесплатную галерею на нашем форуме. Как генерировать изображение в Qwen Images с использованием моделей LoRA Если коротко, то нужно делать все то же самое, что описано предыдущей 👆 инструкции, но к тексту промтов требуется добавлять ключ с номером заранее установленной модели LoRA и весовым коэффициентом. Пример промта с использованием Qwen LoRA: панда кушает лапшу из миски <lora:1938784:1.1> pixel art in 2dhd octopath traveler style ...где <lora:1938784:1.1> — это ключ активации модели LoRA: "1938784" - номер модели с сайта civitai.com "1.1" - это весовой коэффициент, обычно он варьируется в диапазоне от 0.7 до 1.5 (зависит от того, как была обучена выбранная модель Лоры) "pixel art in 2dhd octopath traveler style" - триггерные слова для активации модели А теперь разберемся, где брать номер LoRA для ключей формата <lora:1938784:1> Во-первых в Yes Ai Bot есть галерея моделей Лора, которые ранее были установлены другими пользователями. Вы можете копировать ключи моделей прямо оттуда, но не забывайте вставлять в промт и триггерные слова, если они присутствуют в карточке описания. Как установить модель Qwen LoRA с сайта Civitai в галерею Yes Ai Если вам не хватает выбора моделей из галереи Yes Ai, добавьте то, что найдете на сайте Civitai (это большая библиотека моделей, обученных энтузиастами со всего мира). Для начала вам нужно определиться, какую модель планируете использовать для генераций, сделать это можно на сайте Civitai по ссылке: https://civitai.com/models. ⚠️ В фильтрах выберите два пункта: "LoRA" и "Qwen". В появившемся списке выберите понравившуюся модель, отвечающую вашей идее по стилистике или функциям (читайте описания моделей, в них авторы пишут, что именно делает та или иная Лора). Перейдите в карточку модели и скопируйте ссылку из строки браузера, например: https://civitai.com/models/1938784/2dhd-pixel-art-octopath-style Скопированную ссылку нужно отправить боту Yes Ai в Телеграм, система все проверит и добавит модель в галерею в течение 5-15 минут. Обратите внимание, что для Qwen можно устанавливать только те модели, у которых стоит пометка "Base model: Qwen". А когда будете отправлять ссылку боту, убедитесь, что в нижнем меню выбрана именно нейросеть Qwen: надпись на кнопке "Нейросеть: Qwen Images [изменить]". Когда Лора будет успешно добавлена в систему, вы можете отправлять промты, содержащие соответствующий ключ, в нашем примере он будет выглядеть так: <lora:1938784:1>, где 1938784 — это номер модели (его можно увидеть в ссылке, которую вы скопировали с сайта Civitai. Тут явно чего-то не хватает! Не хватает триггерных слов, ведь они были предусмотрены автором этой модели (речь про "671809"). Триггерные слова — это текст, который требуется отправлять вместе с вашим промтом, чтобы LoRA работала именно так, как задумал автор. Для рассматриваемой модели действительно предусмотрена триггерная фраза: pixel art in 2dhd octopath traveler style Теперь собираем все по частям, нам нужен промт, который создаст картинку с пандой... панда кушает лапшу из миски <lora:1938784:1> pixel art in 2dhd octopath traveler style Может возникнуть логичный вопрос "А ничего, что часть промта написана на русском языке, а триггерные слова на английском?". Отвечаем: Не беспокойтесь об этом, система Yes Ai автоматически все отрегулирует и сделает правильную генерацию, так что можно миксовать два языка в одном запросе. Если вы используете Qwen на своем компьютере, то необходимо весь промт вводить на английском языке. Как выбирать весовой коэффициент для Лоры и на что он влияет? Весовой коэффициент для LoRA определяет силу ее воздействия на создаваемую генерацию, чем он выше, тем сильнее модель проявит свои признаки. В командах для Yes Ai Bot весовой коэффициент указывается после номера модели, например: <lora:1938784:1.2> ...здесь число "1.2" — это весовой коэффициент, влияющий на силу модели с номером 1938784. Как уже было отмечено ранее, весовой коэффициент обычно варьируется в диапазоне от 0.7 до 1.5, но тут нет строгих правил, т.к. некоторые авторы при обучении LoRA могут использовать иные значения. По этой причине следует обратить внимание на две вещи: описание модели в карточке на сайте Civitai - иногда авторы указывают диапазоны изменения весовых коэффициентов; примеры генераций, сделанных автором (они также видны в карточках моделей). В описании картинок есть промты, а в промтах иногда указан вес моделей Лора. Если в карточке модели ничего полезного не нашли, то смело ставьте вес равный единице и тестируйте, тестируйте, тестируйте... ведь качественный результат вы, так или иначе, получите не сразу, а лишь спустя какое-то количество итераций (повторений). Если вес, равный единице не дал ожидаемых результатов, увеличьте или уменьшите его, в зависимости от полученных ранее генераций. ...НЕ мечтайте, что все начнет получаться с первых попыток, нейросети так не работают. Хотите упростить себе жизнь и получить проверенные промты? Тогда можно направиться в галерею на нашем форуме, там размещено множество примеров настроек и промтов для нейросети Qwen Images. Будем считать, что вопрос с простыми генерациями по промтам и с моделями LoRA мы разобрали, но, если у вас остались вопросы, задайте их в Телеграм: https://t.me/yes_ai_talk Следующая важная статья — использование функций нейросети Qwen Images, в которой мы разберем полезные штуки вроде удаления фона, стилизации и работы с референсами. Настоятельно рекомендуем к ознакомлению: https://forum.yesai.su/topic/3056-neyroset-qwen-obrabotka-izobrazheniy-stilizaciya-udalenie-fona-restavraciya/
  22. 1. на будущее просьба размещать пожелания в разделе пожеланий (ваш топик мы уже перенесли сами) 2. мы учтем ваше пожелание, но хотим обратить внимание, что там уже есть бонус за пополнения - в течение часа после покупки любого количества монет вам предоставляется скидка на следующую покупку монет - так что вы уже можете экономить, просто делая по две покупки монет подряд
×
×
  • Создать...