Перейти к содержанию

admin

Администратор
  • Постов

    438
  • Зарегистрирован

  • Посещение

  • Победитель дней

    5

Весь контент admin

  1. Эта команда допустима к использованию только через оригинальный миджорни. Во всех сторонних сервисах эти команды обрезаются в целях безопасности.
  2. Для этого вам не нужен тарифный план, достаточно покупать монеты для генераций. Вы тратите монеты по мере необходимости.
  3. Нейрофотосессия — это современный тренд, заключающийся в том, что вы отправляете нейросети свою фотографию, а система автоматически подбирает различные локации и стили, генерируя результаты в виде фотографий. Теперь для получения различных образов не нужно обращаться к фотографам — нейросеть Qwen Images сделает всё за вас! В этой статье мы разберём процесс создания фотографий с помощью нейросети Qwen. Ранее в статьях мы уже рассказывали о том, как Qwen Images может обрабатывать любые изображения, в том числе фотографии. Если вы пропустили этот материал [вот ссылка]. Принцип работы нейрофотосессий Разберём процесс проведения нейрофотосессий на примере бота @yes_ai_bot в Telegram — в нём доступен полный функционал нейросети Qwen, в том числе стилизация фото. Существует два типа нейрофотосессий: по вашей фотографии; по текстовому описанию и вашей фотографии. Первый способ — если вы отправите боту фотографию, на которой хорошо видно ваше лицо, будет достаточно выбрать количество изображений, которые хотите получить в результате (5 или 10 штук). Каждая из них будет сгенерирована с уникальным стилем и в уникальной локации. 🚩 Этот метод в некоторых случаях создает генерации с погрешностями, в частности, нейросеть может не на всех фото правильно определить пол человека или цвет волос. По этой причине рекомендуем указывать ключевые моменты в тестовом описании, см. второй способ 👇 Вот несколько примеров: Второй способ — это когда вместе с фотографией вы указываете дополнительное текстовое описание (промт), которое нейросеть должна учесть. 👆В нашем примере девушке вручили стакан апельсинового сока. Лучшим применением этой "фишки" можно назвать управление расположением человека в кадре: например, вы можете отправить фото, на котором человека видно не полностью, а в промте написать "в полный рост". В результате вы получите изображение персонажа, снятого с отдалением от камеры. Примеры промтов для управления нейрофотосессиями: в полный рост / сидит в кресле / смотрит вверх и т. д.; только лицо; держит в руках... (укажите, какие предметы человек должен держать в руках); голубые глаза / фиолетовые светящиеся глаза (если нужно изменить цвет глаз); зелёные волосы / длинные волосы / лысый и др.; в средневековом платье / в джинсах (можно переодевать персонажа); с улыбкой / плачет / смеётся (управление эмоциями). Если коротко, вы можете описать почти любые пожелания, но не всегда есть гарантия, что нейросеть поймёт, о чём идёт речь. Рекомендуем тестировать нейрофотосессии на минимальных объёмах (5 штук). Если какие-то генерации не удались, попробуйте повторить попытку с другой исходной картинкой. Если на вашей фотографии изображено более одного человека, следует указать в промте, что стилизовать нужно всех людей, иначе нейросеть может выбрать только одного из них. 🚩 Чтобы нейросеть не ошиблась с полом персонажа, лучше указать его в промте. Как провести нейрофотосессию через Telegram-бота Yes Ai Краткая инструкция: Перейдите в бота по ссылке: @yes_ai_bot Отправьте 📎 фотографию человека, для которого хотите провести фотосессию. Важно! Если нужно, чтобы нейросеть каким-либо специфическим образом обработала фотографию, в примечании к ней укажите текстовое описание на любом языке (промт). В появившемся меню нажмите кнопку «👩‍🎨 Нейрофотосессия». Выберите количество фотографий, которые хотите получить. Дождитесь результатов (длительность процесса зависит от количества заказанных генераций). От чего зависят размер и пропорции генерируемых изображений? Всё просто: система сохраняет пропорции и размеры, которые были у исходной фотографии. Отправили «квадрат» — получите «квадрат» на выходе и т. д. В результате проведения нейрофотосессии вы получите каждую фотографию отдельным сообщением в боте, после чего любую из них можно будет дополнительно обработать (стилизовать или модифицировать с помощью расширенных функций и т. д.). При запуске нейрофотосессии система будет подбирать случайные локации и стили из коллекции, поэтому для каждой фотографии можно делать по несколько «заходов». Если вам понравилась та или иная генерация, её размер можно увеличить без потери качества с помощью [функции Upscale] Если возникнут вопросы по работе с Qwen (или с другими нейросетями), обращайтесь в наш Telegram-чат.
  4. Все верно, для получения бесплатных генераций нужно кому-то порекомендовать бота, так как бесплатные генерации не являются неотъемлемой частью тарифа, это по сути бонус от администрации. Буквально двумя сообщениями выше был подробно разобран и этот вопрос. Рекомендуем прочесть: https://forum.yesai.su/topic/621-bezlimitnyy-dostup-k-neyrosetyam-v-yes-ai-bot/?do=findComment&comment=5159
  5. Здравствуйте, согласно прайсу (по ссылке): https://yesai.su/prices 1 генерация Sora Images: 🔅0.7 монет Каждая генерация в Sora Images - это 4 картинки по 🔅0.7 монет В день баланс на пакетах VIP восстанавливается на 🔅100 монет, делаем несложный расчет: ( 100 / 0.7 ) * 30 = 4260 изображений в месяц ИЛИ 142 в сутки. Но в пакетах VIP можно брать монеты авансом со следующего дня, что позволит делать больше генераций ежедневно. Подробнее про авансы написано тут: https://t.me/yes_ai_official/1359 Кроме того, монеты можно покупать отдельно (без покупки пакета VIP), в этом случае стоимость будет тем ниже, чем большее количество монет покупаете за раз. Для покупки монет или тарифов отправьте боту @yes_ai_bot команду /tariffs
  6. Рекомендуем для создания обложек использовать нейросеть Sora Images, вот ссылка: https://t.me/yes_ai_bot?start=_soraimages Пример промта: обложка книги с зеленой обложкой, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA" Вы можете добавлять к промту любые пожелания в свободной форме, вот еще пример для управления цветом обложки: обложка книги с зеленой обложкой разных оттенков, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA"
  7. Отвечаем по порядку важности тезисов, касающихся бесплатных генераций в нейросетях для пакетов VIP. Пункт номер НОЛЬ: Уважаемый Makentosh, объясняем, почему у вас не сработали бесплатные генерации. К сожалению, вы в данном обращении НЕ указали, что использовали именно нейросеть Flux.1. Однако именно для нее в условиях предоставления бесплатных генераций указано следующее: «Генерации изображений в нейросети Flux.1 (при максимальной ширине и/или высоте не более 1024 пикселей), в том числе с использованием моделей LoRA». Чего вы не учли: при генерациях у вас использовалось соотношение сторон 900×1600 пикселей — это выходит за рамки действия безлимита для нейросети Flux.1. Как решить эту проблему в будущем? Пожалуйста, читайте описание внимательнее 🙏 Но для полноценного ответа на вопрос о бесплатных генерациях мы упомянем и другие важные пункты, с которыми часто сталкиваются пользователи. 1. Важно понимать, что бесплатные генерации (с разумными ограничениями) не являются неотъемлемой частью пакетов VIP. Данная опция предоставляется по усмотрению администрации для обладателей пакетов VIP. Об этом написано в оферте в начале этого топика: «Данное предложение не является офертой, Yes Ai оставляет за собой право изменить правила предоставления безлимитов в любой момент». Если вы поняли, что это НЕ является офертой, двигаемся дальше. 2. Если пользователь очень активно пользуется ботом, у системы есть основания полагать, что он потенциально может злоупотреблять безлимитными генерациями, либо использует телеграм-аккаунт не один, либо автоматизирует действия внутри системы. По этой причине (для обеспечения безопасности) бесплатные генерации временно ограничиваются для пользователя. Важно: система ничего не утверждает, в частности — НЕ утверждается, что пользователь совершает какие-либо действия со злым умыслом, НО система вправе ограничить бесплатные генерации для обеспечения собственной безопасности. 3. Ограничения на бесплатные генерации в пакетах VIP накладываются автоматически, точно так же (автоматически) они снимаются спустя некоторое время. Когда снимается ограничение на бесплатные генерации: рекомендуем подождать до СЛЕДУЮЩЕГО дня, либо для генераций вы можете использовать монеты, которые включены в пакет. Напоминаем, что вы можете забирать монеты авансом из пакета — об этом рассказано здесь: https://t.me/yes_ai_official/1359 4. Как избежать ограничений бесплатных генераций на пакете VIP в будущем? Всего два простых тезиса: Если пользователь ведет среднестатистический образ жизни (спит, делает перерывы на обед, иногда отдыхает от нейросетей) и не использует бота постоянно, то бесплатные генерации не отключатся вплоть до окончания срока действия пакета VIP. Если пользователь генерирует в нейросетях больше, чем среднестатистический человек, для него действуют стандартные опции пакета VIP, описанные в тарифах: https://forum.yesai.su/topic/412-tarify-yes-ai-bot (в том числе ежедневные начисления монет, баллов и возможность получать монеты и баллы авансом).
  8. нейросеть Sora Images не поддерживает негативные промты в чистом виде, вместо этого следует четко указывать, что именно вы хотите видеть на изображении. Например, если вы не хотите, чтобы на человеке был синий пиджак, то просто укажите, какого цвета должен быть этот пиджак. Другими словами, нужно просто более подробно описывать то, что вы хотите видеть.
  9. Следует задавать вопросы более конкретно, о какой нейросети идет речь ? Но, если коротко, все цены указаны в прайсе: https://yesai.su/prices
  10. Нейросеть Qwen Images способна не только генерировать изображения, но и обрабатывать любые картинки и фотографии. Список возможностей очень широк, в скором времени он будет расширен за счет выхода обновленных моделей Qwen Image Edit. Вот некоторые из доступных функций: изменение определенных деталей на референсах по описанию из промта; стилизация картинок (применение стиля к фотографиям, например, создание аниме-аватара человека и пр.) [выполнить в боте] удаление водяных знаков (remove watermarks) [выполнить в боте] реставрация старых фотографий [выполнить в боте] генерация фотографий интерьера по чертежам или наброскам; генерация чертежей (контуров) интерьера по фотографиям; генерация цветных фотографий из черно-белых [выполнить в боте] удаление фона (замена на белый) [выполнить в боте] [beta] дорисовка областей с учетом контекста - Outpaint (дорисовка справа, слева, сверху, снизу, вокруг); преобразование объектов и персонажей в их 3D версии; поворот объектов и персонажей; генерация карты глубины по картинке; изменение возраста персонажей (сделать старше или моложе); замена одежды на человеке по описанию; [скоро] замена одежды на человеке по фотографии; замена черт лица, цвета кожи и прочих деталей у людей и персонажей; исправление дефектов внешности; [unstable] экстракция (извлечение) элементов одежды с фотографий. В этом списке перечислены далеко не все возможности обработки референсов (ваши изображений) Qwen, но тут важно отметить, что сама по себе эта нейросеть не имеет этих встроенных функций, они работают по иному принципу — вы отправляете в Квен картинку + промт с описанием того, что нужно сделать, а ИИ делает обработку (опирается именно на текст из промта). 👆 Этот момент является ключевым! С одной стороны, возможность самостоятельно описать то или иное действие позволяет изменять референсы так, как взбредет в голову, но у этого подхода есть несколько недостатков: результат выполнения того или иного преобразования может сильно зависеть от исходного референса, например, функция Outpaint (дорисовка), доступная в Yes Ai Bot, на одних картинках будет давать стабильный результат, а на других могут просто появляться пустые добавленные области без учета контекста. Эта функция сейчас работает в бета-режиме; нейросеть может не понять суть поставленной задачи (потребуется подбирать подходящий промт для получения стабильных результатов); нейросеть может не уметь делать некоторые вещи, и вы не узнаете об этом, пока не сделаете тест. 💡 Обязательно учтите описанные выше особенности, ведь оплата берется за факт генерации, а не за результат. Подробнее об этом рассказано в статье "Почему нейросети не возвращают деньги" Хорошая новость в том, что Qwen является достаточно продвинутой нейросетью, которая справляется с перечисленными задачами намного лучше многих конкурентов, поэтому жаловаться особо не приходится. Да, иногда результат будет достигаться не с первой попытки, и во многих случаях достаточно доработать свой промт, но это уже, как говорится, приходит с опытом. В Телеграм-боте Yes Ai многие из перечисленных функций реализованы в "однокнопочном" формате, т.е. вам достаточно отправить боту картинку и кликнуть из списка по соответствующей кнопке. Это сильно упрощает жизнь. Разберем на примерах. Как удалить водяной знак с помощью нейросети Qwen откройте бота по этой ссылке @yes_ai_bot отправьте одно изображение, на котором необходимо удалить водяной знак; в появившемся меню разверните список доступных возможностей кнопкой "🐼 Функции Qwen"; нажмите на кнопку "💧 Удалить Watermark" и дождитесь результата генерации. Как стилизовать фотографию в нейросети Qwen Стилизация через нейросеть Qwen позволяет перерисовать исходное изображение целиком, полностью заменив его стилистику, но при этом сохранятся общие черты персонажей и окружения. Покажем это на примере: переходим в бота по этой ссылке @yes_ai_bot отправляем фотографию, например, с вашим прекрасным лицом; в появившемся меню нажмите кнопку "🎭 Стилизовать"; выберите любой из стилей в списке (обратите внимание, что список можно листать влево и вправо), стилизация запустится автоматически, останется только дождаться результата. Как изменять картинки по промту в Qwen Выше мы разобрали функции Квена, которые были "упакованы" разработчиками Yes Ai в кнопки, но фундаментальной следует считать именно модификацию референсов по собственным промтам. В этом случае вам предстоит самостоятельно текстом описывать то, что необходимо сотворить с исходными изображениями. Писать промты для Qwen Images можно на любом языке, с свободной форме (если работаете через Yes Ai Bot, но постарайтесь не перегружать задачи избыточными данными. Лаконичность — залог успеха. Откройте бота Yes Ai. Отправьте изображение вместе с текстовым примечанием, оно будет автоматически применено в качестве промта при генерации. В появившемся меню нажмите кнопку "🌇 Референс картинки" и дождитесь результата. Все модификации изображений в боте Yes Ai работают с применением следующих принципов: Пропорции для генераций будут взяты из исходных картинок, а не из базовых настроек в боте Если используются функции категории "Outpaint", то пропорции будут вычисляться автоматически, но площадь картинок, сгенерированных нейросетью будет ограничена порогом в 1.2 Мегапикселя. Если результат генерации необходимо увеличить, то используйте отдельный инструмент [Как сделать апскейл картинки через нейросеть] Если вы хотите сделать Outpaint, то бесполезно писать об этом в промте при использовании функции "🌇 Референс картинки". Дорисовка работает исключительно через отдельные функции, доступные в списке под кнопкой "🐼 Функции Qwen". В скором времени мы расширим данную инструкцию, так как уже ведем разработки в области обработки изображений через нейросеть Qwen Images Edit. Сообщим об этом на нашем канале в Телеграм, рекомендуем подписаться: https://t.me/yes_ai_official По всем вопросам обращайтесь в наш чат: https://t.me/yes_ai_talk Если вы еще не читали первую статью с описанием базовых функций Qwen, то следует сделать это:
  11. Нейросеть Qwen Images от разработчиков из Китая, хоть и можно условно назвать логическим продолжением Flux.1, ведь уровень качества их генераций очень близок, но в некоторых аспектах Qwen на голову выше оппонента. Нейросеть Qwen справляется с множеством задач, но основной "фишкой" можно без сомнений считать широкие возможности обработки изображений, а не простые генерации по промтам. Объясним суть проблем, которые способна решить нейросеть Qwen. Обработка изображений Проблема большинства пропиетарных нейросетей (Midjourney, Sora Images и пр.), предоставляющих возможность обрабатывать ваши изображения, заключается в том, что в них используются через чур жесткие NSFW-фильтры (not safe for work), которые часто ограничивают генерации, которые НЕ содержат ничего запрещенного. А Квен может быть установлен на собственных серверах, поэтому фильтрация контента будет работать более адекватно. Да, базовые версии Qwen не генерируют NSFW, так как не обучены для этих целей, но за мелкие нарушения вы хотя бы не получите бан. Если будет замечено подозрение на "запрещенку", то генерация будет выполнена в "дистиллированном" виде (без NSFW). А теперь перейдем к самой важной части — к функциям обработки картинок. Вы можете загрузить в Qwen собственные изображения с целью переработки и стилизации, вот некоторые опции: Замена одежды на персонаже или иные модификации окружения с сохранением черт лица оригинала (нейросети Midjourney и Sora Images молча завидуют Квену =) ) [скоро] Объединение нескольких изображений (аналогично тому, как это работает в Sora Images). [скоро] Замена одежды на человеке по фотографии человека и элементов одежды. [скоро] Поддержка карты глубины (depth map) (из Control.Net) для получения более предсказуемых результатов. [скоро] Поддержка шаблонов Open Pose для управления позами персонажей (из Control.Net). Замена стиля на тот, который описан в промте, например, из собственной фотографии можно создать аниме аватар [выполнить в боте] Реставрация старых фото в один клик [выполнить в боте] [beta] Дорисовка областей слева, справа, внизу, вверху, вокруг (Outpaint), пока работает не для всех картинок, но это решаемо. Расскажем об этом в отдельной статье. Колоризация черно-белых фото (сделать фотографии цветными) [выполнить в боте] Реставрация фото без изменения образов персонажей. Преобразование объектов в 3D-модели. [beta] Экстракция одежды для маркетплейсов (работает не очень стабильно). Можно с фотографии вытащить одежду. Удаление водяных знаков [выполнить в боте] Удаление фона (замена фона на белый) [выполнить в боте] Свободная модификация картинок с использованием произвольного промта. ...это далеко не все. Полный список возможностей почти безграничен, ведь вы сами можете описать, что именно нужно сделать с фотографиями. Неплохой список достоинств, не правда ли ? Это не все, вот еще пара важных моментов... Лица людей при модификации референсов не изменяются (остаются оригинальными), если иное не указано в промте. Умеет писать текст на английском и китайском, причем, не просто текст, а слова и фразы, разделенные на фрагменты. Например, можно сделать обложку журнала, где будет четко выделен заголовок, название и дополнительные блоки текста. Квен поддерживает LoRA (Low-Rank Adaptation), вы можете расширять базу знаний Qwen за счет обученных моделей, которые можно установить, например, с сайта civitai.com в Yes Ai Bot (в мессенджере Телеграм). Недостатки нейросети Qwen Images Qwen — не волшебная палочка, а нейросеть, способности которой не безграничны. Перечислим некоторые сложности, с которыми вы можете столкнуться: При дорисовке (Outpaint) добавляемые области могут не всегда соответствовать референсу, но эта проблема часто решается повторными попытками или пост-модификациями Достаточно высокая нагрузка на железо, без дорогостоящего оборудования практически не обойтись (либо придется долго ждать генераций). Рекомендуем видеокарты не ниже NVIDIA 3090, в идеале 4090 или 5090, так что придется выложить из кармана лишние (или не лишние?) несколько тысяч долларов. Жалко денег? Тогда не придется покупать собственное железо, все функции Qwen доступны в Telegram-боте @yes_ai_bot При работе с референсами иногда может происходить неожиданная замена элементов, например, фона, хотя в промте об этом не упоминалось Не самая богатая база знаний терминов, словарный запас заметно ниже, чем у той же Sora Images Не поддерживаются никакие языки кроме английского и китайского Как сгенерировать картинки в Qwen Images Разберем процесс на примере Yes Ai Bot, в котором доступна эта нейросеть. Перейдите по ссылке в Телеграм-бота @yes_ai_bot Сделайте настройки, если необходимо: можно выбрать модель (чекпойнт), количество шагов сэмплинга (почти всегда достаточно 20), размер генераций (в пикселях) и количество генераций для каждого запроса. Выберите стиль из галереи, если лень самостоятельно придумывать сложные промты. Отправьте промт на любом языке (сервис Yes Ai автоматически переведет его на английский). Настройки для нейросети Qwen Images: модель (чекпойнт): определяет базовую стилистику изображения, чекпойнты обучены на разных дата-сетах, что позволяет им делать совершенно уникальные генерации. Например, можно выбрать чекпойнт, который больше "заточен" под генерации в стиле реализм, если требуется повышенная фотореалистичность; количество шагов сэмплинга: чем их больше, тем большее количество раз нейросеть будет "додумывать" содержимое генераций, но тем больше будет стоимость и время ожидания. В 99% случаев будет достаточно 20 шагов; размер генераций: вы можете выбрать формат 1:1 / 2:3 / 3:2 / 9:16 / 16:9, причем доступны различные размеры (в настройках они указаны в пикселях); количество генераций: если выбрана 1 копия, то на каждый отправленный промт будет создаваться только 1 картинка, если выбрано 2 копии, то будет два уникальных результата и т.д. Если вам нужны примеры промтов для генераций, рекомендуем открыть бесплатную галерею на нашем форуме. Как генерировать изображение в Qwen Images с использованием моделей LoRA Если коротко, то нужно делать все то же самое, что описано предыдущей 👆 инструкции, но к тексту промтов требуется добавлять ключ с номером заранее установленной модели LoRA и весовым коэффициентом. Пример промта с использованием Qwen LoRA: панда кушает лапшу из миски <lora:1938784:1.1> pixel art in 2dhd octopath traveler style ...где <lora:1938784:1.1> — это ключ активации модели LoRA: "1938784" - номер модели с сайта civitai.com "1.1" - это весовой коэффициент, обычно он варьируется в диапазоне от 0.7 до 1.5 (зависит от того, как была обучена выбранная модель Лоры) "pixel art in 2dhd octopath traveler style" - триггерные слова для активации модели А теперь разберемся, где брать номер LoRA для ключей формата <lora:1938784:1> Во-первых в Yes Ai Bot есть галерея моделей Лора, которые ранее были установлены другими пользователями. Вы можете копировать ключи моделей прямо оттуда, но не забывайте вставлять в промт и триггерные слова, если они присутствуют в карточке описания. Как установить модель Qwen LoRA с сайта Civitai в галерею Yes Ai Если вам не хватает выбора моделей из галереи Yes Ai, добавьте то, что найдете на сайте Civitai (это большая библиотека моделей, обученных энтузиастами со всего мира). Для начала вам нужно определиться, какую модель планируете использовать для генераций, сделать это можно на сайте Civitai по ссылке: https://civitai.com/models. ⚠️ В фильтрах выберите два пункта: "LoRA" и "Qwen". В появившемся списке выберите понравившуюся модель, отвечающую вашей идее по стилистике или функциям (читайте описания моделей, в них авторы пишут, что именно делает та или иная Лора). Перейдите в карточку модели и скопируйте ссылку из строки браузера, например: https://civitai.com/models/1938784/2dhd-pixel-art-octopath-style Скопированную ссылку нужно отправить боту Yes Ai в Телеграм, система все проверит и добавит модель в галерею в течение 5-15 минут. Обратите внимание, что для Qwen можно устанавливать только те модели, у которых стоит пометка "Base model: Qwen". А когда будете отправлять ссылку боту, убедитесь, что в нижнем меню выбрана именно нейросеть Qwen: надпись на кнопке "Нейросеть: Qwen Images [изменить]". Когда Лора будет успешно добавлена в систему, вы можете отправлять промты, содержащие соответствующий ключ, в нашем примере он будет выглядеть так: <lora:1938784:1>, где 1938784 — это номер модели (его можно увидеть в ссылке, которую вы скопировали с сайта Civitai. Тут явно чего-то не хватает! Не хватает триггерных слов, ведь они были предусмотрены автором этой модели (речь про "671809"). Триггерные слова — это текст, который требуется отправлять вместе с вашим промтом, чтобы LoRA работала именно так, как задумал автор. Для рассматриваемой модели действительно предусмотрена триггерная фраза: pixel art in 2dhd octopath traveler style Теперь собираем все по частям, нам нужен промт, который создаст картинку с пандой... панда кушает лапшу из миски <lora:1938784:1> pixel art in 2dhd octopath traveler style Может возникнуть логичный вопрос "А ничего, что часть промта написана на русском языке, а триггерные слова на английском?". Отвечаем: Не беспокойтесь об этом, система Yes Ai автоматически все отрегулирует и сделает правильную генерацию, так что можно миксовать два языка в одном запросе. Если вы используете Qwen на своем компьютере, то необходимо весь промт вводить на английском языке. Как выбирать весовой коэффициент для Лоры и на что он влияет? Весовой коэффициент для LoRA определяет силу ее воздействия на создаваемую генерацию, чем он выше, тем сильнее модель проявит свои признаки. В командах для Yes Ai Bot весовой коэффициент указывается после номера модели, например: <lora:1938784:1.2> ...здесь число "1.2" — это весовой коэффициент, влияющий на силу модели с номером 1938784. Как уже было отмечено ранее, весовой коэффициент обычно варьируется в диапазоне от 0.7 до 1.5, но тут нет строгих правил, т.к. некоторые авторы при обучении LoRA могут использовать иные значения. По этой причине следует обратить внимание на две вещи: описание модели в карточке на сайте Civitai - иногда авторы указывают диапазоны изменения весовых коэффициентов; примеры генераций, сделанных автором (они также видны в карточках моделей). В описании картинок есть промты, а в промтах иногда указан вес моделей Лора. Если в карточке модели ничего полезного не нашли, то смело ставьте вес равный единице и тестируйте, тестируйте, тестируйте... ведь качественный результат вы, так или иначе, получите не сразу, а лишь спустя какое-то количество итераций (повторений). Если вес, равный единице не дал ожидаемых результатов, увеличьте или уменьшите его, в зависимости от полученных ранее генераций. ...НЕ мечтайте, что все начнет получаться с первых попыток, нейросети так не работают. Хотите упростить себе жизнь и получить проверенные промты? Тогда можно направиться в галерею на нашем форуме, там размещено множество примеров настроек и промтов для нейросети Qwen Images. Будем считать, что вопрос с простыми генерациями по промтам и с моделями LoRA мы разобрали, но, если у вас остались вопросы, задайте их в Телеграм: https://t.me/yes_ai_talk Следующая важная статья — использование функций нейросети Qwen Images, в которой мы разберем полезные штуки вроде удаления фона, стилизации и работы с референсами. Настоятельно рекомендуем к ознакомлению: https://forum.yesai.su/topic/3056-neyroset-qwen-obrabotka-izobrazheniy-stilizaciya-udalenie-fona-restavraciya/
  12. 1. на будущее просьба размещать пожелания в разделе пожеланий (ваш топик мы уже перенесли сами) 2. мы учтем ваше пожелание, но хотим обратить внимание, что там уже есть бонус за пополнения - в течение часа после покупки любого количества монет вам предоставляется скидка на следующую покупку монет - так что вы уже можете экономить, просто делая по две покупки монет подряд
  13. вы хотите чтобы нейросеть создавала чертежи по описанию ? это очень непростая задача, ибо нейронки работают в большей степени с более абстрактными задачами. ну или вам следует более подробно описать суть задачи с примерами
  14. Veo 3 умеет генерировать видео в портретном (вертикальном) формате с соотношением сторон 9:16, при этом все прочие возможности продолжают поддерживаться: использование стартового кадра, озвучка текста из промта, озвучка текста из титров и пр. Поддержка портретного формата в Veo появилась 9 сентября 2025 года. До недавнего времени нейросеть Veo 3 умела генерировать только видеоролики в горизонтальном формате 16:9, это отлично подходило для размещения в YouTube, RuTube и на других подобных площадках. Однако для социальных сетей вроде TikTok и мобильных устройств альбомный формат плохо подходит. Некоторые особо усердные пользователи заморачивались и использовали другие нейросети, чтобы те преобразовывали горизонтальные ролики в вертикальные, но иначе как "костылями" это вряд ли можно назвать. Все это в прошлом, теперь Veo 3 нативно поддерживает генерации видео как с соотношением сторон 9:16, так и 16:9. 💡 В конце статьи расскажем еще об одном полезном свойстве Veo 3, которое упростит процесс создания видео с голосом, но прежде вернемся к основному вопросу. Как сгенерировать вертикальное видео в нейросети Veo 3 Разберем эту возможность на примере Yes Ai Bot: Откройте раздел Yes Video Телеграм-боте @yes_ai_bot Отправьте боту промт или картинку вместе с промтом; В появившемся меню выберите нейросеть "🐬 Veo 3"; Нажмите кнопку "Соотношение сторон" и выберите один из вариантов: Auto (автоматический режим*), 16:9 (альбомный формат), 9:16 (портретный формат). * "Auto" — автоматический режим (выбран по умолчанию). Если вы загрузите квадратный или горизонтальный референс, то получите видео с соотношением сторон 16:9. Если загрузите вертикальный референс, то нейросеть сгенерирует видео в формате 9:16. Если будете делать генерацию без референса, то всегда будет получаться видео 16:9. Сделайте прочие настройки (если необходимо) и запустите генерацию соответствующей кнопкой. А теперь в качестве бонуса расскажем об одной полезной функции Veo 3... Как озвучить текст из субтитров с помощью Veo 3 Одной из неочевидных функций нейросети является способность понимать текст, написанный на картинке из референса. Если вы загрузите в стартовом кадре (в референсе), фотографию человека, под которой будет написан текст (субтитры), то Veo 3 автоматически сделает следующее: Прочтет текст, написанный на фотографии. Поймет, на каком языке он написан (поддерживаются разные языки). Поймет, какого возраста и пола персонаж, изображенный на фото. Если на референсе изображен не человек, а робот, мультяшный песонаж или кто-то иной, то голос будет автоматически подобран с подходящей тональностью. Озвучит текст из субтитров соответствующим голосом на нужном языке. ⚠️ Обратите внимание, что для активации чтения текста из субтитров вам нужно указать промт к генерации, в нем можно написать что-то вроде "человек говорит" или "человек поет песню" (если хотите, чтобы персонаж не просто читал текст, а пропел его). Эта функция очень полезна для ведения блогов и массовой генерации видеоконтента для социальных сетей. Озвучивание субтитров позволит создавать видеоинструкции с голосом персонажей с фотографии. Вот пример такой генерации, исходное изображение на скриншоте: Результат озвучки субтитров: subtitles_audio_veo3.mp4 Рекомендуем ознакомиться со статьями про Veo 3, в них подробно рассказано про другие возможности нейросети: Базовые инструкции по использованию Veo 3 Как создавать длинные видео, с сохранением образов персонажей
  15. Да, можно. Выбирайте в методах оплаты "Карты РФ"
  16. Ленин с пионерами поет гимн Союза: праздник детства и прогрессивной эпохи - Пример работы нейросети Qwen images Ai Воодушевляющая картина эпохи советского единства и детства. На ней изображен Ленин, окруженный радостными пионерами в летнем лагере, исполняющими гимн Советскому Союзу. Атмосфера наполнена светом, прогрессом и оптимизмом, что подчеркивается обилием красного цвета – символа революции и надежды. Энергичные жесты детей, их восторженные лица и улыбка Ленина передают дух энтузиазма и сплоченности. Зеленые деревья на заднем плане создают контраст и подчеркивают гармонию между человеком и природой. Яркие красные галстуки пионерские значки и развевающиеся флаги СССР служат визуальным напоминанием об идеологии того времени. Стиль изображения выдержан в духе современного прогрессивного искусства, с использованием ярких насыщенных цветов и динамичной композицией, что придает картине современный вид. Световой эффект солнечного дня и общее праздничное настроение создают ощущение радости и беззаботности. Эта работа – ода советскому детству, патриотизму и вере в светлое будущее под мудрым руководством Ленина. По сути, это символ эпохи, запечатленный яркими красками и полным энтузиазма настроением, который вызывает ностальгию и воспоминания о времени надежд и перемен ✏️ Промт: Дедушка Ленин вместе с радостными пионерами в детском лагере поют гимн Советского Союза. Яркая, прогрессивная атмосфера, много красного цвета, энергичные жесты, восторженные лица детей, Ленин улыбается и поёт вместе с ними, вокруг зелёные деревья, пионерские галстуки, флаги СССР, стилизация под современное прогрессивное искусство, яркие, насыщенные цвета, динамичная композиция, светлый солнечный день, праздничное настроение 🧩 Нейросеть: 🐼 Qwen Images 🔨 Модель нейросети: QWEN.Basic 🔧 Сэмплер: euler 🎭 Стили: No style Этот рисунок создан нейронной сетью @yes_ai_bot
  17. Если у вас VIP и при этом генерации были бесплатными, а потом стали платными, значит система увидела, что вы проявляете достаточно высокую активность в боте. Включается защита от злоупотреблений. Что можно сделать: подождать несколько часов. Важно: система не выдает ограничения на бесплатные генерации, если пользователь проводит в боте не все свое свободное время. Если действия человека похожи на среднестатистические, то проблем не будет. Что понимается под среднестатистическими действиями: нужно спать, нужно отвлекаться от бота, например на обеды, ужины и пр., НЕ НУЖНО использовать один аккаунт вместе с кем-то. Если же вы являетесь очень активным пользователем, то система временно ограничит бесплатные генерации. Если вы войдете в более размеренный режим использования бота, то бесплатные генерации вернутся автоматически. Если у вас VIP, и вы вообще не получаете бесплатные генерации, то проверьте, есть ли у вас хотя бы 4 активных приглашенных по реферальной ссылке. Количество активных можно узнать по команде /ref - отправьте ее боту.
  18. отправьте сюда или в техподдержку @yes_ai_support исходные фотографии и скриншот настроек, которые вы делали, а также промт, которые указали в настройках
  19. ОБНОВЛЕНИЕ: появилась возможность создавать видео "обнять себя маленького" с помощью функции "Elements" в нейросети Kling Ai, рекомендуем ознакомиться с описанием по этой ссылке: https://forum.yesai.su/topic/280-kling-ai-neyroset-videogenerator-dlya-animacii-izobrazheniy-v-telegram-bote/#elements
  20. Это делают в Veo 3, но не всегда нейронка пропускает фотки с детьми. В промте не нужно упоминать детей, младенцев, это повысит шансы.
  21. Изысканная индейка: праздничный шедевр для вашего стола - Генерация в нейросети Sora Images Изысканное воплощение традиционного праздника – аппетитная индейка, ставшим настоящим произведением кулинарного искусства. Сочная птица, словно вылепленная из красного кирпича, покоится на элегантной золотой тарелке, подчеркивая ее благородство и роскошь. Сцена разворачивается на фоне теплого деревянного дубового стола, добавляющего ощутимую нотку уюта и домашнего очарования. Эта фотография – идеальное решение для меню ресторана, стремящегося продемонстрировать безупречное качество и неповторимый вкус предлагаемого блюда. Создана с использованием профессиональной фотокамеры, она отличается высокой детализацией, позволяющей рассмотреть каждую текстуру и оттенок. Идеально подобранное освещение подчеркивает объемность и аппетитность индейки, вызывая непреодолимое желание попробовать это восхитительное угощение. Это не просто фотография блюда – это визуальный гимн празднику, обещающий незабываемый гастрономический опыт для каждого гостя. Внимание к деталям и безупречное исполнение делают этот снимок настоящим украшением любого меню, привлекающим внимание и вызывающим желание заказать именно эту индейку на день благодарения. Фотография отражает атмосферу торжества и радушия, создавая ощущение тепла и уюта. Идеальный выбор для ресторанов, стремящихся предложить своим гостям не просто еду, а настоящий праздник вкуса ✏️ Промт: индейка на день благодарения из красного кирпича на золотой тарелке на деревянном дубовом столе, фотография для меню ресторана, сьемка на профессиональную фотокамеру, профессиональная фотография блюда, высокая детализация, хорошее освещение 🧩 Нейросеть: 🦋 Sora Images 🎭 Стили: Shining Картинка создана с помощью нейронной сети - Yes Ai
  22. 👉 Вы уже сейчас можете бесплатно пользоваться новой Chat GPT 5 в Yes Ai Bot [открыть в Telegram] (мы открыли основной функционал, все расширенные опции добавим в скором времени). Стоит ли новая рассуждающая модель внимания? Сейчас разберемся... Основные достоинства, заявленные Open Ai Автоматическое определение глубины рассуждений и степени подробности выдаваемых ответов (зависит от сути поставленных перед нейросетью задач). Модель показала превосходство над предыдущими версиями на ряде бенчмарков: математика (94,6% на AIME 2025), программирование (74,9% SWE-bench Verified), мультимодальное понимание, медицина (46,2% на HealthBench Hard). Улучшены генерация интерфейсов, отладка больших репозиториев, качество дизайна и эстетика, создание достаточно сложных приложений, игр и сайтов с помощью одного промпта. Сделать простенький сайт стало проще, но для профессионального подхода все равно требуется работа на специализированных движках, например, в WordPress и пр. Поэтому нужно разбивать задачи на подзадачи и решать их последовательно (не стройте иллюзий, что можно получить крутой проект уровня "PRO", отправив нейросети краткое описание задачи). Расширены возможности работы с изображениями, видео, мультимодальными и пространственными задачами. Актуализирована база знаний. GPT‑5 значительно улучшен в снижении уровня “поддакивания” - модель стала менее льстивой и более конструктивной в диалоге. Побочный эффект - ответы могут быть более скучными. Нейросеть честнее сообщает о невозможности решения задачи и реже демонстрирует излишнюю уверенность или дезинформацию по сравнению с предыдущими моделями. Для пользователей Yes Ai Bot Значительно увеличен объем ответов при решении сложных задач и написании программ и скриптов Недостатки GPT 5, выявленные при тестах Меньше креатива и рассуждений в диалогах, чем у предыдущих флагманских моделей GPT 4o и GPT o3. Многие пользователи отмечают, что ряд диалогов стали скучнее. Это связано с новыми фильтрами и тягой к лаконичности, но можно исправить ролями . Предварительный вердикт: модель действительно стоит вашего внимания, но ждать от нее прорывных результатов еще рано, разработчики из Open Ai уже в курсе выявленных недостатков и продолжают улучшать GPT 5. За этой моделью будущее, ждем фиксов. 🚩 Рекомендуем использовать GPT 5 для решения сложных задач и для разработки программного обеспечения, а GPT 5 mini - для получения ответов на вопросы (вместо гугла).
  23. NSFW контент (от англ. not safe for work — «небезопасно для работы») — это любой тип медиа (текст, изображения, аудио и видео), который содержит оскорбительные или нежелательные элементы. Ярким примером NSFW контента являются материалы категории 18+. Понятие NSFW часто используется в сфере работы с нейросетями, поскольку многие разработчики запрещают создание нежелательных материалов. В частности, нельзя генерировать изображения категории 18+, оскорбительные материалы, дипфейки и прочее. Список небезопасных типов контента: материалы с изображением или описанием оголённых частей тела; текст, видео, аудио и изображения, которые могут оскорбить кого-либо (по религиозным, расовым или иным признакам); дипфейки (изображения или видео, в которых представлены люди или события, не имеющие отношения к реальности). Например, запрещено использовать нейросети для подстановки чужого лица на фотографии или видео; некоторые компании (например, Google) запрещают использовать в качестве референсов фотографии несовершеннолетних. Такой тип контента сам по себе не является NSFW, но теоретически может быть использован в незаконных целях. Даже такой невинный промт как "Мама обнимает сына" может быть отклонен; любые материалы, содержащие жестокость, насилие, живодёрство и прочее. Обратите внимание! Любые попытки создания или использования NSFW контента могут повлечь за собой административную или уголовную ответственность. Ремарка про автоматическое определение NSFW контента нейросетями Почти все современные нейросети умеют определять нежелательный контент с достаточно высокой точностью. Например, если вы попытаетесь использовать запрещённые слова в промте или референсы с изображениями «голышей», задание будет отклонено. Иногда нейросети ошибаются: на вполне безобидной фотографии может быть обнаружено нежелательное содержимое. В этом случае рекомендуется использовать в качестве референса другое изображение. Важно! Не нужно писать в промтах текст вроде "не рисуй голых людей" или "без жестокости", т.к. даже сам факт наличия подобных слов делает ваш запрос небезопасным. Нейросети в таких случаях игнорируют отрицания в тексте, они обращают внимание именно на наличие запрещенных слов и фраз. Все промты должны быть написаны таким образом, чтобы у нейросетей не было повода придираться к формулировкам. Антонимом термина NSFW является SFW (safe for work). SFW контент — это любые материалы, не содержащие нежелательных элементов. Именно для создания SFW контента создан наш проект (Yes Ai). Не перепутайте!
  24. Мемы про нейробабушку стали очень популярны с момента выхода нейросети Veo 3, так как она способна генерировать видео не просто со звуком, но и с озвучкой диалогов персонажей. Вы можете создавать собственные мемы про нейробабку и на другие темы, в этом вам поможет Телеграм-бот с доступом к нейросети Veo 3 (регистрация в сторонних сервисах не требуется). В боте Yes Ai поддерживаются промты на любых языках, в том числе на русском. В качестве референсов вы можете использовать свои картинки и фотографии. Ссылка на бота с доступом к Veo 3: https://t.me/yes_ai_bot?start=_veo Подробная инструкция о том, как было создано это видео находится тут: https://forum.yesai.su/topic/2290-kak-generirovat-memy-pro-neyrobabku-v-neyroseti-veo-3
  25. Нейробабка (ИИ нейробабушка) — это популярный цикл мемов, созданных в нейросети Veo 3, в котором основными действующими лицами являются русские бабушки, оказавшиеся в самых неожиданных ситуациях. В этой статье мы подробно расскажем о том, как создать мемы с нейробабками и разберем основные тонкости работы ИИ Veo 3. Veo 3 умеет создавать видео с озвучкой персонажей, именно поэтому она стала "номером один" в сфере генерации мемов, рекламных роликов и развлекательного контента. Чему вы научитесь благодаря этой статье: как создать уникального персонажа на примере нейробабушки; как сохранять внешний вид персонажей в отдельных фрагментах роликов (нейросеть Veo 3 генерирует видео по 8 секунд); как продлить видео в нейросети Veo 3; как писать промты с диалогами. Какие нейросети понадобятся для создания видео про ИИ нейробабушку Нейросеть Veo 3 создает достойные видео в том случае, если в качестве входных данных используется не только промт, но и стартовый кадр, поэтому рекомендуем делать именно так: генерируйте стартовый кадр (картинку) для каждого фрагмента видео через нейросеть Sora Images; оживляйте полученные картинки в Veo 3 с использованием промтов (их можно писать на русском языке, если используете Yes Ai Bot). Примечание: если вы будете делать генерации в Veo 3 без референса (просто по текстовому описанию), то столкнетесь с рядом проблем: голос персонажей может не соответствовать их образу (например, бабушка будет говорить голосом молодой девушки), не удастся сохранять внешний вид персонажей и локаций в разных фрагментах видео. Посмотрите этот видеоролик, на его примере мы сделаем разбор всех этапов 👇 neurobabka_w.mp4 На каждом шаге инструкции будут даны полезные советы, читайте внимательно, они помогут сэкономить ваши деньги и получить более качественные результаты. Рекомендуем создать собственные сюжеты и персонажей, а не использовать те, которые приведены в нашей инструкции. Шаг 1 Пишем сюжет для видео Для начала следует подготовить промты и сюжет для каждого 8-ми секундного отрезка видео, делать это лучше заранее, чтобы не тратить деньги на лишние генерации. В среднем сюжет может состоять из 2 — 6 отрезков, однако на этапе обучения можно создавать ролики из 1 отрезка. Примечание: Veo 3 всегда генерирует видео в альбомном формате (горизонтальные), т.о. если вы планируете заливать их в "shorts", "reels", "клипы", TikTok и пр., то финальный вариант видео нужно будет масштабировать, об этом мы еще поговорим в конце статьи. Шаг 2 Создаем внешний вид основных персонажей в Sora Images Нейросеть Sora Images — лучший друг Veo 3, ведь она позволяет создавать стартовые кадры (референсы) без лишних сложностей с написанием промтов, она понимает русский язык и поддерживает референсы. Этого набора качеств более чем достаточно. открываем нейросеть Sora Images по этой ссылке https://t.me/yes_ai_bot?start=_soraimages выбираем в настройках горизонтальный формат (соотношение сторон 3:2); (необязательно) включаем стиль "Shining", чтобы нейросеть рисовала более яркие изображения (без применения этого стиля они могут получиться слишком блеклыми); отправляем боту промт: русская бабка в платке гуляет по русской деревне с зеленым динозавром на поводке, стиль реализм, фотография Результат генерации 👇 Примечание: нейросеть Sora Images позволяет создавать самые безумные и оригинальные сцены, она хорошо осведомлена о том, как должны выглядеть не только русские ИИ бабушки, но и произвольные локации в разных странах мира, в т.ч. в России. Другие нейросети (в том числе Midjourney) с этой задачей справиться не способны. Шаг 3 Генерируем первый фрагмент видео по референсу в Veo 3 Выбираем картинку из Sora Images, которая больше всего удовлетворяет вашим запросам (имеются ввиду изображения, созданные на предыдущем шаге инструкции); нажимаем кнопку "🎞️ Анимировать изображение"; в появившемся меню выбираем нейросеть "🐬 Veo 3"; нажимаем кнопку "Prompt" (с ее помощью можно задать текстовое описание будущей генерации); отправляем боту текстовое описание того, что должно происходить в первой сцене: русская бабка в косынке выгуливает зеленого динозавра возле своей избушки в деревне бабка говорит "ну что Василий пойдем пообедаем?" динозавр смотрит на бабку и мяукает нажимаем кнопку "🎞️ Анимировать изображение" и ждем результата (несколько минут). Результат генерации 👇 352976447_1753358026596320.mp4 Примечание: на этом этапе мы получим ролик, который потом будем дополнять новыми фрагментами. Если вам не понравилась созданная генерация, то повторите ее + при необходимости внесите правки в свой промт. Примечание: если использовать Veo 3 не через @yes_ai_bot, а в Google Flow, то вводить промт придется на английском, так как оригинальная версия нейросети крайне неохотно работает с русским языком... в этом случае на русском языке пишите исключительно текст диалогов, который "написан в кавычках". Шаг 4 Делаем продление видео в Veo 3 с финального кадра На момент написания этой статьи нейросеть Veo 3 не умеет самостоятельно продлевать видео, но этот недостаток можно устранить самостоятельно, если сделать скриншот последнего кадра из предыдущего 8-ми секундного фрагмента. Полученный скриншот финального кадра можно использовать в качестве стартового кадра для следующего фрагмента 8-ми секундного видео. Делаем скриншот последнего кадра из видео, созданного на шаге номер 3; переключаемся в боте на нейросеть Veo 3 (если вы все делали по инструкции, то в нижнем меню все еще будет активирована нейросеть Sora Images, в которой мы создавали картинку), для этого можно просто перейти по этой ссылке https://t.me/yes_ai_bot?start=_veo отправляем боту сделанный 📎 скриншот + текстовое описание того, что должно происходить во втором фрагменте видео: русская бабка в косынке выгуливает зеленого динозавра возле своей избушки в деревне. они подходят к болоту в котором пасутся ушастые крокодилы бабка говорит "Вася, налетай пока они не разбежались" динозавр запрыгивает в болото с крокодилами выбираем нейросеть Veo 3 и нажимаем кнопку "🎞️ Анимировать изображение". Примечание: создавая видео для этой статьи мы не стали точно подбирать финальный кадр для скриншота, поэтому в итоговом варианте будет видна небольшая склейка, но вам следует внимательнее отнестись к этому этапу, если хотите получить бесшовный переход между сценами. Примечание: голос персонажа может отличаться в разных фрагментах видео, решение — делать несколько генераций в Veo и выбирать ту из них, в которой голос и интонация соответствуют вашим ожиданиям. Шаг 5 Как сохранить внешний вид персонажей в разных фрагментах видео На этом шаге мы научим вас простому лайфхаку, позволяющему в точности повторять лица, одежду и любые фрагменты оригинальных сцен и персонажей. Еще в начале статьи мы сделали акцент на том, что лучшим другом Veo является нейросеть Sora Images, и вот почему: она очень хорошо умеет использовать референсы, т.е. вы можете создавать новые изображения используя в качестве исходников собственные картинки и фотографии. Эта особенность позволит воссоздать образ бабки, ее одежду, внешний вид динозавра и даже окружение, при этом мы сможем поместить их в новую локацию. По нашему сюжету в следующем фрагменте динозавр и бабка должны убегать от ушастых 🤪 крокодилов, погнали... Вернемся в нейросеть Sora Images, так как сейчас требуется создать новый стартовый кадр для следующего фрагмента видео, поэтому пора научиться переключать нейросети в Yes Ai Bot через нижнее меню. В нижнем меню нажимаем кнопку "Нейросеть 🎞️ Yes Video [изменить]"; в появившемся списке кликаем "Sora Images"; отправляем боту самую первую картинку, которую анимировали на шаге номер 3, ее можно скопировать прямо из исходника и отправить боту + делаем текстовое описание того, что должно находиться в первом кадре будущего видео: бабка с динозавром убегают от ушастых крокодилов, стиль реализм, фотография Результат генерации 👇 Примечание: нейросети Veo 3 и Sora Images не всегда будут генерировать картинки и видео, которые в 100% случаев вас удовлетворят, поэтому имейте ввиду, что работа с нейросетями — это всегда перебор вариантов и корректировка промтов! Не питайте иллюзий по поводу того, что классные картинки и видео можно создать за пару кликов. Когда вы накопите некоторый опыт, тогда сможете создавать качественные ролики чуть ли не с первой попытки. Мы вас предупредили, теперь идем дальше. Шаг 6 В этом блоке мы ответим на вопрос: Умеет ли нейросеть Veo 3 материться? Спойлер: умеет. Тестируем... По аналогии с тем, как мы делали на шаге номер 3, нажимаем кнопку "🎞️ Анимировать изображение" под той картинкой, которая больше подходит по стилю: опять выбираем нейросеть Veo 3 и т.д.; в "Prompt" вставляем описание для анимации: русская бабка в косынке вместе с зеленым динозавром убегают в страхе от разъяренных ушастых крокодилов бабка кричит "прости, откуда же мне было знать, что они еба***ые" Примечание: мы предостерегаем вас от использования любых нейросетей с целью создания оскорбительного контента и дипфейков, это может повлечь за собой вполне реальные последствия. Не пытайтесь создать в Sora и Veo 3 контент категории 18+, обе нейросети откажут в этом, более того, вы можете получить пожизненный бан в системе Yes Ai за злоупотребления. Шаг 7 Закрепляем на практике шаги из пунктов 5 и 6 Теперь мы повторим процедуру создания стартового кадра с теми же персонажами, но поместим их в новую локацию — в темный подвал. Включаем нейросеть Sora Images (см. шаг номер 5); в качестве референса используем ту же картинку, из которой делали самую первую анимацию на шаге номер 3 + пишем промт: бабушка с динозавром сидят в подвале, на потолке светит лампочка, у бабушки в руке бутылка с самогоном. стиль реализм, фотография теперь анимируем полученный референс в Veo 3 (по аналогии с шагом номер 6), промт: русская бабка в косынке вместе с динозавром зеленого цвета прячутся в подвале бабка говорит "фу, кое как оторвались от этих психов" бабка достает бутылку самогона и пьет из нее бабка говорит "нужно немного снять стресс" бабка протягивает бутылку с самогоном динозавру и спрашивает "а ты будешь стресс снимать ?" Шаг 8 Продолжаем сюжетную линию Как видите, если у вас готовы референсы и сюжет с диалогами, то создание новых фрагментов видео — это повторение шагов, описанных в 5-м и 6-м пунктах, поэтому не будем их по-новой описывать, просто приведем промты, которые использовали для создания изображений и видео... [Sora Images] бабка с динозавром идут по деревенской улице, у бабки в руке бутылка самогона [Veo 3] бабка с зеленым динозавром идут по деревенской улице бабка говорит на русском "ну что малыш, пошли надерем задницы этим лохобесам" бабка с динозавром подходят к болоту, в котором тусуются ушастые крокодилы бабка говорит "ну что, ушастые мешки, пришла ваша смерть" Шаг 9 Продолжаем сюжетную линию [Sora Images] бабуля сидит на скамейке рядом с избушкой, бабуля надевает на ноги ярко-зеленые ушастые сапоги из крокодильей шкуры. из сапогов торчат круглые уши ушастых крокодилов [Veo 3] бабуля говорит на русском "вот это обновочка! какие крутые говноступы получились, Тамара Ильинична обзавидуется" Шаг 10 Умеет ли Veo 3 создавать музыкальные фрагменты и песни? Спойлер: умеет, но есть одно "но". Теперь попробуем создать фрагмент видео, в котором попросим нейросеть спеть песню. Учтите, что музыку и песни Veo 3 делать "условно" умеет, но она не предназначена для этих целей, так что результат не всегда удовлетворителен. На этом этапе хотим обратить ваше внимание, что Sora Images умеет использовать в качестве референсов не одно изображение, а несколько (до 10 штук). Нам это пригодится, и вот почему: у нас есть картинка, на которой изображена бабка в зеленых сапогах из крокодильей шкуры + есть самое первое изображение, на котором расположились бабка и динозавр. Нам нужно чтобы в следующем референсе бабка была в своих новых сапожках, но при этом и про динозавра мы забывать не планируем, поэтому используем две картики в качестве референсов в Sora Images. Запускаем Sora Images (см. шаг номер 5); отправляем боту сразу две картинки в одном сообщении (стандартная функция прикрепления изображений в Telegram — можно отправлять по несколько картинок за раз) + пишем простой промт: бабуля в зеленых сапогах из крокодильей шкуры и динозавр танцуют в русской деревне Анимируем полученный референс в Veo 3 по промту: бабуля и динозавр танцуют под песню калинка малинка Шаг 11 Монтаж видео и склейка фрагментов В этой статье мы не будем подробно разбирать все этапы монтажа, но дадим пару вводных... Рекомендуемые приложения для монтажа и склейки видео: для Windows, macOS, iOS, Android и пр.: CapCut; для macOS и iOS: iMovie (простой в освоении, без лишних функций); для Windows и macOS: DaVinci Resolve (профессиональное приложение для обработки видео с множеством плагинов и расширенных возможностей). Гайдов по использованию этих приложений существует огромное множество, мы уверены, что вы разберетесь самостоятельно 👍 Примечание: на момент написания этой статьи нейросеть Veo 3 умеет генерировать видео только в горизонтальном (альбомном) формате, поэтому, если вы хотите размещать в соц. сетях вертикальные "шортсы", то придется при монтаже обрезать правую и левую части роликов, либо наоборот, добавлять сверху и снизу пустое пространство, чтобы на выходе получить видео с соотношением сторон 9:16 (портретный формат). Загуглите "как из горизонтального видео сделать вертикальное". Когда Veo 3 научится генерировать вертикальные видео, мы обязательно сообщим в новостях на нашем канале в Телеграм @yes_ai_official (не забудьте подписаться). Результат монтажа Вот что у нас получилось из приведенных ранее фрагментов с добавлением пустых блоков сверху и снизу 👇 neurobabka_h.mov Итоги Нейросеть Veo 3 совместно с Sora Images способны творить чудеса, теперь вы можете создавать собственные мемы, сюжеты и клипы не вставая с дивана. Более широкие возможности доступны за счет других нейросетей: замена лица на фотографии (для генерации референсов с собственным ликом); замена лица в видео; апскейл видео (увеличение качества и разрешения роликов); увеличение FPS и пр. ❤️ Поставьте лайк, если этот гайд был полезен 👇
×
×
  • Создать...