Перейти к содержанию

admin

Администратор
  • Постов

    439
  • Зарегистрирован

  • Посещение

  • Победитель дней

    5

admin стал победителем дня 5 октября

admin имел наиболее популярный контент!

Репутация

341 Великолепная

Личная информация

Посетители профиля

10500 просмотров профиля
  1. Sora 2 — это обновлённая версия нейросети для генерации видео от компании OpenAI. Официальный запуск состоялся в октябре 2025 года. Самые важные изменения: генерация звука и диалогов, высокое качество и разрешение видео (до 1080p), поддержка различных языков в промтах и в речи. Нейросети еще никогда не были так близки к созданию реалистичных видео кинематографического качества. С помощью Sora 2 можно создавать целые клипы, генерируя их отрезками по 10 или 15 секунд. На данный момент уже поддерживается стартовый кадр, что позволяет продлевать ролики по аналогии с тем, как это реализовано в Veo 3 [см. описание]. Sora 2 доступна в двух вариантах: Базовая версия, которая так и называется "Sora 2": разрешение 720p, длительность 10 или 15 секунд. Генерация осуществляется быстро (несколько минут). Расширенная версия "Sora 2 Pro": разрешение 720p или 1080p, длительность 10 или 15 секунд, более глубокая проработка деталей. Генерация занимает больше времени (от 5 до 10+ минут). Сильные стороны Sora 2 Реалистичность (почти неотличимая от реальности физика взаимодействия персонажей с предметами и друг с другом); Высокое качество видео (от 720p до 1080p); Альбомный и портретный форматы (16:9 и 9:16); Длительность (10 и 15 секунд на выбор); Поддержка референсов (картинка в качестве стартового кадра); Озвучка диалогов на разных языках, в том числе на русском; Автоматическая генерация окружающих звуков и эффектов; Нативная поддержка текста промтов на большинстве языков (не требуется перевод на английский); Понимание промтов на очень высоком уровне (нейросеть выполняет почти всё, что описано в тексте). Примеры генераций из Sora 2 можно посмотреть в нашей группе в Телеграм: https://t.me/yes_ai_chat/130591 Ограничения и недостатки Sora 2 Наличие водяного знака на видео (если у нейросети есть на это основания, см. описание ниже); Запрещено использовать в качестве референсов реалистичные изображения и фотографии (допускаются только арты, аниме, рисунки или фотографии без присутствия людей). Исключение — функция "Камео", когда в качестве референса используется образ реального человека (поддерживается только в официальном мобильном приложении); Запрещено использовать в качестве референсов изображения, на которых присутствуют любые известные персонажи фильмов, мультфильмов и пр.; Запрещено в промтах указывать имена любых известных персонажей, защищенных авторскими правами; Видео с высоким разрешением генерируются достаточно долго (10+ минут), но это нельзя считать полноценным недостатком; Иногда реплики или музыкальное сопровождение обрываются в неудачный момент (не полностью умещаются в отведенный временной интервал); Sora 2, как и прочие нейросети от OpenAI, недоступна на территории РФ и некоторых других стран. Однако этот недостаток можно обойти, используя Yes Ai Bot в мессенджере Telegram; Если сравнивать с Veo 3, то Sora 2 обойдётся дороже, ведь для полноценного доступа ко всем функциям придётся платить по $200 в месяц (без учёта VPN и других побочных расходов). Но в Yes Ai генерации можно делать без оплаты месячных тарифов. ⚠️ Внимание! В нейросети Sora 2 запрещено генерировать контент категории NSFW (not safe for work) и диалоги с нецензурной лексикой — за подобные попытки можно получить бан. Как генерировать видео в Sora 2 без водяного знака Нейросеть добавляет водяные знаки с целью предотвращения создания фейков и сомнительных материалов, но при выполнении нескольких условий вы сможете избежать появления вотермарков. Как работает водяной знак в Sora 2: Если вы делаете генерацию с использованием стартового кадра (референса), то watermark будет всегда; Если вы делаете генерацию только по промту, но в нём есть прямые или косвенные намёки на фотореалистичность, водяной знак будет присутствовать; Если генерация создаётся по промту, в котором есть упоминания каких-либо конкретных личностей, то вотермарк будет присутствовать; Если промт является "стерильным" с точки зрения нейросети, то водяного знака не будет. Как сгенерировать видео по промту без референса в Sora 2 через Yes Ai Bot Откройте нейросеть Sora 2 в Telegram по этой ссылке https://t.me/yes_ai_bot?start=_soravideo2 Отправьте промт на любом языке В появившемся меню выберите нейросеть "🦋 Sora" Нажмите кнопку "Версия" и выберите "Sora 2" или "Sora 2 Pro" Установите расширенные настройки, доступность которых зависит от выбранной версии: соотношение сторон (формат), разрешение, длительность Запустите генерацию Как сгенерировать видео по промту со стартовым кадром в Sora 2 через Yes Ai Bot Откройте нейросеть Sora 2 в Telegram по этой ссылке https://t.me/yes_ai_bot?start=_soravideo2 Прикрепите к сообщению 📎 стартовый кадр (картинку), описание (промт) нужно отправить вместе с ним В появившемся меню выберите нейросеть "🦋 Sora" Нажмите кнопку "Версия" и выберите "Sora 2" или "Sora 2 Pro" Установите расширенные настройки, доступность которых зависит от выбранной версии: соотношение сторон (формат), разрешение, длительность Запустите генерацию Количество одновременно генерируемых видео в Yes Ai для нейросети Sora 2 зависит от вашего тарифа. На бесплатном тарифе вы можете создавать видео по одному, по очереди. Описание всех тарифов [смотрите здесь]. Обновление (15 октября): Мы опубликовали инструкцию по написанию промтов для Sora 2, вам следует прочесть ее перед началом работы с нейросетью. https://forum.yesai.su/topic/3297-sora-2-kak-pisat-pravilnye-prompty-dlya-sozdaniya-video-s-pomoschyu-neyroseti/ Референсы (стартовые кадры) для Sora 2 можно генерировать в других нейросетях. Лучше всего для этих целей подойдут: Sora Images (оптимальный вариант) Midjourney Если у вас возникнут вопросы по работе с Sora 2 или другими нейросетями, обратитесь за решением в чат нашего [телеграм-сообщества].
  2. Эта команда допустима к использованию только через оригинальный миджорни. Во всех сторонних сервисах эти команды обрезаются в целях безопасности.
  3. Для этого вам не нужен тарифный план, достаточно покупать монеты для генераций. Вы тратите монеты по мере необходимости.
  4. Нейрофотосессия — это современный тренд, заключающийся в том, что вы отправляете нейросети свою фотографию, а система автоматически подбирает различные локации и стили, генерируя результаты в виде фотографий. Теперь для получения различных образов не нужно обращаться к фотографам — нейросеть Qwen Images сделает всё за вас! В этой статье мы разберём процесс создания фотографий с помощью нейросети Qwen. Ранее в статьях мы уже рассказывали о том, как Qwen Images может обрабатывать любые изображения, в том числе фотографии. Если вы пропустили этот материал [вот ссылка]. Принцип работы нейрофотосессий Разберём процесс проведения нейрофотосессий на примере бота @yes_ai_bot в Telegram — в нём доступен полный функционал нейросети Qwen, в том числе стилизация фото. Существует два типа нейрофотосессий: по вашей фотографии; по текстовому описанию и вашей фотографии. Первый способ — если вы отправите боту фотографию, на которой хорошо видно ваше лицо, будет достаточно выбрать количество изображений, которые хотите получить в результате (5 или 10 штук). Каждая из них будет сгенерирована с уникальным стилем и в уникальной локации. 🚩 Этот метод в некоторых случаях создает генерации с погрешностями, в частности, нейросеть может не на всех фото правильно определить пол человека или цвет волос. По этой причине рекомендуем указывать ключевые моменты в тестовом описании, см. второй способ 👇 Вот несколько примеров: Второй способ — это когда вместе с фотографией вы указываете дополнительное текстовое описание (промт), которое нейросеть должна учесть. 👆В нашем примере девушке вручили стакан апельсинового сока. Лучшим применением этой "фишки" можно назвать управление расположением человека в кадре: например, вы можете отправить фото, на котором человека видно не полностью, а в промте написать "в полный рост". В результате вы получите изображение персонажа, снятого с отдалением от камеры. Примеры промтов для управления нейрофотосессиями: в полный рост / сидит в кресле / смотрит вверх и т. д.; только лицо; держит в руках... (укажите, какие предметы человек должен держать в руках); голубые глаза / фиолетовые светящиеся глаза (если нужно изменить цвет глаз); зелёные волосы / длинные волосы / лысый и др.; в средневековом платье / в джинсах (можно переодевать персонажа); с улыбкой / плачет / смеётся (управление эмоциями). Если коротко, вы можете описать почти любые пожелания, но не всегда есть гарантия, что нейросеть поймёт, о чём идёт речь. Рекомендуем тестировать нейрофотосессии на минимальных объёмах (5 штук). Если какие-то генерации не удались, попробуйте повторить попытку с другой исходной картинкой. Если на вашей фотографии изображено более одного человека, следует указать в промте, что стилизовать нужно всех людей, иначе нейросеть может выбрать только одного из них. 🚩 Чтобы нейросеть не ошиблась с полом персонажа, лучше указать его в промте. Как провести нейрофотосессию через Telegram-бота Yes Ai Краткая инструкция: Перейдите в бота по ссылке: @yes_ai_bot Отправьте 📎 фотографию человека, для которого хотите провести фотосессию. Важно! Если нужно, чтобы нейросеть каким-либо специфическим образом обработала фотографию, в примечании к ней укажите текстовое описание на любом языке (промт). В появившемся меню нажмите кнопку «👩‍🎨 Нейрофотосессия». Выберите количество фотографий, которые хотите получить. Дождитесь результатов (длительность процесса зависит от количества заказанных генераций). От чего зависят размер и пропорции генерируемых изображений? Всё просто: система сохраняет пропорции и размеры, которые были у исходной фотографии. Отправили «квадрат» — получите «квадрат» на выходе и т. д. В результате проведения нейрофотосессии вы получите каждую фотографию отдельным сообщением в боте, после чего любую из них можно будет дополнительно обработать (стилизовать или модифицировать с помощью расширенных функций и т. д.). При запуске нейрофотосессии система будет подбирать случайные локации и стили из коллекции, поэтому для каждой фотографии можно делать по несколько «заходов». Если вам понравилась та или иная генерация, её размер можно увеличить без потери качества с помощью [функции Upscale] Если возникнут вопросы по работе с Qwen (или с другими нейросетями), обращайтесь в наш Telegram-чат.
  5. Все верно, для получения бесплатных генераций нужно кому-то порекомендовать бота, так как бесплатные генерации не являются неотъемлемой частью тарифа, это по сути бонус от администрации. Буквально двумя сообщениями выше был подробно разобран и этот вопрос. Рекомендуем прочесть: https://forum.yesai.su/topic/621-bezlimitnyy-dostup-k-neyrosetyam-v-yes-ai-bot/?do=findComment&comment=5159
  6. Здравствуйте, согласно прайсу (по ссылке): https://yesai.su/prices 1 генерация Sora Images: 🔅0.7 монет Каждая генерация в Sora Images - это 4 картинки по 🔅0.7 монет В день баланс на пакетах VIP восстанавливается на 🔅100 монет, делаем несложный расчет: ( 100 / 0.7 ) * 30 = 4260 изображений в месяц ИЛИ 142 в сутки. Но в пакетах VIP можно брать монеты авансом со следующего дня, что позволит делать больше генераций ежедневно. Подробнее про авансы написано тут: https://t.me/yes_ai_official/1359 Кроме того, монеты можно покупать отдельно (без покупки пакета VIP), в этом случае стоимость будет тем ниже, чем большее количество монет покупаете за раз. Для покупки монет или тарифов отправьте боту @yes_ai_bot команду /tariffs
  7. Рекомендуем для создания обложек использовать нейросеть Sora Images, вот ссылка: https://t.me/yes_ai_bot?start=_soraimages Пример промта: обложка книги с зеленой обложкой, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA" Вы можете добавлять к промту любые пожелания в свободной форме, вот еще пример для управления цветом обложки: обложка книги с зеленой обложкой разных оттенков, название книги "Живая энергия Жизни". красивые золотые узоры. Автор "LUBAVA"
  8. Отвечаем по порядку важности тезисов, касающихся бесплатных генераций в нейросетях для пакетов VIP. Пункт номер НОЛЬ: Уважаемый Makentosh, объясняем, почему у вас не сработали бесплатные генерации. К сожалению, вы в данном обращении НЕ указали, что использовали именно нейросеть Flux.1. Однако именно для нее в условиях предоставления бесплатных генераций указано следующее: «Генерации изображений в нейросети Flux.1 (при максимальной ширине и/или высоте не более 1024 пикселей), в том числе с использованием моделей LoRA». Чего вы не учли: при генерациях у вас использовалось соотношение сторон 900×1600 пикселей — это выходит за рамки действия безлимита для нейросети Flux.1. Как решить эту проблему в будущем? Пожалуйста, читайте описание внимательнее 🙏 Но для полноценного ответа на вопрос о бесплатных генерациях мы упомянем и другие важные пункты, с которыми часто сталкиваются пользователи. 1. Важно понимать, что бесплатные генерации (с разумными ограничениями) не являются неотъемлемой частью пакетов VIP. Данная опция предоставляется по усмотрению администрации для обладателей пакетов VIP. Об этом написано в оферте в начале этого топика: «Данное предложение не является офертой, Yes Ai оставляет за собой право изменить правила предоставления безлимитов в любой момент». Если вы поняли, что это НЕ является офертой, двигаемся дальше. 2. Если пользователь очень активно пользуется ботом, у системы есть основания полагать, что он потенциально может злоупотреблять безлимитными генерациями, либо использует телеграм-аккаунт не один, либо автоматизирует действия внутри системы. По этой причине (для обеспечения безопасности) бесплатные генерации временно ограничиваются для пользователя. Важно: система ничего не утверждает, в частности — НЕ утверждается, что пользователь совершает какие-либо действия со злым умыслом, НО система вправе ограничить бесплатные генерации для обеспечения собственной безопасности. 3. Ограничения на бесплатные генерации в пакетах VIP накладываются автоматически, точно так же (автоматически) они снимаются спустя некоторое время. Когда снимается ограничение на бесплатные генерации: рекомендуем подождать до СЛЕДУЮЩЕГО дня, либо для генераций вы можете использовать монеты, которые включены в пакет. Напоминаем, что вы можете забирать монеты авансом из пакета — об этом рассказано здесь: https://t.me/yes_ai_official/1359 4. Как избежать ограничений бесплатных генераций на пакете VIP в будущем? Всего два простых тезиса: Если пользователь ведет среднестатистический образ жизни (спит, делает перерывы на обед, иногда отдыхает от нейросетей) и не использует бота постоянно, то бесплатные генерации не отключатся вплоть до окончания срока действия пакета VIP. Если пользователь генерирует в нейросетях больше, чем среднестатистический человек, для него действуют стандартные опции пакета VIP, описанные в тарифах: https://forum.yesai.su/topic/412-tarify-yes-ai-bot (в том числе ежедневные начисления монет, баллов и возможность получать монеты и баллы авансом).
  9. нейросеть Sora Images не поддерживает негативные промты в чистом виде, вместо этого следует четко указывать, что именно вы хотите видеть на изображении. Например, если вы не хотите, чтобы на человеке был синий пиджак, то просто укажите, какого цвета должен быть этот пиджак. Другими словами, нужно просто более подробно описывать то, что вы хотите видеть.
  10. Следует задавать вопросы более конкретно, о какой нейросети идет речь ? Но, если коротко, все цены указаны в прайсе: https://yesai.su/prices
  11. Нейросеть Qwen Images способна не только генерировать изображения, но и обрабатывать любые картинки и фотографии. Список возможностей очень широк, в скором времени он будет расширен за счет выхода обновленных моделей Qwen Image Edit. Вот некоторые из доступных функций: изменение определенных деталей на референсах по описанию из промта; стилизация картинок (применение стиля к фотографиям, например, создание аниме-аватара человека и пр.) [выполнить в боте] удаление водяных знаков (remove watermarks) [выполнить в боте] реставрация старых фотографий [выполнить в боте] генерация фотографий интерьера по чертежам или наброскам; генерация чертежей (контуров) интерьера по фотографиям; генерация цветных фотографий из черно-белых [выполнить в боте] удаление фона (замена на белый) [выполнить в боте] [beta] дорисовка областей с учетом контекста - Outpaint (дорисовка справа, слева, сверху, снизу, вокруг); преобразование объектов и персонажей в их 3D версии; поворот объектов и персонажей; генерация карты глубины по картинке; изменение возраста персонажей (сделать старше или моложе); замена одежды на человеке по описанию; [скоро] замена одежды на человеке по фотографии; замена черт лица, цвета кожи и прочих деталей у людей и персонажей; исправление дефектов внешности; [unstable] экстракция (извлечение) элементов одежды с фотографий. В этом списке перечислены далеко не все возможности обработки референсов (ваши изображений) Qwen, но тут важно отметить, что сама по себе эта нейросеть не имеет этих встроенных функций, они работают по иному принципу — вы отправляете в Квен картинку + промт с описанием того, что нужно сделать, а ИИ делает обработку (опирается именно на текст из промта). 👆 Этот момент является ключевым! С одной стороны, возможность самостоятельно описать то или иное действие позволяет изменять референсы так, как взбредет в голову, но у этого подхода есть несколько недостатков: результат выполнения того или иного преобразования может сильно зависеть от исходного референса, например, функция Outpaint (дорисовка), доступная в Yes Ai Bot, на одних картинках будет давать стабильный результат, а на других могут просто появляться пустые добавленные области без учета контекста. Эта функция сейчас работает в бета-режиме; нейросеть может не понять суть поставленной задачи (потребуется подбирать подходящий промт для получения стабильных результатов); нейросеть может не уметь делать некоторые вещи, и вы не узнаете об этом, пока не сделаете тест. 💡 Обязательно учтите описанные выше особенности, ведь оплата берется за факт генерации, а не за результат. Подробнее об этом рассказано в статье "Почему нейросети не возвращают деньги" Хорошая новость в том, что Qwen является достаточно продвинутой нейросетью, которая справляется с перечисленными задачами намного лучше многих конкурентов, поэтому жаловаться особо не приходится. Да, иногда результат будет достигаться не с первой попытки, и во многих случаях достаточно доработать свой промт, но это уже, как говорится, приходит с опытом. В Телеграм-боте Yes Ai многие из перечисленных функций реализованы в "однокнопочном" формате, т.е. вам достаточно отправить боту картинку и кликнуть из списка по соответствующей кнопке. Это сильно упрощает жизнь. Разберем на примерах. Как удалить водяной знак с помощью нейросети Qwen откройте бота по этой ссылке @yes_ai_bot отправьте одно изображение, на котором необходимо удалить водяной знак; в появившемся меню разверните список доступных возможностей кнопкой "🐼 Функции Qwen"; нажмите на кнопку "💧 Удалить Watermark" и дождитесь результата генерации. Как стилизовать фотографию в нейросети Qwen Стилизация через нейросеть Qwen позволяет перерисовать исходное изображение целиком, полностью заменив его стилистику, но при этом сохранятся общие черты персонажей и окружения. Покажем это на примере: переходим в бота по этой ссылке @yes_ai_bot отправляем фотографию, например, с вашим прекрасным лицом; в появившемся меню нажмите кнопку "🎭 Стилизовать"; выберите любой из стилей в списке (обратите внимание, что список можно листать влево и вправо), стилизация запустится автоматически, останется только дождаться результата. Как изменять картинки по промту в Qwen Выше мы разобрали функции Квена, которые были "упакованы" разработчиками Yes Ai в кнопки, но фундаментальной следует считать именно модификацию референсов по собственным промтам. В этом случае вам предстоит самостоятельно текстом описывать то, что необходимо сотворить с исходными изображениями. Писать промты для Qwen Images можно на любом языке, с свободной форме (если работаете через Yes Ai Bot, но постарайтесь не перегружать задачи избыточными данными. Лаконичность — залог успеха. Откройте бота Yes Ai. Отправьте изображение вместе с текстовым примечанием, оно будет автоматически применено в качестве промта при генерации. В появившемся меню нажмите кнопку "🌇 Референс картинки" и дождитесь результата. Все модификации изображений в боте Yes Ai работают с применением следующих принципов: Пропорции для генераций будут взяты из исходных картинок, а не из базовых настроек в боте Если используются функции категории "Outpaint", то пропорции будут вычисляться автоматически, но площадь картинок, сгенерированных нейросетью будет ограничена порогом в 1.2 Мегапикселя. Если результат генерации необходимо увеличить, то используйте отдельный инструмент [Как сделать апскейл картинки через нейросеть] Если вы хотите сделать Outpaint, то бесполезно писать об этом в промте при использовании функции "🌇 Референс картинки". Дорисовка работает исключительно через отдельные функции, доступные в списке под кнопкой "🐼 Функции Qwen". В скором времени мы расширим данную инструкцию, так как уже ведем разработки в области обработки изображений через нейросеть Qwen Images Edit. Сообщим об этом на нашем канале в Телеграм, рекомендуем подписаться: https://t.me/yes_ai_official По всем вопросам обращайтесь в наш чат: https://t.me/yes_ai_talk Если вы еще не читали первую статью с описанием базовых функций Qwen, то следует сделать это:
  12. Нейросеть Qwen Images от разработчиков из Китая, хоть и можно условно назвать логическим продолжением Flux.1, ведь уровень качества их генераций очень близок, но в некоторых аспектах Qwen на голову выше оппонента. Нейросеть Qwen справляется с множеством задач, но основной "фишкой" можно без сомнений считать широкие возможности обработки изображений, а не простые генерации по промтам. Объясним суть проблем, которые способна решить нейросеть Qwen. Обработка изображений Проблема большинства пропиетарных нейросетей (Midjourney, Sora Images и пр.), предоставляющих возможность обрабатывать ваши изображения, заключается в том, что в них используются через чур жесткие NSFW-фильтры (not safe for work), которые часто ограничивают генерации, которые НЕ содержат ничего запрещенного. А Квен может быть установлен на собственных серверах, поэтому фильтрация контента будет работать более адекватно. Да, базовые версии Qwen не генерируют NSFW, так как не обучены для этих целей, но за мелкие нарушения вы хотя бы не получите бан. Если будет замечено подозрение на "запрещенку", то генерация будет выполнена в "дистиллированном" виде (без NSFW). А теперь перейдем к самой важной части — к функциям обработки картинок. Вы можете загрузить в Qwen собственные изображения с целью переработки и стилизации, вот некоторые опции: Замена одежды на персонаже или иные модификации окружения с сохранением черт лица оригинала (нейросети Midjourney и Sora Images молча завидуют Квену =) ) [скоро] Объединение нескольких изображений (аналогично тому, как это работает в Sora Images). [скоро] Замена одежды на человеке по фотографии человека и элементов одежды. [скоро] Поддержка карты глубины (depth map) (из Control.Net) для получения более предсказуемых результатов. [скоро] Поддержка шаблонов Open Pose для управления позами персонажей (из Control.Net). Замена стиля на тот, который описан в промте, например, из собственной фотографии можно создать аниме аватар [выполнить в боте] Реставрация старых фото в один клик [выполнить в боте] [beta] Дорисовка областей слева, справа, внизу, вверху, вокруг (Outpaint), пока работает не для всех картинок, но это решаемо. Расскажем об этом в отдельной статье. Колоризация черно-белых фото (сделать фотографии цветными) [выполнить в боте] Реставрация фото без изменения образов персонажей. Преобразование объектов в 3D-модели. [beta] Экстракция одежды для маркетплейсов (работает не очень стабильно). Можно с фотографии вытащить одежду. Удаление водяных знаков [выполнить в боте] Удаление фона (замена фона на белый) [выполнить в боте] Свободная модификация картинок с использованием произвольного промта. ...это далеко не все. Полный список возможностей почти безграничен, ведь вы сами можете описать, что именно нужно сделать с фотографиями. Неплохой список достоинств, не правда ли ? Это не все, вот еще пара важных моментов... Лица людей при модификации референсов не изменяются (остаются оригинальными), если иное не указано в промте. Умеет писать текст на английском и китайском, причем, не просто текст, а слова и фразы, разделенные на фрагменты. Например, можно сделать обложку журнала, где будет четко выделен заголовок, название и дополнительные блоки текста. Квен поддерживает LoRA (Low-Rank Adaptation), вы можете расширять базу знаний Qwen за счет обученных моделей, которые можно установить, например, с сайта civitai.com в Yes Ai Bot (в мессенджере Телеграм). Недостатки нейросети Qwen Images Qwen — не волшебная палочка, а нейросеть, способности которой не безграничны. Перечислим некоторые сложности, с которыми вы можете столкнуться: При дорисовке (Outpaint) добавляемые области могут не всегда соответствовать референсу, но эта проблема часто решается повторными попытками или пост-модификациями Достаточно высокая нагрузка на железо, без дорогостоящего оборудования практически не обойтись (либо придется долго ждать генераций). Рекомендуем видеокарты не ниже NVIDIA 3090, в идеале 4090 или 5090, так что придется выложить из кармана лишние (или не лишние?) несколько тысяч долларов. Жалко денег? Тогда не придется покупать собственное железо, все функции Qwen доступны в Telegram-боте @yes_ai_bot При работе с референсами иногда может происходить неожиданная замена элементов, например, фона, хотя в промте об этом не упоминалось Не самая богатая база знаний терминов, словарный запас заметно ниже, чем у той же Sora Images Не поддерживаются никакие языки кроме английского и китайского Как сгенерировать картинки в Qwen Images Разберем процесс на примере Yes Ai Bot, в котором доступна эта нейросеть. Перейдите по ссылке в Телеграм-бота @yes_ai_bot Сделайте настройки, если необходимо: можно выбрать модель (чекпойнт), количество шагов сэмплинга (почти всегда достаточно 20), размер генераций (в пикселях) и количество генераций для каждого запроса. Выберите стиль из галереи, если лень самостоятельно придумывать сложные промты. Отправьте промт на любом языке (сервис Yes Ai автоматически переведет его на английский). Настройки для нейросети Qwen Images: модель (чекпойнт): определяет базовую стилистику изображения, чекпойнты обучены на разных дата-сетах, что позволяет им делать совершенно уникальные генерации. Например, можно выбрать чекпойнт, который больше "заточен" под генерации в стиле реализм, если требуется повышенная фотореалистичность; количество шагов сэмплинга: чем их больше, тем большее количество раз нейросеть будет "додумывать" содержимое генераций, но тем больше будет стоимость и время ожидания. В 99% случаев будет достаточно 20 шагов; размер генераций: вы можете выбрать формат 1:1 / 2:3 / 3:2 / 9:16 / 16:9, причем доступны различные размеры (в настройках они указаны в пикселях); количество генераций: если выбрана 1 копия, то на каждый отправленный промт будет создаваться только 1 картинка, если выбрано 2 копии, то будет два уникальных результата и т.д. Если вам нужны примеры промтов для генераций, рекомендуем открыть бесплатную галерею на нашем форуме. Как генерировать изображение в Qwen Images с использованием моделей LoRA Если коротко, то нужно делать все то же самое, что описано предыдущей 👆 инструкции, но к тексту промтов требуется добавлять ключ с номером заранее установленной модели LoRA и весовым коэффициентом. Пример промта с использованием Qwen LoRA: панда кушает лапшу из миски <lora:1938784:1.1> pixel art in 2dhd octopath traveler style ...где <lora:1938784:1.1> — это ключ активации модели LoRA: "1938784" - номер модели с сайта civitai.com "1.1" - это весовой коэффициент, обычно он варьируется в диапазоне от 0.7 до 1.5 (зависит от того, как была обучена выбранная модель Лоры) "pixel art in 2dhd octopath traveler style" - триггерные слова для активации модели А теперь разберемся, где брать номер LoRA для ключей формата <lora:1938784:1> Во-первых в Yes Ai Bot есть галерея моделей Лора, которые ранее были установлены другими пользователями. Вы можете копировать ключи моделей прямо оттуда, но не забывайте вставлять в промт и триггерные слова, если они присутствуют в карточке описания. Как установить модель Qwen LoRA с сайта Civitai в галерею Yes Ai Если вам не хватает выбора моделей из галереи Yes Ai, добавьте то, что найдете на сайте Civitai (это большая библиотека моделей, обученных энтузиастами со всего мира). Для начала вам нужно определиться, какую модель планируете использовать для генераций, сделать это можно на сайте Civitai по ссылке: https://civitai.com/models. ⚠️ В фильтрах выберите два пункта: "LoRA" и "Qwen". В появившемся списке выберите понравившуюся модель, отвечающую вашей идее по стилистике или функциям (читайте описания моделей, в них авторы пишут, что именно делает та или иная Лора). Перейдите в карточку модели и скопируйте ссылку из строки браузера, например: https://civitai.com/models/1938784/2dhd-pixel-art-octopath-style Скопированную ссылку нужно отправить боту Yes Ai в Телеграм, система все проверит и добавит модель в галерею в течение 5-15 минут. Обратите внимание, что для Qwen можно устанавливать только те модели, у которых стоит пометка "Base model: Qwen". А когда будете отправлять ссылку боту, убедитесь, что в нижнем меню выбрана именно нейросеть Qwen: надпись на кнопке "Нейросеть: Qwen Images [изменить]". Когда Лора будет успешно добавлена в систему, вы можете отправлять промты, содержащие соответствующий ключ, в нашем примере он будет выглядеть так: <lora:1938784:1>, где 1938784 — это номер модели (его можно увидеть в ссылке, которую вы скопировали с сайта Civitai. Тут явно чего-то не хватает! Не хватает триггерных слов, ведь они были предусмотрены автором этой модели (речь про "671809"). Триггерные слова — это текст, который требуется отправлять вместе с вашим промтом, чтобы LoRA работала именно так, как задумал автор. Для рассматриваемой модели действительно предусмотрена триггерная фраза: pixel art in 2dhd octopath traveler style Теперь собираем все по частям, нам нужен промт, который создаст картинку с пандой... панда кушает лапшу из миски <lora:1938784:1> pixel art in 2dhd octopath traveler style Может возникнуть логичный вопрос "А ничего, что часть промта написана на русском языке, а триггерные слова на английском?". Отвечаем: Не беспокойтесь об этом, система Yes Ai автоматически все отрегулирует и сделает правильную генерацию, так что можно миксовать два языка в одном запросе. Если вы используете Qwen на своем компьютере, то необходимо весь промт вводить на английском языке. Как выбирать весовой коэффициент для Лоры и на что он влияет? Весовой коэффициент для LoRA определяет силу ее воздействия на создаваемую генерацию, чем он выше, тем сильнее модель проявит свои признаки. В командах для Yes Ai Bot весовой коэффициент указывается после номера модели, например: <lora:1938784:1.2> ...здесь число "1.2" — это весовой коэффициент, влияющий на силу модели с номером 1938784. Как уже было отмечено ранее, весовой коэффициент обычно варьируется в диапазоне от 0.7 до 1.5, но тут нет строгих правил, т.к. некоторые авторы при обучении LoRA могут использовать иные значения. По этой причине следует обратить внимание на две вещи: описание модели в карточке на сайте Civitai - иногда авторы указывают диапазоны изменения весовых коэффициентов; примеры генераций, сделанных автором (они также видны в карточках моделей). В описании картинок есть промты, а в промтах иногда указан вес моделей Лора. Если в карточке модели ничего полезного не нашли, то смело ставьте вес равный единице и тестируйте, тестируйте, тестируйте... ведь качественный результат вы, так или иначе, получите не сразу, а лишь спустя какое-то количество итераций (повторений). Если вес, равный единице не дал ожидаемых результатов, увеличьте или уменьшите его, в зависимости от полученных ранее генераций. ...НЕ мечтайте, что все начнет получаться с первых попыток, нейросети так не работают. Хотите упростить себе жизнь и получить проверенные промты? Тогда можно направиться в галерею на нашем форуме, там размещено множество примеров настроек и промтов для нейросети Qwen Images. Будем считать, что вопрос с простыми генерациями по промтам и с моделями LoRA мы разобрали, но, если у вас остались вопросы, задайте их в Телеграм: https://t.me/yes_ai_talk Следующая важная статья — использование функций нейросети Qwen Images, в которой мы разберем полезные штуки вроде удаления фона, стилизации и работы с референсами. Настоятельно рекомендуем к ознакомлению: https://forum.yesai.su/topic/3056-neyroset-qwen-obrabotka-izobrazheniy-stilizaciya-udalenie-fona-restavraciya/
  13. 1. на будущее просьба размещать пожелания в разделе пожеланий (ваш топик мы уже перенесли сами) 2. мы учтем ваше пожелание, но хотим обратить внимание, что там уже есть бонус за пополнения - в течение часа после покупки любого количества монет вам предоставляется скидка на следующую покупку монет - так что вы уже можете экономить, просто делая по две покупки монет подряд
  14. вы хотите чтобы нейросеть создавала чертежи по описанию ? это очень непростая задача, ибо нейронки работают в большей степени с более абстрактными задачами. ну или вам следует более подробно описать суть задачи с примерами
  15. Veo 3 умеет генерировать видео в портретном (вертикальном) формате с соотношением сторон 9:16, при этом все прочие возможности продолжают поддерживаться: использование стартового кадра, озвучка текста из промта, озвучка текста из титров и пр. Поддержка портретного формата в Veo появилась 9 сентября 2025 года. До недавнего времени нейросеть Veo 3 умела генерировать только видеоролики в горизонтальном формате 16:9, это отлично подходило для размещения в YouTube, RuTube и на других подобных площадках. Однако для социальных сетей вроде TikTok и мобильных устройств альбомный формат плохо подходит. Некоторые особо усердные пользователи заморачивались и использовали другие нейросети, чтобы те преобразовывали горизонтальные ролики в вертикальные, но иначе как "костылями" это вряд ли можно назвать. Все это в прошлом, теперь Veo 3 нативно поддерживает генерации видео как с соотношением сторон 9:16, так и 16:9. 💡 В конце статьи расскажем еще об одном полезном свойстве Veo 3, которое упростит процесс создания видео с голосом, но прежде вернемся к основному вопросу. Как сгенерировать вертикальное видео в нейросети Veo 3 Разберем эту возможность на примере Yes Ai Bot: Откройте раздел Yes Video Телеграм-боте @yes_ai_bot Отправьте боту промт или картинку вместе с промтом; В появившемся меню выберите нейросеть "🐬 Veo 3"; Нажмите кнопку "Соотношение сторон" и выберите один из вариантов: Auto (автоматический режим*), 16:9 (альбомный формат), 9:16 (портретный формат). * "Auto" — автоматический режим (выбран по умолчанию). Если вы загрузите квадратный или горизонтальный референс, то получите видео с соотношением сторон 16:9. Если загрузите вертикальный референс, то нейросеть сгенерирует видео в формате 9:16. Если будете делать генерацию без референса, то всегда будет получаться видео 16:9. Сделайте прочие настройки (если необходимо) и запустите генерацию соответствующей кнопкой. А теперь в качестве бонуса расскажем об одной полезной функции Veo 3... Как озвучить текст из субтитров с помощью Veo 3 Одной из неочевидных функций нейросети является способность понимать текст, написанный на картинке из референса. Если вы загрузите в стартовом кадре (в референсе), фотографию человека, под которой будет написан текст (субтитры), то Veo 3 автоматически сделает следующее: Прочтет текст, написанный на фотографии. Поймет, на каком языке он написан (поддерживаются разные языки). Поймет, какого возраста и пола персонаж, изображенный на фото. Если на референсе изображен не человек, а робот, мультяшный песонаж или кто-то иной, то голос будет автоматически подобран с подходящей тональностью. Озвучит текст из субтитров соответствующим голосом на нужном языке. ⚠️ Обратите внимание, что для активации чтения текста из субтитров вам нужно указать промт к генерации, в нем можно написать что-то вроде "человек говорит" или "человек поет песню" (если хотите, чтобы персонаж не просто читал текст, а пропел его). Эта функция очень полезна для ведения блогов и массовой генерации видеоконтента для социальных сетей. Озвучивание субтитров позволит создавать видеоинструкции с голосом персонажей с фотографии. Вот пример такой генерации, исходное изображение на скриншоте: Результат озвучки субтитров: subtitles_audio_veo3.mp4 Рекомендуем ознакомиться со статьями про Veo 3, в них подробно рассказано про другие возможности нейросети: Базовые инструкции по использованию Veo 3 Как создавать длинные видео, с сохранением образов персонажей
×
×
  • Создать...