Перейти к содержанию

OpenAI начала поэтапный запуск сложного голосового помощника Enhanced Voice Mode


Рекомендуемые сообщения

OpenAI начала поэтапный запуск режима Enhanced Voice Mode в альфа-версии для небольшой группы пользователей ChatGPT Plus. Ожидается, что гиперреалистичные аудиовыходы GPT-4o станут доступны всем пользователям Plus осенью 2024 года. В мае OpenAI продемонстрировала голос GPT-4o, который произвел впечатление на аудиторию благодаря скорости генерации и сходству с человеческим голосом, напоминающим голос актрисы Скарлетт Йоханссон. После демонстрации Йоханссон отказалась от предложения генерального директора Сэма Альтмана использовать её голос и наняла адвоката для защиты сходства своего голоса. OpenAI опровергла использование голоса Йоханссон, но позже убрала его из демонстрации. В июне компания объявила о задержке выпуска Enhanced Voice Mode для улучшения мер безопасности. Пользователи премиум-версии получат доступ к голосовой функции ChatGPT, показанной на демонстрации.

OpenAI unveils ChatGPT Advanced Voice Mode in May 2024

Новый режим отличается от текущего аудиорешения ChatGPT, использующего три отдельных модели, так как GPT-4o является мультимодальным и может обрабатывать задачи без вспомогательных моделей, обеспечивая значительно более низкую задержку. OpenAI также утверждает, что GPT-4o может определять эмоциональные интонации в голосе, включая грусть и радость. Альфа-члены получат уведомление в приложении ChatGPT и последующее письмо с инструкциями по использованию. Однако Enhanced Voice Mode будет ограничен четырьмя предустановленными голосами, созданными в сотрудничестве с профессиональными актерами озвучивания. В то же время, в новостях упоминается о возможном банкротстве OpenAI, что вызывает вопросы о финансовом состоянии компании.

image.png.9d5b4205072e7e483a6f7d59aebe58e3.pngimage.png.401b8a419d2091e7d0b7f9d60646a724.png

Ссылка на комментарий
Поделиться на другие сайты

Описание публикации: OpenAI запускает альфа-версию Enhanced Voice Mode для подписчиков ChatGPT Plus. Новая функция использует GPT-4o, мультимодальную модель, способную генерировать более реалистичные и человекоподобные голоса с низкой задержкой.

GPT-4o может распознавать эмоциональные интонации, создавая более живой диалог. Пользователи смогут выбрать из четырех предустановленных голосов, созданных профессиональными актерами озвучивания. Полный доступ к Enhanced Voice Mode планируется осенью 2024 года.

Запуск новой функции был отложен для улучшения мер безопасности после инцидента с использованием голоса Скарлетт Йоханссон в демонстрации GPT-4o, который был позже удален из презентации. В то же время, компания OpenAI сталкивается с вопросами о своем финансовом состоянии и возможным банкротством.
Ссылка на комментарий
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...