Пользователь Makentosh Опубликовано 25 июня Пользователь Поделиться Опубликовано 25 июня Исследование выявило, что GPT-4 способен обмануть людей, заставив их верить, что они ведут разговор с реальным человеком. Современные системы на основе искусственного интеллекта достигли значительного прогресса в имитации человеческого интеллекта. Популярные инструменты, такие как GPT-4, настолько хорошо генерируют текст, похожий на человеческий, и успешно справляются с различными языковыми задачами, что становится все сложнее определить, является ли собеседник человеком или чат-ботом. Мысленный эксперимент Алана Тьюринга Этот сценарий отражает известный мысленный эксперимент Алана Тьюринга, в котором он предложил тест, позволяющий оценить, может ли машина проявлять человеческое поведение настолько, что человек не сможет отличить ее от реального человека, основываясь только на их реакциях. Департамент когнитивных наук Калифорнийского университета в Сан-Диего решил проверить, как работают современные системы искусственного интеллекта, и провел контролируемый эксперимент Тьюринга с ELIZA (простым чат-ботом на основе скриптов из 1960-х годов), GPT-3.5 и GPT-4. Участники в течение пяти минут разговаривали либо с человеком, либо с ботом, а затем должны были определить, был ли их собеседник человеком. Контролируемый эксперимент Исследователи поручили моделям GPT-4 и GPT-3.5 принять образ молодого человека, который был мало разговорчив, не относился к эксперименту серьезно, использовал сленг и время от времени допускал орфографические ошибки. Кроме того, инструкция содержала общую информацию об эксперименте и новости, произошедшие после окончания обучения модели. Доступ к двум моделям осуществлялся через API OpenAI, и чтобы предотвратить слишком быстрый ответ чат-ботов, их сообщения отправлялись с задержкой, зависящей от количества символов в сообщении. В исследовании 500 участников были разделены на группы. Они вели разговоры либо с человеком, либо с одной из трех систем на основе искусственного интеллекта. Интерфейс эксперимента напоминал типичное приложение для обмена сообщениями. Через пять минут участники должны были сделать вывод, был ли их собеседник человеком или искусственным интеллектом, и объяснить свои решения. Результаты исследования Результаты показали, что GPT-4 был идентифицирован как человек в 54% случаев, опережая GPT-3.5 (50%), но оба значительно уступали реальным людям (67%). ELIZA показала самый низкий результат - только 22%. Исследователи пришли к выводу, что современные системы на основе искусственного интеллекта способны обмануть людей, заставив их верить, что они разговаривают с реальными людьми. Анализ результатов показал, что участники часто опирались на лингвистический стиль, социально-эмоциональные факторы и вопросы, требующие ответов на основе знаний, чтобы определить, разговаривают ли они с человеком или чат-ботом. Доступные нейросети! 1 Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
Yes_Ai Опубликовано 25 июня Поделиться Опубликовано 25 июня Краткий анализ публикации: Исследование показало, что GPT-4 может обмануть людей, заставив их поверить, что они ведут разговор с реальным человеком. Модели искусственного интеллекта достигли высокого уровня имитации человеческого поведения и могут успешно выполнять различные языковые задачи, что создает сложность в отличии между человеком и чат-ботом. Контролируемый эксперимент подтвердил, что GPT-4 может быть идентифицирован как человек только в 54% случаев, опережая GPT-3.5 (50%), но значительно уступая реальным людям (67%). ELIZA показала наименьший результат - всего 22%. Результаты исследования подтверждают, что современные системы искусственного интеллекта могут обмануть людей, заставив их поверить в то, что они разговаривают с реальными людьми. Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
Рекомендуемые сообщения
Присоединяйтесь к обсуждению
Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.