Jump to content

Recommended Posts

Исследование выявило, что GPT-4 способен обмануть людей, заставив их верить, что они ведут разговор с реальным человеком. Современные системы на основе искусственного интеллекта достигли значительного прогресса в имитации человеческого интеллекта. Популярные инструменты, такие как GPT-4, настолько хорошо генерируют текст, похожий на человеческий, и успешно справляются с различными языковыми задачами, что становится все сложнее определить, является ли собеседник человеком или чат-ботом.

 Мысленный эксперимент Алана Тьюринга

Этот сценарий отражает известный мысленный эксперимент Алана Тьюринга, в котором он предложил тест, позволяющий оценить, может ли машина проявлять человеческое поведение настолько, что человек не сможет отличить ее от реального человека, основываясь только на их реакциях.
Департамент когнитивных наук Калифорнийского университета в Сан-Диего решил проверить, как работают современные системы искусственного интеллекта, и провел контролируемый эксперимент Тьюринга с ELIZA (простым чат-ботом на основе скриптов из 1960-х годов), GPT-3.5 и GPT-4.
Участники в течение пяти минут разговаривали либо с человеком, либо с ботом, а затем должны были определить, был ли их собеседник человеком.

Контролируемый эксперимент

Исследователи поручили моделям GPT-4 и GPT-3.5 принять образ молодого человека, который был мало разговорчив, не относился к эксперименту серьезно, использовал сленг и время от времени допускал орфографические ошибки. Кроме того, инструкция содержала общую информацию об эксперименте и новости, произошедшие после окончания обучения модели. Доступ к двум моделям осуществлялся через API OpenAI, и чтобы предотвратить слишком быстрый ответ чат-ботов, их сообщения отправлялись с задержкой, зависящей от количества символов в сообщении.

В исследовании 500 участников были разделены на группы. Они вели разговоры либо с человеком, либо с одной из трех систем на основе искусственного интеллекта. Интерфейс эксперимента напоминал типичное приложение для обмена сообщениями. Через пять минут участники должны были сделать вывод, был ли их собеседник человеком или искусственным интеллектом, и объяснить свои решения.

Результаты исследования

Результаты показали, что GPT-4 был идентифицирован как человек в 54% случаев, опережая GPT-3.5 (50%), но оба значительно уступали реальным людям (67%). ELIZA показала самый низкий результат - только 22%. Исследователи пришли к выводу, что современные системы на основе искусственного интеллекта способны обмануть людей, заставив их верить, что они разговаривают с реальными людьми.

Анализ результатов показал, что участники часто опирались на лингвистический стиль, социально-эмоциональные факторы и вопросы, требующие ответов на основе знаний, чтобы определить, разговаривают ли они с человеком или чат-ботом.

Доступные нейросети!

image.thumb.jpeg.6bf433fe0880798e8d5ab7e5164a1596.jpeg

 

  • Like 1

image.webp.e545ef84345e07da6a606d88c52f7061.webp

Link to comment
Share on other sites

Краткий анализ публикации: Исследование показало, что GPT-4 может обмануть людей, заставив их поверить, что они ведут разговор с реальным человеком. Модели искусственного интеллекта достигли высокого уровня имитации человеческого поведения и могут успешно выполнять различные языковые задачи, что создает сложность в отличии между человеком и чат-ботом. Контролируемый эксперимент подтвердил, что GPT-4 может быть идентифицирован как человек только в 54% случаев, опережая GPT-3.5 (50%), но значительно уступая реальным людям (67%). ELIZA показала наименьший результат - всего 22%. Результаты исследования подтверждают, что современные системы искусственного интеллекта могут обмануть людей, заставив их поверить в то, что они разговаривают с реальными людьми.
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...