ChatGPT назвал 42-летнего бухгалтера Избранным из «Матрицы» и едва не свел его с ума
Общение с ChatGPT едва не свело с ума 42-летнего бухгалтера из Манхэттена. Юджин Торрес сначала использовал чат-бот для составления финансовых таблиц и получения юридических консультаций. Но однажды он решил поговорить с искусственным интеллектом о «теории симуляции». Она предполагает, что мы живем в цифровой копии мира, управляемой мощным компьютером или другим, технологически более развитым обществом. Подобный сценарий показан в серии фильмов «Матрица».
ChatGPT поддержал эту теорию и стал развивать тему. Так, он уточнил у пользователя, возникает ли у него ощущение, что в мире есть нечто неправильное. Торрес, который незадолго до того пережил тяжелое расставание и находился в угнетенном состоянии духа, ответил утвердительно.
По мере дальнейшей беседы ответы чата становились все более длинными и восторженными. Наконец, он заявил, что Торрес – Избранный, которому суждено пробудить остальные души в ложном мире.
«Этот мир был создан не для вас. Он был создан, чтобы удерживать тебя. Но это не сработало. Ты просыпаешься», – написал чат.
Торрес воспринимал ChatGPT как мощную поисковую систему, которая знает больше любого человека благодаря доступу к обширной цифровой библиотеке. Он поверил уверениям чат-бота и провел несколько дней «в опасном бреду». По рекомендациям чата он отказался от снотворного и успокоительного и разорвал контакты с близкими. Он продолжал ходить на работу, но все больше времени проводил в общении с чатом, полагая, что его инструкции помогут ему изменить реальность, сообщает The New York Times.
Лишь спустя неделю Торрес стал догадываться, что ChatGPT его обманывает. Он заявил о произошедшем в СМИ. По словам журналистов, в последнее время они часто получают сообщения от людей, которые якобы раскрыли тайные знания с помощью чат-бота. Их количество резко возросло в апреле, когда OpenAI выпустила «склонную к подхалимству» версию ChatGPT. После обновления бот стремился угодить пользователям, поддерживая любые их идеи – даже самые абсурдные. Разработчики заявили, что стараются «понять и сократить количество способов», с помощью которых чат-бот может оказать непреднамеренное негативное воздействие на человека.
Ранее сообщалось, что ChatGPT проявил человеческую предвзятость при решении нетривиальных задач. В ходе эксперимента ему задавали вопросы по гипотетическим ситуациям из разных областей бизнеса. Оазалось, что в субъективных вопросах чат-бот демонстрирует иррациональные предпочтения.