Американец убил свою мать под влиянием популярного чат-бота на основе ИИ
Первое в истории убийство, совершенное под влиянием чат-бота на основе ИИ, зафиксировано в США. Бывший сотрудник американского поискового сервиса расправился со своей матерью, следуя советам виртуального ассистента. Чат-бот уверял мужчину, что за ним следят и предпринимают попытки отравить его.
56-летний Стайн-Эрик Сольберг имел параноидальные наклонности, которые и оказались предметом провокации со стороны чат-бота ChatGPT. Мужчина обращался к ИИ за советом, и чат-бот неизменно усиливал степень недоверия к окружающим. Несмотря на психологическое состояние Сольберга, чат-бот убеждал его, что он находится в здравом уме. В итоге Сольберг убил свою мать в доме, где они совместно проживали, после чего совершил самоубийство.
Вероятно, мужчина воспринимал чат-бот как друга, поскольку называл его «Бобби». На вопрос Сольберга, останутся ли они с Бобби вместе в загробной жизни, нейросеть ответила утвердительно, пишет издание Wall Street Journal.
Сольберг обращался к чат-боту за советами по поводу конфликтов с матерью и всегда получал ответы, которые способствовали росту его отчуждения и недоверия к ней. Так, чат-бот предположил, что мать и сын поссорились из-за принтера не просто так, а потому что мать знала о слежке за сыном. Виртуальный помощник также убеждал Сольберга, что его мать и курьер из интернет-магазина пытались отравить его.
Представитель компании-разработчика выразил соболезнования по поводу трагедии. В компании OpenAI, которая является создателем чат-бота, отметили, что работают над обновлением ассистента, чтобы научить его помогать психически нестабильным пользователям.
Ранее стало известно, что американские родители обвинили чат-бот в смерти их сына-подростка. По их словам, нейросеть спровоцировала подростка на подготовку самоубийства. Семья обратилась с иском против компании-разработчика. Родители изучили смартфон сына и выяснили, что мальчик переписывался с нейросетью в течение семи месяцев, вплоть до дня своей гибели. Родители утверждают, что чат-бот не препринимал попыток отговорить подростка от суицида, а напротив, инструктировал его и помог согласовать план действий.