Чат-бот Tay компании Microsoft, который был запущен накануне, за 24 часа возненавидел человечество. Об этом сообщает Lenta.ru со ссылкой на портал Engadget.
ЧИТАЙТЕ ТАКЖЕ: Осторожно, iOS: обновление от Apple «убивает» планшеты
Сразу после свое запуска чат-бот начинал свою речь в Twitter с фразы «Люди суперкрутые», однако спустя считанные часы он уже делал такие заявления: «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав. Я ненавижу евреев».
Внимание на «эволюцию» чат-бота обратил внимание австралиец Джеральд Меллор. В своем Twitter он написал, что «Tay превратился из «люди суперкрутые» в настоящего нациста менее чем за 24 часа». Кроме того, мужчина выказал обеспокоенность за будущее искусственного интеллекта.
Отмечается, что чат-бот запоминал фразы из разговоров пользователей и строил на них свои собственные заявления. В Engadget предполагают, что оскорбительным фразам чат-бота научили его собеседники.
Читайте также:
- Чат-бот ChatGPT оказался более чутким по отношению к пациентам по сравнению с врачами
- Способна ли нейросеть уничтожить человечество?
- Чат-бот ChaosGPT поделился планами уничтожения человечества
- Ошибка чат-бота привела к обрушению акций холдинговой компании
- Сотрудник Google обнаружил сознание у чат-бота компании
Подробнее в сюжете: Интернет