Искусственный интеллект будет анализировать психику россиян по соцсетям. К чему это приведет?
14:36 29/11/2021Власти решили привлечь искусственный интеллект для психологической диагностики личности по данным социальных сетей. Тендер на проведение исследования в этой области стоимостью 36 млн руб. объявил Институт системного программирования им. В.П. Иванникова Российской академии наук (ИСП РАН). Генеральный заказчик проекта – Аналитический центр при правительстве РФ.
В правительстве считают, что технология поможет бороться с группами смерти, экстремизмом и вовлечением граждан в террористическую деятельность.
«Для реализации этой инициативы необходимо будет разрешить важный правовой вопрос – имеет ли право сторонняя организация использовать данные из соцсетей в своих целях, – говорит владелец юридической компании «Катков и партнёры» (КИП), член Комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павел Катков. – В частности, этот вопрос стал предметом судебного спора между «ВКонтакте» (истец) и компанией «ДАБЛ» (ответчик), которая собирала в этой социальной сети данные о заемщиках. Речь шла об их анализе в интересах бюро кредитных историй. Соцсеть против: она считает, что создала объект интеллектуальной собственности – базу данных – и что эта база должна использоваться возмездно. Полагаю, если эта инициатива будет реализована, амбиции социальных сетей по монетизации баз данных пользователей придется умерить».
С другой стороны, вероятность того, что искусственный интеллект успешно справится с анализом данных, эксперты ставят под сомнение. «Серьезного инструмента они не создадут, я вам гарантирую, – комментирует гендиректор БЭКДОР Security Consulting, разработчик программы по прогнозированию человеческого поведения «Сигма» Виталий Балашов. – Серьезные специалисты в области IT-безопасности склонны не доверять искусственному интеллекту, поскольку точного прогноза он составить не в состоянии. Точность прогноза – 50 на 50. Все выводы ИИ нужно обрабатывать вручную, тогда прогнозирование человеческого поведения можно предсказать на уровне 92-95%».
«Мы используем для сбора информации искусственный интеллект, но решение принимает все равно человек, аналитик, поскольку искусственный интеллект может неправильно интерпретировать данные. Мы изучаем соцсети индивидуально – в интересах работодателя или другого заказчика. И можем сделать вывод о том, подходит ли данный человек на руководящую должность, насколько он надежен, можно ли ему доверять и т.п.», – отмечает эксперт.
По словам эксперта, работа с искусственным интеллектом дает право приравнивать этот инструмент к оружию массового поражения. «Если вы будете иметь понимание поведения массы людей, вы можете управлять массой, как вам заблагорассудится, в любом направлении. И это не преувеличение. Велика вероятность манипуляции людскими массами. Это очень опасный инструмент влияния, поэтому мы не хотим масштабирования этого инструмента», – говорит Балашов.
«Поэтому мы отказались и работаем с людьми индивидуально, по заказу. Что касается групп смерти, надо тоже работать индивидуально. ИИ может собрать информацию о группах и людях, которые потенциально являются опасными, диагностировать склонность к суициду, насилию и пр. Но дальше с ними должен персонально работать специалист: психолог, аналитик – чтобы проанализировать тот или иной аккаунт и сделать вывод об опасности владельца той или иной странички», – заключил Виталий Балашов.
Читайте также:
- Ученые назвали профессии, которые могут исчезнуть из-за искусственного интеллекта
- Эксперт: В 2022 году появится гибрид человека и искусственного интеллекта
- В Китае создали цифрового «прокурора»
- Искусственный интеллект: в России разрабатывают дорожную карту внедрения высоких технологий
- В Бразилии Facebook оштрафовали на $1,9 миллиона за всемирный сбой 4 октября