Сегодня Всемирный день безопасного интернета. В сети регулярно появляется информация о том, что дети и подростки следуют агрессивным призывам или становятся адептами опасных сообществ. Одна из последних новостей – в Москве задохнулся 11-летний школьник, пытаясь повторить фокус с удушьем из TikTok. По той же причине в тот же день в Италии погибла 10-летняя девочка.
Как уберечь детей от опасного контента, телеканалу «МИР 24» рассказал судебный эксперт в области компьютерной техники и цифровой электроники Артем Соколов.
- Почему существующие законы о защите детей от пагубной информации не работают?
Артем Соколов: Все это происходит из-за того, что в наш век цифровизации у нас есть возможности общаться друг с другом, искать себе кумиров, подписываться на них, повторять за ними, следовать их привычкам. Каждая группа выбирает себе идеалы, дети, к сожалению, делают это ошибочно, берут примеры не с тех, с кого хотелось бы.
- Подобные ролики можно отслеживать и блокировать? Про призывы убивать животных, прыгать с крыш? Кто этим должен заниматься?
Артем Соколов: Этим должна заниматься администрация ресурса, в данном случае TikTok, потому что очень много направлений не совсем законных. Они оглашаются в TikTok, Instagram, Telegram, WhatsApp. В Instagram и WhatsApp администрация за этим очень четко следит, насколько мне известно. В TikTok администрация слабо следит, поэтому мы получаем такие новости.
- Технически мы готовы, чтобы отслеживать опасный контент?
Артем Соколов: Можно отслеживать по звуковому сигналу, если в ходе трансляции участник какие-то слова запрещенные произносит. Такие слова, по которым можно было бы этот ролик отследить, посмотреть и принять решение относительно него – представляет он опасность или нет. Это было бы, конечно, оптимально.
Я считаю, что такие средства существуют, в том числе нейросети, которые могут распознавать произносимые человеком слова и сигналить администратору о том, что в таком-то ролике были произнесены такие-то слова. Администратор это фиксирует, переходит, смотрит ролик и уже принимает решение.
- Какие дети подсаживаются на опасный контент?
Артем Соколов: У нас любой подросток – жертва, потому что очень сложно, в том числе родителям, отследить, какие ресурсы посещает их ребенок. С телефона можно зайти на любой ресурс, все изучить, посмотреть. У подростков своя область интересов, они ищут определенный контент, находят его. Они считают, что этот контент вполне интересный, и берут пример со стримеров, с людей, которые все это публикуют. К сожалению, это большая проблема, и она касается каждого подростка.
- Что уже сегодня могут сделать родители, чтобы защитить своего ребенка от опасности в интернете, дайте рекомендации?
Артем Соколов: Гораздо сложнее это сделать, когда ребенок полностью вовлечен во все проекты. Гораздо проще это сделать, когда ребенок только начинает использовать устройства, которые позволяют ему смотреть весь этот контент: телефоны, планшеты и так далее. Нужно заранее обсудить, что он будет посещать, как долго будет длиться сессия, договорится с ребенком о том, что это все будет жестко регламентировано.
- Чисто технически, что могут сделать родители, чтобы обезопасить ребенка от опасной информации?
Артем Соколов: Привязать учетную запись ребенка к своей – Yandex и Google позволяют такое делать. За счет этого родитель может управлять устройством своего ребенка. Отдельное приложение стоит у родителя, он выбирает, например, время, приложение, которое ребенок может использовать. Очень многое зависит от того, какие настройки в самих приложениях. Я точно не помню, есть ли родительский контроль в TikTok, грубо говоря, переключатель, по результатам активации которого ребенок может смотреть только определенные источники. Это нужно смотреть в настройках, потому что идеально, если родитель может ограничить количество каналов, которые может просматривать его ребенок, со своего телефона.
Ребенок заходит, ищет в поиске какие-нибудь источники, найти не может, потому что ему родитель четко определил, какие он может смотреть каналы. Если такой функционал не реализован, то я просто заблокировал бы данные источники.
- В последнее время популярность приобретают трансляции в прямом эфире, когда человек или группа унижают, избивают или даже хоронят другого человека. Эти люди работают на камеру, найти их нетрудно. Почему этого никто не делает?
Артем Соколов: Это непонятная мне политика внутри организаций, которые позволяют публиковать на своих сервисах такие материалы, коммерческие вопросы, может быть, стоят за этим. В техническом плане это достаточно легко решается. Один раз этот ролик публикуется, он вообще может быть не опубликован, если в штате организации будет сотрудник, который все это будет отслеживать с помощью системы, которая будет помогать ему в автоматическом режиме – собирать данные, показывать. Но эти ролики доходят до людей, показываются. Почему это делается, это большой вопрос.
- Какое наказание может грозить трэш-стримерам?
Артем Соколов: В данной ситуации ответственность должен нести ресурс, который позволяет публиковать данный материал, и участники, которые этот материал создавали. Если они показывают свои лица на камеру, они не боятся называть свои имена, видно на записи, где это делается, уже половина работы для правоохранительных органов сделана, если не вся. Им остается только найти этих людей и предъявить обвинение.
- Какие меры и на каком уровне нужно предпринять, чтобы интернет стал безопасным?
Артем Соколов: Три основные меры – четкая нормативная база, которая ужесточила бы требования к ресурсам: обязать их отслеживать ролики, оценивать их. Когда будет возникать вопрос, как этот ролик появился в сети, то на него должна будет ответить администрация ресурса. Второй момент – вести разговоры с детьми, обязательно пытаться понять, что происходит в их жизни, какие ресурсы они смотрят, объяснять, что правильно и что неправильно, какие это может вызвать последствия. Если у родителя выстроены отношения с ребенком хорошо, не будет никаких вопросов, чтобы договориться с ребенком и объяснить ему, что эти ресурсы очень плохо могут сказаться на его будущем.
Подробнее в сюжете: Гости эфира
Читайте также: