Россияне смогут оспаривать ответы, данные искусственным интеллектом, и требовать от него объяснений. Новый законопроект Минцифры вводит обязательную прозрачность алгоритмов и усиливает защиту граждан от ошибок и предвзятости нейросетей. Об этом сообщает argumenti.ru со ссылкой на гендиректора компании по информационной безопасности Глеба Гауса.
Весной 2026 года в России началось формирование новой правовой базы для регулирования ИИ. Законопроект «Об основах государственного регулирования сфер применения ИИ-технологий», представленный в марте, нацелен на борьбу с так называемым «алгоритмическим произволом» в банках, кадровых сервисах и государственных системах.
Ключевым нововведением станет «право на объяснение». Это означает, что гражданин сможет потребовать разъяснения, если решение, например, отказ в кредите или лишение льготы, было принято алгоритмом. В случаях, затрагивающих права человека, окончательное решение должно приниматься не системой, а человеком, отметил эксперт.
Отдельное внимание уделяется борьбе с «алгоритмической дискриминацией». Разработчиков обяжут исключать из моделей механизмы, способные приводить к предвзятым решениям по возрасту, полу или другим признакам. Также закрепляется запрет на использование ИИ для манипулирования пользователями или навязывания невыгодных условий.
Ужесточается и ответственность за ошибки нейросетей. Если система допустит сбой, например, в медицине или при распознавании лиц, то отвечать будет владелец сервиса, если не сможет доказать, что принял все меры для предотвращения рисков. Ошибки ИИ, включая так называемые «галлюцинации», уже становятся поводом для судебных разбирательств, а в перспективе может появиться обязательное страхование таких систем.
Эксперт также напоминает, как защитить свои права при взаимодействии с ИИ. Во-первых, можно требовать пересмотра решения человеком, а не алгоритмом. Во-вторых, важно регулярно проверять данные в государственных базах, поскольку ошибки в них влияют на решения систем. В-третьих, при прохождении интервью нужно учитывать, что ИИ может анализировать мимику и голос, и пользователь вправе отказаться от такого формата. В-четвертых, в случае подозрительных отказов следует запрашивать письменное обоснование, которое можно использовать для жалоб в надзорные органы.
Ранее HR-эксперт рассказал, заменит ли искусственный интеллект бухгалтеров в ближайшее время. По словам специаоиста, алгоритмы ИИ уже сейчас успешно справляются со сбором первичной документации и простыми операциями.
