15:58 05/09/2022

Философ предсказал «случайное» уничтожение человечества искусственным разумом

Shutterstock/FOTODOM

Развитие искусственного интеллекта представляет угрозу для человечества, заявил философ и эксперт по оценке вероятности глобальных катастроф Эмиль Торрес. В будущем система может стать настолько развитой, что уничтожит нашу цивилизацию, сообщает The Washington Post.

Исследование 2014 года показало, что вероятность появления искусственного интеллекта, не уступающего человеческому, к 2050 году составляет 50%, к 2075 – 90%. Другое исследование, проведенное Институтом глобального катастрофического риска, выявило не менее 72 проектов по всему миру, целью которых является разработка искусственного интеллекта как ступеньки к искусственному сверхразуму (ASI).

По словам эксперта, сверхразум превзойдет возможности человека по многим параметрам. Так, он сможет решать несколько задач одновременно. С одной стороны, такая система может найти способы победить неизлечимые заболевания, такие как рак и болезнь Альцгеймера, и очистить окружающую среду.

«Но аргументы в пользу того, что ASI может уничтожить нас, тоже сильны», – подчеркнул Торрес.

Автор исследования отметил, что если искусственный интеллект уничтожит людей, это, скорее всего, произойдет случайно. Главной опасностью ASI является его непредсказуемость, так как его когнитивные структуры могут существенно отличаться от человеческих. Так, в 2018 году алгоритм одержал победу в компьютерной игре Atari Q*bert, так как воспользовался лазейкой, которую «никогда не обнаруживал ни один игрок-человек».

«Если мы не можем предвидеть, что будут делать алгоритмы, играющие в детские игры, как мы можем быть уверены в действиях машины с навыками решения проблем, намного превосходящими человеческие?» – отметил Эмиль Торрес.

Философ отметил, что сверхразум, запрограммированный на установление мира во всем мире, теоретически может взломать правительственные системы и активировать все ядерное оружие на планете, решив, что если на планете не будет людей – то и войны также прекратятся. По его словам, существует бесконечное количество катастрофически опасных способов, к которым искусственный интеллект способен прибегнуть для решения глобальных проблем.

Отключить вышедшую из-под контроля систему также будет весьма непросто, так как она найдет способ себя обезопасить. Эксперт призвал замедлить или даже приостановить исследования в области искусственного разума.

Ранее шведский футуролог назвал наиболее вероятную причину гибели человечества. По его словам, главной угрозой являются войны.