Искусственный интеллект выполняет все больше функций и играет все более значимую роль в жизни современного человека. Бытует мнение, что машины, достигнув достаточно высокой ступени развития, могут стать опасными для людей.
Ученые из Университета Массачусетса в Амхерсте (США) нашли способ избежать возможного апокалипсиса. Они создали платформу для алгоритмов, которые не допускают потенциально вредоносных действий «умных» роботов, сообщает Science.
Алгоритмы получили название «селдоновских» – в честь персонажа Айзека Азимова. Они не обучают искусственный интеллект морально-этическим нормам, но определяют, какое поведение является недопустимым, и блокируют его.
Так, автоматическая система регулирует работу инсулиновой помпы при сахарном диабете. Нежелательными для нее являются манипуляции, которые приводят к резкому падению инсулина в крови. Их можно определить и заранее исключить из схемы действий.
«Даже с нашими алгоритмами, сделанными из простых компонентов, мы получили впечатляющие результаты. Мы надеемся, что исследователи машинного обучения продолжат разрабатывать новые и более сложные алгоритмы с использованием нашей платформы», – подчеркнули авторы исследования.
Ранее ученые создали программу, определяющую срок уничтожения человечества вампирами. В большинстве возможных сценариев люди терпели сокрушительное поражение в битве с нечистью.
Читайте также:
Подробнее в сюжете: Роботы