Можно ли управлять искусственным интеллектом?

Доктор Роман Ямпольский (Roman Yampolskiy), эксперт по безопасности искусственного интеллекта, предупреждает о беспрецедентных рисках, связанных с искусственным интеллектом, в своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (“AI: Unexplainable, Unpredictable, Uncontrollable”). В ходе обширного обзора Ямпольский обнаруживает отсутствие доказательств того, что ИИ можно безопасно контролировать, указывая на потенциальную возможность ИИ вызывать экзистенциальные катастрофы.

Он утверждает, что присущая системам искусственного интеллекта непредсказуемость и повышенная автономность создают серьезные проблемы для обеспечения их безопасности и соответствия человеческим ценностям. В книге подчеркивается острая необходимость расширения исследований и разработок в области мер безопасности ИИ для смягчения этих рисков, пропагандируя сбалансированный подход, отдающий приоритет человеческому контролю и пониманию.

Согласно обширному обзору, в настоящее время нет доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ можно контролировать, его не следует разрабатывать, предупреждает исследователь.

Несмотря на признание того, что проблема управления ИИ может быть одной из наиболее важных проблем, стоящих перед человечеством, она остается плохо понятой, плохо определенной и плохо исследованной, объясняет доктор Роман Ямпольский.

В своей будущей книге эксперт по безопасности ИИ Ямпольский рассматривает способы, с помощью которых ИИ может кардинально изменить общество, не всегда в нашу пользу.

Он объясняет: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе. Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может быть процветание или вымирание, и судьба Вселенной висит на волоске».

Неуправляемый сверхинтеллект

Доктор Ямпольский провел обширный обзор научной литературы по ИИ и заявил, что не нашел доказательств того, что ИИ можно безопасно контролировать – и даже если будет какой-то частичный контроль, его будет недостаточно.

Он объясняет: «Почему так много исследователей полагают, что проблема управления ИИ разрешима? Насколько нам известно, этому нет доказательств. Прежде чем приступить к созданию управляемого ИИ, важно показать, что проблема разрешима. Это, в сочетании со статистикой, которая показывает, что развитие сверхинтеллекта ИИ является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ».

Он утверждает, что наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предположил, что передовые интеллектуальные системы никогда не смогут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должна быть минимизация такого риска при максимизации потенциальной выгоды.

Каковы препятствия?

ИИ (и сверхинтеллект) отличаются от других программ своей способностью изучать новое поведение, корректировать свою работу и действовать полуавтономно в новых ситуациях.

Одна из проблем, связанных с обеспечением безопасности ИИ, заключается в том, что возможные решения и неудачи сверхразумного существа по мере того, как оно становится более способным, бесконечны, поэтому существует бесконечное количество проблем безопасности. Просто спрогнозировать проблемы невозможно и устранить их с помощью обновлений безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить то, что он решил, и/или мы не можем понять данное объяснение, поскольку люди недостаточно умны, чтобы понять реализованные концепции. Если мы не понимаем решений ИИ и у нас есть только «черный ящик», мы не сможем понять проблему и снизить вероятность будущих аварий.

Например, системам искусственного интеллекта уже поручено принимать решения в таких сферах, как здравоохранение, инвестирование, трудоустройство, банковское дело и безопасность, и это лишь некоторые из них. Такие системы должны быть способны объяснить, как они пришли к своим решениям, в частности, чтобы продемонстрировать, что они свободны от предвзятости.

Ямпольский объясняет: «Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начнет ли он давать неверные или манипулятивные ответы».

Контролируя неконтролируемое

По мере увеличения возможностей ИИ его автономность также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а увеличение автономности является синонимом снижения безопасности.

Например, чтобы сверхинтеллект избежал получения неточных знаний и устранить любую предвзятость своих программистов, он мог бы игнорировать все такие знания и заново открыть/доказать все с нуля, но это также устранило бы любую прочеловеческую предвзятость.

«Человечество стоит перед выбором: станем ли мы подобны младенцам, о которых заботятся, но не контролируют, или мы отказываемся от полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что можно найти точку равновесия, в которой мы пожертвуем некоторыми возможностями в обмен на некоторый контроль за счет предоставления системе определенной степени автономии.

Согласование человеческих ценностей

Одним из предложений по контролю является создание машины, которая бы точно следовала человеческим приказам, но Ямпольский указывает на возможность противоречивых приказов, неправильного толкования или злонамеренного использования.

Если бы ИИ действовал скорее как советник, он мог бы обойти проблемы с неправильной интерпретацией прямых приказов и возможностью злонамеренных приказов, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои собственные высшие ценности.

«Большинство исследователей безопасности ИИ ищут способ привести будущий сверхинтеллект в соответствие с ценностями человечества. ИИ, ориентированный на ценности, будет предвзятым по определению, предвзятость в пользу человека, хорошая или плохая, по-прежнему остается предвзятостью. Парадокс ИИ, ориентированного на ценности, заключается в том, что человек, явно приказывающий системе ИИ что-то сделать, может получить «нет», в то время как система пытается сделать то, что на самом деле хочет человек. Человечество либо защищают, либо уважают, но не то и другое», — объясняет он.

Минимизация риска

По его словам, чтобы свести к минимуму риск ИИ, он должен быть модифицируемым с возможностью «отменить», ограниченным, прозрачным и простым для понимания на человеческом языке.

Он предлагает разделить весь ИИ на контролируемый и неконтролируемый, ничего не следует снимать с повестки дня и ограничивать моратории и даже рассматривать возможность частичного запрета на определенные типы технологий ИИ.

Вместо того, чтобы разочаровываться, автор книги заключает: «Скорее, это повод для большего числа людей копать глубже и увеличивать усилия и финансирование исследований в области безопасности ИИ. Возможно, мы никогда не добьемся 100% безопасного ИИ, но мы можем сделать ИИ более безопасным пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом».

Авторы другого исследования утверждают, что искусственный интеллект предсказывает успех антидепрессанта сертралина уже через неделю.