Искусственный интеллект все больше меняет жизнь людей. Поговорим об опасности запретов, налагаемых ИИ.
Последнюю неделю российский сектор Интернета сотрясает невиданный доселе шквал эмоций. В дополнение к неурядицам, связанным с блокировкой Telegram, произошло неожиданное введение нового алгоритма поиска Яндекса, затронувшее тысячи сайтов Рунета.
Работа нового алгоритма заключается в искусственном понижении в выдаче позиций сайтов, размещающих на своих страницах определенного рода рекламу. По мнению большинства вэбмастеров, отраженному в блоге самого Яндекса, наложенные санкции связаны с весьма эффективным рекламным блоком текстовых ссылок основного конкурента – поисковой системы Google.
Сотрудники Яндекса категорично отрицают избирательность алгоритма в отношении Гугла и ссылаются на особые умения искусственного интеллекта определять, полезна ли размещенная на сайте реклама, либо она вводит пользователей в заблуждение.
Подобный подход кажется странным, поскольку как раз ограничивает доступ пользователей к информации на сайтах. Ведь пользователь на сайт приходит за информацией, а не для просмотра рекламы. Но оставим эти разборки специалистам.
Проблема заключается в размерах полномочий, передаваемых человечеством искусственному интеллекту. Многие авторитеты, к примеру Илон Маск и недавно ушедший Стивен Хокинг, давно предупреждают об опасности бесконтрольного применения искусственного интеллекта для регулирования жизни людей.
Приведенный выше пример демонстрирует, как искусственный интеллект уже сегодня определяет, что полезно для пользователя Интернета, а что нет. И самостоятельно налагает на сайты санкции, лишая заработка множество людей.
Умен ли искусственный интеллект
Безусловно, уже современные модели ИИ обладают значительно большими возможностями, чем обыкновенные люди. Это и необъятная память, и скорость обработки информации, и умение обобщать сведения, полученные из различных источников.
Однако пока говорить об уме искусственного интеллекта рановато. К примеру, обучение ИИ Яндекса, как и в большинстве других случаев, проводится с помощью нанятых неквалифицированных сотрудников, которые просматривают тысячи сайтов и делают отметки по определенным критериям.
Такой подход вполне оправдан: вырабатывается общая оценка средних пользователей по принципу «нравится-не нравится». И уже обученный этим критериям искусственный интеллект в дальнейшем начинает понимать, что нравится среднему пользователю.
Это очень хорошо работает, когда нужно отобрать информацию по очень простым запросам. Но, к примеру, понравится ли среднему пользователю сложная научная статья или обзор, написанный специалистом для специалистов?
Грубо говоря, искусственному разуму еще очень далеко до качественной оценки информации. И количественный подход легко может приводить к ошибкам. Передача полномочий определять, насколько полезно для человека то, или другое, опасна. Тем более опасна передача прав на ограничение деятельности человека.
Легко представить ситуацию, когда ИИ, подключенный к камерам видеонаблюдения, введет запрет на управление автомобилем всем лысоватым блондинам 30-35 лет, потому что они чаше других совершают нарушения ПДД.
Опасность власти искусственного разума описана в сотнях фантастических книг и фильмов. Дело не в том, что он не любит людей или хочет им зла. Дело в том, что ИИ понимает пользу по-своему. И это может стать началом конца человечества.