Компании – разработчики технологий не требуют от пользователей становиться тонкокожими дергаными параноиками или жить в отрыве от реальности; такие хрупкие снежинки лишь часть быстрого решения абсолютно математической головоломки, сформулированной весьма открыто: как выдать вовне наибольший объем трафика, чтобы завладеть наибольшим объемом времени и внимания пользователей?
Если пользователи рассматривают соцсети не как нечто, не имеющее веса, а как источник своей профессиональной ценности, тогда соцсети ничего этого не стоят, и мусорный постинг там встречается намного реже, как в случае с LinkedIn. Отсутствие веса легко и забавно, но некоторое количество весомости не помешает для того, чтобы отыскать в природе пользователей хоть что-то светлое.
Завершая картину взаимодействия двух полубогов, стоит отметить, что ориентированная на невесомость бизнес-модель социальных сетей – лишь один пример тенденции, при которой компании используют мощные компьютеры для управления процессами обмена, в которых они отделяют риск от выгоды. В качестве еще одного примера: владельцы грязных ценных бумаг, обеспеченных пулом ипотек, которые привели к Великому экономическому спаду, не хотели знать, что именно они продавали, точно так же как компания Google не хотела знать, что ее страница поиска сообщала о том, кто победил в результате голосования избирателей на президентских выборах 2016 года. (Основными новостями через некоторое время после выборов были фальшивые сообщения о том, что Трамп получил больше голосов, чем Хилари Клинтон.) Знать – это принимать на себя обязательства, в то время как не знать – это держать казино, где рискуют все остальные.
Требование от искусственного интеллекта чинить самого себя абсурдно
Что, если новый полубог не одолеет старого? Возможно, компаниям – владельцам соцсетей стоит пересмотреть способ получения прибыли. Может быть, что-то близкое к этому – лишь попытка поддерживать на плаву алгоритмы, которые всегда будут пытаться рухнуть под напором финансовых поощрений.
Внесу ясность: я не думаю, что этические фильтры сработают, учитывая современный уровень научного понимания. Подобные решения будут лишь обходить, и они погрязнут в еще большем количестве манипуляций, коррупции и абсурда. Если способ защитить людей от искусственного интеллекта сам больше похож на искусственный интеллект, как в случае предполагаемых алгоритмов с этикой, с тем же успехом можно сказать, что сделано ничего не будет, поскольку сама идея несет в себе абсурд. Это фантазия о фантазии.
На сегодняшний день не существует научного описания идеи в мозге. Возможно, оно еще появится, но сейчас у нас его нет; так что нет возможности даже сформулировать, как примерно будет выглядеть встраивание этики в алгоритм. Все, что сейчас могут алгоритмы, – это суммировать, чем занимаются люди по данным нашего впечатляющего режима глобальной слежки через интернет. И мы превращаем многих из этих обычных людей в уродов.
Но, ради продолжения спора, предположим, что попытки компаний – разработчиков технологий противодействовать мусорному постингу с помощью так называемого искусственного интеллекта будут иметь впечатляющий успех. Предположим, алгоритмы фильтрации мусорных постов настолько безупречны, что им начнут доверять все без исключения. Но даже тогда лежащие в их основе экономические выгоды останутся неизменными.
Вероятен вариант, что появится другой оптимальный способ поставлять трафик невротикам, но в общем и целом результат будет похожим.
В качестве примера нового источника невротизации рассмотрим, как американские спецслужбы обвинили российские спецслужбы во вмешательстве в президентские выборы. Метод заключался не только в отправке мусорных постов, но и в использовании в качестве «оружия» WikiLeaks, чтобы выборочно распределить информацию, которая навредила только одному кандидату.
Предположим, что компании – разработчики технологий будут применять этические фильтры для блокировки опасных выборочных утечек информации. Следующим шагом может стать неосознанное создание паранойи в отношении кого-то или чего-то с целью заполучить внимание.
Если компании применят фильтры для предотвращения такого, всегда объявится новый метод. Какой степени контроля над нашим обществом мы хотим потребовать от алгоритмов? Где он закончится? Вспомните о том, что задолго до того, как мы стали умолять компании сделать хоть что-нибудь с мусорным постингом, мы требовали от них предпринять хоть что-нибудь против фальшивых новостей, а также риторики, провоцирующей ненависть, и организованного притеснения. Компании начали блокировать определенных пользователей, но стало ли общество в результате сдержаннее?