Выбрать главу

Эти метаданные - оболочка человеческого опыта - становятся частью петли обратной связи, которая затем активно изменяет реальное поведение. Поскольку прогностические модели опираются на прошлое поведение и решения - не только самого человека, но и других людей с теми же демографическими характеристиками, - люди оказываются запертыми в зеркале своего цифрового отражения, и этот процесс исследователь из Google Вячеслав Полонский называет "алгоритмическим детерминизмом". Алгоритмы правоохранительных органов, такие как PredPol, обозначающие красными рамками конкретные районы, где вероятно совершение преступлений, получают свои прогнозы на основе исторических данных о преступности, а это значит, что они часто направляют полицейских в те же самые бедные районы, которые они патрулировали, руководствуясь только своей интуицией. Разница в том, что теперь эти решения, подкрепленные авторитетом эмпирических данных, вызывают предубеждение подтверждения, чего не скажешь об интуиции. "Каково отношение или менталитет офицеров, которые патрулируют одну из коробок?" - спрашивает Ванг. спрашивает Ванг. "Ожидают ли они, входя в бокс, что наткнутся на совершаемые преступления? Как ожидание найти преступление может повлиять на то, что офицеры обнаружат на самом деле?" Офицеры, которые останавливают подозреваемого в таких местах, часто используют прогнозы программы для подтверждения "обоснованных подозрений". Другими словами, человек является подозреваемым, потому что алгоритм определил этот район как тот, где могут находиться подозреваемые.

Есть и более открытые и преднамеренные случаи, когда предсказание скатывается в модификацию поведения. После скандала с Cambridge Analytica в 2016 году, когда частная компания продала данные пользователей Facebook политическим кампаниям для размещения целевой рекламы, Марк Цукерберг возмущался, настаивая на том, что его компания стала жертвой "злоупотребления доверием", и скрывал тот факт, что платформа сама тайно манипулировала своими пользователями с 2010 года. На промежуточных выборах в том году и на президентских выборах 2012 года Facebook прикреплял стикеры "Я проголосовал" к определенному проценту домашних страниц пользователей в день выборов, а в некоторых случаях - список проголосовавших друзей человека - тактика, которая должна была использовать социальное давление, чтобы подтолкнуть пользователей к голосованию. То, что это считалось "экспериментом" (это утверждение подкреплялось тем фактом, что его результаты были опубликованы в журнале Nature), создавало впечатление, что компания просто делает прогнозы или проверяет гипотезы для какого-то будущего использования, тогда как на самом деле лабораторией были реальные избиратели на настоящих демократических выборах (никто из которых, конечно, не знал, что они участвуют в массовом социальном эксперименте). Когда выяснилось, что эта акция повысила явку избирателей на сотни тысяч человек, компания была удостоена похвалы в журнале The Atlantic за "восхитительную гражданскую добродетель" и способность "повысить демократическое участие строго беспартийным способом".

Критики рассуждают о том, во что может превратиться эта экономика предсказаний в будущем, когда технология станет более мощной, а мы, граждане, станем более привычными к ее вторжениям. Как отмечает Юваль Ной Харари, мы уже доверяем мудрости машин, которые рекомендуют нам книги, рестораны и возможные свидания. Возможно, когда корпорации реализуют свое искреннее стремление знать клиента лучше, чем он сам, мы будем принимать рекомендации о том, за кого выйти замуж, какую карьеру сделать, за кого голосовать. Харари утверждает, что это официально ознаменует конец либерального гуманизма, основанного на предположении, что человек сам знает, что для него лучше, и может принимать рациональные решения о своих интересах. "Дейтализм", который, по его мнению, уже сменяет гуманизм в качестве правящей идеологии, лишает законной силы предположение о том, что индивидуальные чувства, убеждения и верования являются законным источником истины. "Если гуманизм приказывал: "Прислушивайтесь к своим чувствам! ", - пишет он, - "Дейтаизм теперь приказывает: "Слушайте алгоритмы! Они знают, что вы чувствуете". " Для скорости технологической эволюции характерно то, что даже самые алармистские прогнозы актуализируются и в какой-то степени становятся устаревшими почти сразу после того, как их озвучили. Всего через пару лет после того, как Харари сделал это предсказание, Amazon в 2018 году подал патент на "предвосхищающую доставку", предполагая, что со временем сможет предсказывать, что покупатели собираются купить, до того, как они это сделают.

Возможно, к тому времени грань между предсказанием и контролем полностью растворится, и уже невозможно будет определить грань между индивидуальной самостоятельностью и неумолимой логикой потока кликов, а также разницу между желанием и страхом. Исследование, опубликованное в журнале Berkeley Technology Law Review несколько лет назад, показало, что после разоблачений Эдварда Сноудена о правительственной слежке в интернете резко сократилось количество запросов на террористическую терминологию, такую как "Аль-Каида", "Хезболла", "грязная бомба", "химическое оружие" и "джихад". Это, конечно, не было вызвано снижением интереса к терроризму. Скорее, люди сами сдерживали себя в поиске, осознав, что их поисковые запросы регистрируются. Чуть больше года спустя количество поисковых запросов по этим словам все еще снижалось, несмотря на то что было очень мало свидетельств того, что люди подвергались преследованиям или наказаниям за свои интернет-поиски. Другими словами, люди действовали не из страха: они просто впитали логику государства наблюдения в свое поведение, так что это стало выглядеть как выбор. Именно такие случаи заставляют вспомнить замечание Вебера о протестантской тревоге. Дело не только в том, что прогнозы способны формировать поведение. Настоящая сила проистекает из невозможности расшифровать, что именно знают о вас власть имущие и какое поведение отслеживается и прогнозируется. Те, кто не может понять, представляют ли они опасность, будут делать все возможное, чтобы доказать свою невиновность, в некоторых случаях выходя за рамки разумного или требуемого. Остается неясным, понимают ли создатели этих технологий подобную динамику или просто повторяют исторический шаблон с бездумностью самих алгоритмов. Остается надеяться, что именно мрачная ирония, а не полная историческая амнезия, вдохновила руководителей Microsoft назвать свое первое программное обеспечение для GPS-навигации Predestination.

-

Последний год обучения в библейской школе я провел в интеллектуальной шахматной игре против кальвинистского Бога, выискивая его слабые места и пытаясь найти выход из тотализирующей логики доктрины. Я знал, что невозможно доказать, что Бог не существует, но все же был убежден, что могу разоблачить несправедливость божественного замысла. Я начал исследовать эти аргументы с помощью формальной экзегезы, которую мои профессора с почти садистским удовольствием дискредитировали. Мои работы возвращались испещренными красными чернилами, а маргиналии становились все более оборонительными и пронзительными. Бог суверенен, - написал один профессор заглавными буквами. Ему не нужно объяснять себя. Если бы я имел дело с традиционными структурами власти, с которыми сталкиваются в колледже, - капитализмом, патриархатом, - я был бы вооружен дубинкой теории и уверенностью в том, что понимание функций власти позволяет бороться с ней. Но номиналистического Бога нельзя победить с помощью рациональных аргументов, так же как нельзя победить сверхразумный алгоритм в игре Го. Ничего не оставалось делать, как покориться и сдаться.