Как и в случае с предыдущими вредоносными попытками, такими как русские тролли или Stop the Steal, трудно оценить, насколько эффективной была эта тактика в убеждении людей избегать вакцины. Но в целом эффект был очевиден. Люди, заходящие на платформы Facebook, покидали их, полагая, по крайней мере, что вакцина вызывает больше споров, чем на самом деле.
Расследование движения не выявило никаких признаков неаутентичного поведения или запрещенных тактик. Это означало, что снова настало время для работы в информационном коридоре. Команда, созданная для борьбы с "Dedicated Vaccine Discouragement Entities", поставила перед собой цель ограничить антивакцинальную активность верхних 0,001 % пользователей - группы, которая, как оказалось, оказывает значительное влияние на общий дискурс.
К началу мая 2021 года, когда приближалось время запуска эксперимента Querdenken, который продлится несколько месяцев, ситуация с дезинформацией COVID стала настолько серьезной, что компания вынуждена была прибегнуть к своим мерам Break the Glass. Еще полгода назад Facebook надеялась, что ей вообще не придется использовать эти меры в США. Теперь же она прибегает к ним уже в третий раз за полгода.
В отличие от предыдущих столкновений, в этом раунде Facebook не мог свалить вину на Трампа. С осени 2016 года компания небезосновательно указывала на неуравновешенного президента как на провоцирующий фактор фейковых новостей, расовой розни и делегитимации выборов. Возможно, он развязал новую ярость в американской политике, но теперь он ушел с поста и с платформы. У этого движения были свои инициаторы.
Кризисное состояние становилось нормой для Facebook, и подход команды Integrity к своей работе начал отражать это. Facebook начал работать над созданием "выключателя" для каждой из своих рекомендательных систем. Руководители команды Integrity начали отстаивать стратегию "Всегда включенной итерации продукта", в рамках которой каждая новая попытка сдержать нарастающий кризис должна была быть включена в планы компании на случай следующей катастрофы.
"Ура вещам, инкубируемым на Covid и становящимся частью нашей общей защиты", - написал один из руководителей группы, придав позитивный настрой ожиданиям в условиях все более нестабильного мира.
Даже когда Facebook готовился к тому, что кризисы, вызванные вирусами, станут обыденностью, руководство компании все более спокойно снимало ответственность за их возникновение со своих продуктов. К весне 2021 года не только Боз утверждал, что 6 января - это чья-то проблема. Сэндберг предположила, что 6 января было "в значительной степени организовано на платформах, которые не обладают нашими возможностями по пресечению ненависти". Цукерберг сказал Конгрессу, что им не нужно перекладывать вину на Трампа и самих участников беспорядков. "Страна сейчас глубоко расколота, и это не то, что могут исправить одни только технологии", - сказал он.
В некоторых случаях компания публично ссылалась на результаты исследований, которые, как предупреждали ее собственные сотрудники, были неприемлемыми. В обзоре внутренних и внешних исследований, проведенном в июне 2020 года, предупреждалось, что компании следует избегать утверждений о том, что более высокие показатели поляризации среди пожилых людей - демографической группы, которая меньше всего пользуется социальными сетями, - являются доказательством того, что Facebook не вызывает поляризацию.
Хотя этот аргумент был благоприятен для Facebook, пишут исследователи, Ник Клегг должен избегать его цитирования в предстоящей статье, поскольку "внутренние исследования указывают на противоположный вывод". Оказалось, что Facebook подавал ложную информацию пожилым людям с такой скоростью, что они потребляли ее гораздо больше, несмотря на то что проводили на платформе меньше времени. Исследователи пишут, что "более сильный рост поляризации среди пожилых пользователей может быть частично обусловлен использованием Facebook", а не оправдывает Facebook.
Все, чего хотели исследователи, - это чтобы руководители не повторяли утверждения, которые, как известно, Facebook считает ошибочными, но они не получили желаемого. Компания утверждает, что аргументы так и не дошли до Клегга. Когда он опубликовал 31 марта 2021 года на Medium эссе под названием "Вы и алгоритм: It Takes Two to Tango", он привел это внутренне опровергнутое утверждение в числе "достоверных последних исследований", опровергающих, что "нами просто манипулировали машины все это время". (Позднее компания заявила, что правильным выводом из эссе Клегга о поляризации является то, что "исследования на эту тему неоднозначны").