Во время президентских выборов 2016 года Facebook был основным каналом распространения дезинформации, особенно для пользователей, придерживающихся правых взглядов. Сторонники Трампа часто заходили на сайты, распространяющие дезинформацию, из Facebook. При этом трафик из социальных сетей в традиционные СМИ был меньше. Хуже того, недавние исследования показали, что люди склонны верить сообщениям с дезинформацией, потому что они плохо помнят, где видели ту или иную новость. Это может быть особенно важно, поскольку пользователи часто получают недостоверную, а иногда и откровенно ложную информацию от своих друзей-единомышленников и знакомых. Они также вряд ли могут столкнуться с инакомыслием в этой среде, напоминающей эхо-камеру.
Эхо-камеры могут быть неизбежным побочным продуктом социальных медиа. Но уже более десяти лет известно, что они усугубляются алгоритмами платформ. Эли Паризер, интернет-активист и исполнительный директор MoveOn.org, в 2010 году в своем выступлении на TED сообщил, что хотя он следит за многими либеральными и консервативными новостными сайтами, через некоторое время он заметил, что все больше и больше попадает на либеральные сайты, потому что алгоритм заметил, что вероятность того, что он кликнет на них, немного выше. Он ввел термин "пузырь фильтров", чтобы описать, как фильтры алгоритмов создают искусственное пространство, в котором люди слышат только те голоса, которые уже совпадают с их политическими взглядами.
Пузыри фильтров имеют пагубные последствия. Алгоритм Facebook с большей вероятностью покажет правый контент пользователям, придерживающимся правой идеологии, и наоборот - левым. Исследователи зафиксировали, что возникающие "пузыри фильтров" усугубляют распространение дезинформации в социальных сетях, поскольку люди находятся под влиянием новостей, которые они видят. Эффект "пузыря фильтров" выходит за рамки социальных сетей. Недавнее исследование, побудившее некоторых постоянных пользователей Fox News смотреть CNN, показало, что воздействие контента CNN оказало сдерживающее влияние на их убеждения и политические взгляды по целому ряду вопросов. Основная причина такого эффекта, по-видимому, заключается в том, что Fox News подавал одни факты в искаженном виде, а другие скрывал, подталкивая пользователей к более правому направлению. Появляется все больше доказательств того, что в социальных сетях этот эффект еще сильнее.
Несмотря на слушания и реакцию СМИ на роль Facebook в выборах 2016 года, к 2020 году мало что изменилось. На платформе множилась дезинформация, часть которой распространялась президентом Дональдом Трампом, который часто утверждал, что бюллетени, отправленные по почте, были поддельными и что иммигранты-неграждане голосовали массово. Он неоднократно использовал социальные сети, чтобы призвать остановить подсчет голосов.
В преддверии выборов Facebook также был вовлечен в споры из-за подделанного видео со спикером Палаты представителей Нэнси Пелоси, которое создавало впечатление, что она пьяна или больна, невнятно говорит и вообще выглядит нездоровой. Фальшивое видео продвигали союзники Трампа, включая Руди Джулиани, и хэштег #DrunkNancy стал трендом. Вскоре видео стало вирусным и собрало более двух миллионов просмотров. Безумные теории заговора, такие как те, что исходили от QAnon, также непрерывно циркулировали в пузырях фильтров платформы. Документы, предоставленные Конгрессу США и Комиссии по ценным бумагам и биржам бывшим сотрудником Facebook Фрэнсисом Хаугеном, показывают, что руководители Facebook часто были в курсе этих событий.
В то время как на Facebook оказывалось все большее давление, вице-президент компании по глобальным вопросам и коммуникациям, бывший заместитель премьер-министра Великобритании Ник Клегг, выступил в защиту политики компании, заявив, что платформу социальных сетей следует рассматривать как теннисный корт: "Наша работа заключается в том, чтобы убедиться, что корт готов - поверхность ровная, линии нарисованы, сетка на правильной высоте. Но мы не берем в руки ракетку и не начинаем играть. Как игроки будут вести игру, зависит от них, а не от нас".
На следующей неделе после выборов Facebook ввел чрезвычайную меру, изменив свои алгоритмы, чтобы остановить распространение правых теорий заговора, утверждающих, что на самом деле выборы выиграл Трамп, но они были украдены из-за незаконного голосования и нарушений в урнах. Однако к концу декабря алгоритм Facebook вернулся к своему обычному виду, и "теннисный корт" был открыт для реванша фиаско 2016 года.
Несколько экстремистских правых групп, а также Дональд Трамп продолжали распространять ложь, и теперь мы знаем, что восстание 6 января 2021 года было частично организовано с помощью Facebook и других социальных сетей. Например, члены ультраправой группы ополченцев "Хранители присяги" использовали Facebook для обсуждения того, как и где они встретятся, а несколько других экстремистских групп 6 января обменивались сообщениями в прямом эфире на этой платформе. Один из лидеров "Хранителей клятвы" Томас Колдуэлл, как утверждается, размещал информацию о том, как он вошел в Капитолий, и получал через платформу информацию о том, как ориентироваться в здании, а также подстрекал к насилию в отношении законодателей и полиции.
Дезинформация и язык вражды не ограничиваются Facebook. Примерно в 2016 году YouTube стал одной из самых мощных площадок для вербовки ультраправых. В 2019 году Калеб Кейн, двадцатишестилетний выпускник колледжа, снял видео на YouTube, объяснив, как он был радикализирован на этой платформе. По его словам, "я упал в кроличью нору альт-правых". Кейн объяснил, как он "все глубже и глубже погружался в это", просматривая все более радикальный контент, рекомендованный алгоритмами YouTube.
Журналист Роберт Эванс изучил, как десятки обычных людей по всей стране были завербованы этими группами, и пришел к выводу, что сами группы чаще всего упоминали YouTube на своем сайте: "15 из 75 фашистских активистов, которых мы изучили, приписывали видеоролики с YouTube своей вербовке". ("Red-pilling" означает жаргон, который использовали эти группы, со ссылкой на фильм "Матрица": принятие истин, пропагандируемых этими ультраправыми группами, было эквивалентно принятию красной таблетки в фильме).
Выбор алгоритмов YouTube и намерение увеличить время просмотра на платформе сыграли решающую роль в достижении этих результатов. Чтобы увеличить время просмотра, в 2012 году компания изменила свой алгоритм, придав больший вес времени, которое пользователи тратят на просмотр, а не просто кликают на контент. Этот алгоритмический твик начал благоприятствовать видео, которые люди стали смотреть, включая некоторые из самых зажигательных экстремистских материалов, на которые подсел Кейн.
В 2015 году YouTube привлек исследовательскую группу из подразделения ИИ своей материнской компании, Google Brain, для улучшения алгоритма платформы. Новые алгоритмы привели к тому, что у пользователей появилось больше возможностей для радикализации, и, конечно, они стали проводить больше времени на платформе. Один из исследователей Google Brain, Минмин Чен, похвастался на конференции по ИИ, что новый алгоритм успешно изменяет поведение пользователей: "Мы действительно можем направлять пользователей в другое состояние, а не рекомендовать знакомый контент". Это было идеальным решением для экстремистских групп, пытающихся радикализировать людей. Это означает, что пользователям, просматривающим видео о событиях 11 сентября, будет быстро рекомендован контент о заговоре 11 сентября. Поскольку около 70 процентов всех видео, просматриваемых на платформе, поступают по рекомендациям алгоритмов, это означает, что у пользователей есть много возможностей для дезинформации и манипуляций, чтобы затянуть их в кроличью нору.
Твиттер не стал исключением. Будучи любимым средством коммуникации бывшего президента Трампа, он стал важным инструментом общения между правыми (и отдельно среди левых). Антимусульманские твиты Трампа получили широкое распространение и впоследствии вызвали не только увеличение числа антимусульманских и ксенофобских сообщений на платформе, но и реальных преступлений на почве ненависти к мусульманам, особенно в тех штатах, где у президента было больше последователей.
Некоторые из худших формулировок и последовательные высказывания ненависти распространялись на других платформах, таких как 4chan, 8chan и Reddit, включая его различные под-реддиты, такие как The_Donald (где зарождаются и распространяются теории заговора и дезинформация, связанные с Дональдом Трампом), Physical_Removal (выступающий за уничтожение либералов) и несколько других с явно расистскими названиями, которые мы предпочитаем здесь не печатать. В 2015 году Southern Poverty Law Center назвал Reddit платформой, на которой размещается "самый жестокий расистский" контент в интернете.
Было ли неизбежным, что социальные сети стали такой выгребной ямой? Или же некоторые решения, принятые ведущими технологическими компаниями, привели нас к такому плачевному состоянию? Истина гораздо ближе к последнему, и, по сути, она также отвечает на вопрос: "Почему ИИ стал настолько популярным, даже если он не увеличивает производительность и не превосходит человека?