Выбрать главу

 

ВИНИТЬ ЛЮДЕЙ

Мы достигли поворотного момента в истории, когда основные исторические процессы отчасти обусловлены решениями нечеловеческого интеллекта. Именно это делает ошибочность компьютерной сети столь опасной. Компьютерные ошибки становятся потенциально катастрофическими только тогда, когда компьютеры превращаются в исторических агентов. Мы уже приводили этот аргумент в главе 6, когда кратко рассмотрели роль Facebook в разжигании кампании по этнической чистке против рохинджа. Однако, как уже отмечалось, многие люди - в том числе некоторые руководители и инженеры Facebook, YouTube и других технологических гигантов - возражают против этого аргумента. Поскольку он является одним из центральных пунктов всей книги, лучше углубиться в этот вопрос и более тщательно изучить возражения против него.

Люди, управляющие Facebook, YouTube, TikTok и другими платформами, постоянно пытаются оправдать себя, перекладывая вину со своих алгоритмов на "человеческую природу". Они утверждают, что именно человеческая природа порождает всю ненависть и ложь на платформах. Затем технологические гиганты заявляют, что из-за своей приверженности ценностям свободы слова они не решаются подвергать цензуре выражение подлинных человеческих эмоций. Например, в 2019 году генеральный директор YouTube Сьюзан Войцицки объяснила: "Мы думаем так: "Нарушает ли этот контент одну из наших политик? Нарушает ли он что-то в плане ненависти, преследования?". Если да, то мы удаляем этот контент. Мы продолжаем ужесточать и ужесточать политику. Мы также получаем критику, чтобы быть понятными, [по поводу] того, где вы проводите границы свободы слова и, если вы проводите их слишком жестко, вы удаляете голоса общества, которые должны быть услышаны? Мы пытаемся найти баланс, чтобы дать возможность высказаться широкому кругу людей, но при этом убедиться, что эти голоса играют по правилам, которые являются здоровыми для общества".

В октябре 2021 года представитель Facebook также заявил: "Как и любая платформа, мы постоянно принимаем сложные решения между свободой слова и вредными высказываниями, безопасностью и другими вопросами.... Но проведение этих общественных границ всегда лучше оставить избранным лидерам". Таким образом, технологические гиганты постоянно переводят дискуссию на свою предполагаемую роль модераторов контента, произведенного людьми, и игнорируют активную роль, которую играют их алгоритмы в культивировании одних человеческих эмоций и подавлении других. Неужели они действительно слепы к этому?

Конечно, нет. Еще в 2016 году внутренний отчет Facebook обнаружил, что "64 % всех вступлений в экстремистские группы происходят благодаря нашим рекомендательным инструментам.... Наши рекомендательные системы порождают проблему". Секретный внутренний меморандум Facebook от августа 2019 года, утечка которого произошла благодаря разоблачителю Фрэнсису Хаугену, гласил: "У нас есть доказательства из различных источников, что язык ненависти, политическая речь, вызывающая разногласия, и дезинформация на Facebook и [его] семействе приложений влияют на общества по всему миру. У нас также есть убедительные доказательства того, что такие основные механики нашего продукта, как вирусность, рекомендации и оптимизация для вовлечения, являются значительной частью того, почему эти виды высказываний процветают на платформе".

В другом документе, просочившемся в сеть в декабре 2019 года, отмечалось: "В отличие от общения с близкими друзьями и семьей, вирусность - это нечто новое, что мы внедрили во многие экосистемы... и она возникает потому, что мы намеренно поощряем ее по причинам бизнеса". В документе отмечалось, что "ранжирование контента на более важные темы, такие как здоровье или политика, на основе вовлеченности приводит к порочным стимулам и проблемам с честностью". И, пожалуй, самое ужасное: "В наших системах ранжирования есть отдельные прогнозы не только того, что вас заинтересует, но и того, что, по нашему мнению, вы можете передать, чтобы это заинтересовало других". К сожалению, исследования показали, что возмущение и дезинформация с большей вероятностью станут вирусными". В этом документе, ставшем достоянием гласности, содержится одна важная рекомендация: поскольку Facebook не может удалить все вредное с платформы, которой пользуются миллионы людей, он должен, по крайней мере, "прекратить увеличивать вредный контент, давая ему неестественное распространение".