Выбрать главу

Это был тот же самый импульс, который заставил его не назначать встречи с некоторыми из своих старых коллег из команды "Защита и забота". "Думаю, я не хотел ничего знать", - сказал он.

Бежар был дома, когда наконец поднял старую систему своей команды. Тщательно выверенные подсказки, которые он и его коллеги составили - просили пользователей поделиться своими проблемами, понять правила Facebook и конструктивно урегулировать разногласия, - исчезли. Вместо этого Facebook теперь требовал, чтобы люди заявляли о конкретном нарушении правил платформы, проходя через целую цепь всплывающих окон. Пользователи, решившиеся пройти этот путь, попадали на последний экран, где им требовалось подтвердить свое желание отправить сообщение на . Если они просто нажимали кнопку "готово", которая по умолчанию отображалась ярко-синим цветом, система архивировала их жалобу, не отправляя ее на рассмотрение модератору.

Бежар не знал, что за шесть месяцев до этого команда переработала систему отчетов Facebook с конкретной целью сократить количество завершенных пользовательских отчетов, чтобы Facebook не пришлось с ними возиться, высвободив ресурсы, которые в противном случае можно было бы направить на обучение системы модерации контента, управляемой искусственным интеллектом. В служебной записке, посвященной усилиям по сдерживанию расходов на модерацию разжигания ненависти, один из руководителей признал, что Facebook, возможно, перестаралась в своих усилиях по пресечению потока пользовательских сообщений: "Возможно, мы завели иглу слишком далеко", - написал он, предположив, что, возможно, компания не хочет подавлять их так тщательно.

Позже компания заявила, что пыталась улучшить качество отчетов, а не подавить их. Но Бежару не нужно было видеть эту записку, чтобы распознать недобросовестность. Достаточно было увидеть веселую синюю кнопку. Он положил телефон, ошеломленный. Facebook должен был работать не так. Как может платформа заботиться о своих пользователях, если ей недостаточно внимания, чтобы прислушаться к тому, что их расстраивает?

В этом было высокомерие, предположение, что алгоритмам Facebook даже не нужно слышать о том, что испытывают пользователи, чтобы понять, чего они хотят. И даже если обычные пользователи не могли видеть это так, как Бежар, в конце концов они получили бы сообщение. Такие люди, как его дочь и ее друзья, несколько раз сообщали об ужасных вещах, прежде чем поняли, что Facebook это не интересует. Тогда они перестанут.

Когда Бежар в очередной раз вошел в кампус Facebook, его по-прежнему окружали умные, искренние люди. Он не мог представить, что кто-то из них решил переделать функции отчетности Facebook с целью обмануть пользователей и заставить их выбросить свои жалобы в мусорную корзину; но, очевидно, они это сделали.

"После этого мне потребовалось несколько месяцев, чтобы разобраться в правильном вопросе", - говорит Бежар. "Что сделало Facebook местом, где подобные усилия естественным образом смываются, а люди ломаются?"

 

-

Не зная Бежара, многие сотрудники Facebook задавались подобными вопросами. По мере того как социальная сеть все больше и больше подвергалась тщательному изучению извне и изнутри, в Facebook появился постоянно расширяющийся штат сотрудников, занимающихся изучением и устранением множества проблем, оказавшихся в центре внимания.

Эти усилия, в широком смысле называемые работой по обеспечению добросовестности, вышли далеко за рамки обычного модерирования контента. Для диагностики и устранения проблем социальных сетей требовались не только инженеры и специалисты по обработке данных, но и аналитики, экономисты и антропологи. Этот новый класс технических работников оказался в состоянии противостоять не только внешним противникам, решившим использовать социальные сети в своих целях, но и убежденности высшего руководства в том, что использование Facebook - это абсолютное благо. Когда в одноименной социальной сети компании происходили отвратительные вещи, эти руководители указывали пальцем на недостатки человечества.

У сотрудников, ответственных за решение проблем Facebook, не было такой роскоши. Их работа требовала понимания того, как Facebook может искажать поведение своих пользователей - и как оно иногда "оптимизируется" таким образом, чтобы предсказуемо нанести вред. Добросовестные сотрудники Facebook стали хранителями знаний, о существовании которых внешний мир не подозревал, а начальство отказывалось верить.

Пока небольшая армия исследователей с докторскими степенями в области науки о данных, поведенческой экономики и машинного обучения выясняла, как их работодатель изменяет человеческое взаимодействие, я был занят решением куда более простых вопросов о том, как работает Facebook. Я недавно переехал на Западное побережье, чтобы освещать деятельность Facebook в Wall Street Journal, и эта работа была связана с неприятной необходимостью притворяться, что я авторитетно пишу о компании, которую не понимаю.