Некоторые из худших формулировок и последовательные высказывания ненависти распространялись на других платформах, таких как 4chan, 8chan и Reddit, включая его различные под-реддиты, такие как The_Donald (где зарождаются и распространяются теории заговора и дезинформация, связанные с Дональдом Трампом), Physical_Removal (выступающий за уничтожение либералов) и несколько других с явно расистскими названиями, которые мы предпочитаем здесь не печатать. В 2015 году Southern Poverty Law Center назвал Reddit платформой, на которой размещается "самый жестокий расистский" контент в интернете.
Было ли неизбежным, что социальные сети стали такой выгребной ямой? Или же некоторые решения, принятые ведущими технологическими компаниями, привели нас к такому плачевному состоянию? Истина гораздо ближе к последнему, и, по сути, она также отвечает на вопрос: "Почему ИИ стал настолько популярным, даже если он не увеличивает производительность и не превосходит человека?
Ответ - и причина особого пути, по которому пошли цифровые технологии, - заключается в доходах, которые компании, собирающие огромное количество данных, могут получать с помощью индивидуально ориентированной цифровой рекламы. Но цифровая реклама хороша лишь настолько, насколько люди обращают на нее внимание, поэтому такая бизнес-модель означает, что платформы стремятся повысить вовлеченность пользователей в онлайн-контент. Самым эффективным способом сделать это оказалось культивирование сильных эмоций, таких как возмущение или негодование.
Рекламная сделка
Чтобы понять корни дезинформации в социальных сетях, мы должны обратиться к истории возникновения Google.
Интернет процветал и до Google, но имеющиеся поисковые системы не помогали. Особенностью Интернета является его поразительный размер: по оценкам, в 2021 году количество веб-сайтов составит 1,88 миллиарда. Просеивать информацию на этих многочисленных сайтах и находить нужную информацию или продукты было непросто.
Идея ранних поисковых систем была знакома всем, кто пользовался книжным указателем: найти все вхождения заданного поискового слова. Если вы хотели найти, где в книге обсуждался неолит, вы смотрели в индекс и видели список страниц, на которых встречалось слово "неолит". Это хорошо работало, потому что данное слово встречалось ограниченное количество раз, что делало метод "исчерпывающего поиска" среди всех указанных страниц осуществимым и достаточно эффективным. Но представьте, что вы заглядываете в индекс огромной книги, такой как Интернет. Если вы получите список случаев, когда слово "неолит" упоминается в этой огромной книге, то это могут быть сотни тысяч раз. Удачи в исчерпывающем поиске!
Конечно, проблема в том, что многие из этих упоминаний не столь актуальны, и только один или два сайта могут стать авторитетными источниками, в которых можно получить необходимую информацию о неолите и о том, как, скажем, люди перешли к оседлой жизни и постоянному земледелию. Только способ определения приоритетности наиболее важных упоминаний позволил бы быстро найти нужную информацию. Но это не то, на что были способны первые поисковые системы.
Пришли два дерзких, умных молодых человека, Ларри Пейдж и Сергей Брин. Пейдж был аспирантом и работал с известным компьютерным ученым Терри Виноградом в Стэнфорде, а Сергей Брин был его другом. Виноград, ранний энтузиаст доминирующей в настоящее время парадигмы ИИ, к тому времени изменил свое мнение и работал над проблемами, в которых человеческие и машинные знания могли бы быть объединены, в точности как это предполагали Винер, Ликлайдер и Энгельбарт. Интернет, как мы видели, был очевидной областью для такой комбинации, поскольку его сырьем были контент и знания, созданные людьми, но перемещаться по нему должны были алгоритмы.
Пейдж и Брин придумали лучший способ достижения этой комбинации, в некотором смысле истинно человеко-машинное взаимодействие: люди лучше всего определяли, какие сайты являются более релевантными, а поисковые алгоритмы отлично собирали и обрабатывали информацию о ссылках. Почему бы не позволить людям определять, как поисковые алгоритмы должны расставлять приоритеты релевантных веб-сайтов?
Сначала это была теоретическая идея - осознание того, что это можно сделать. Затем пришло алгоритмическое решение, как это сделать. Это легло в основу их революционного алгоритма PageRank ("Page" здесь, по слухам, относится как к Ларри Пейджу, так и к факту ранжирования страниц). Среди релевантных страниц идея заключалась в том, чтобы отдать предпочтение тем, которые получили больше ссылок. Таким образом, вместо того чтобы использовать специальные правила для решения вопроса о том, какие из страниц со словом Neolithic должны быть предложены, алгоритм будет ранжировать эти страницы в соответствии с количеством входящих ссылок, которые они получили. Более популярные страницы будут ранжироваться более высоко. Но зачем на этом останавливаться? Если страница получает ссылки с других страниц с высоким рейтингом, это будет более информативно о ее релевантности. Чтобы сформулировать эту мысль, Брин и Пейдж разработали рекурсивный алгоритм, в котором каждая страница имеет ранг, и этот ранг определяется тем, сколько других страниц с высоким рейтингом ссылаются на нее ("рекурсивный" означает, что ранг каждой страницы зависит от рангов всех остальных). При наличии миллионов сайтов вычисление этих рангов - дело нетривиальное, но уже в 1990-х годах это было вполне осуществимо.