Другой аспект иллюзии ИИ - возвышение дезорганизации как добродетели, заключенной в словах "двигайся быстро и ломай вещи", - ускорил этот антидемократический поворот. Под срывом стали понимать любые негативные последствия для других, включая работников, организации гражданского общества, традиционные СМИ и даже демократию. Все это было честной игрой, фактически поощрялось, если это было следствием захватывающих новых технологий и соответствовало увеличению доли рынка и получению прибыли.
Отражение этого антидемократического импульса можно увидеть в собственном исследовании Facebook о том, как пользователи реагируют на негативные и позитивные эмоции друзей в своей ленте новостей. В 2014 году компания провела масштабное внутреннее исследование, манипулируя новостной лентой почти семисот тысяч пользователей, уменьшив на неделю их воздействие как положительных, так и отрицательных эмоций. Неудивительно, что большая подверженность негативным эмоциям и меньшая подверженность позитивным эмоциям повлияли на пользователей, оказав длительное негативное воздействие.
Компания не спрашивала у пользователей никакого разрешения на проведение этого масштабного исследования и даже не пыталась придерживаться общепринятых стандартов научных исследований, где необходимо информированное согласие испытуемых. После того, как некоторые результаты исследования были опубликованы исследователями Facebook и другими в журнале Proceedings of the National Academy of Sciences, главный редактор опубликовал статью с выражением обеспокоенности, поскольку исследование было проведено без информированного согласия и не соответствовало принятым стандартам научных исследований. Google следовал той же схеме в своих попытках расширить объем собираемой информации с помощью Google Books и Google Maps. Компания игнорировала опасения по поводу конфиденциальности и действовала первой, без разрешения и консультаций, надеясь, что все уладится или, по крайней мере, ее свершившийся факт будет принят. Это сработало, по крайней мере, для Google.
Facebook и Google не являются исключительными в этой отрасли. Для технологических компаний сбор огромного количества данных без какого-либо согласия людей, чья информация или фотографии используются, стал обычным делом. Например, в области распознавания изображений многие алгоритмы ИИ обучаются и иногда участвуют в соревнованиях на наборе данных ImageNet, инициатором создания которого был компьютерный ученый, а затем главный научный сотрудник Google Cloud Фей-Фей Ли. Набор данных, содержащий более 15 миллионов изображений, рассортированных по более чем 22 000 категориям, был создан путем сбора частных фотографий, загруженных в различные приложения в Интернете, без разрешения людей, которые сделали эти фотографии или появились на них. В целом это считалось приемлемым в технологической отрасли. По оценке Ли, "в эпоху Интернета мы внезапно столкнулись со взрывом данных об изображениях".
Согласно репортажу в New York Times, Clearview систематически собирала изображения лиц без согласия, стремясь создать прогностические инструменты, позволяющие выявлять нелегальных иммигрантов и людей, склонных к совершению преступлений. Такие стратегии оправдываются тем, что масштабный сбор данных необходим для технологического прогресса. Как подытожил инвестор одной из компаний, занимающихся распознаванием лиц, защита массового сбора данных заключается в том, что "законы должны определять, что является законным, но вы не можете запретить технологии". Конечно, это может привести к антиутопическому будущему или чему-то подобному, но запретить это нельзя".
Истина более нюансирована. Навязывание массовой слежки и сбора данных - не единственный путь технологического прогресса, и его ограничение не означает запрета технологий. Вместо этого мы наблюдаем антидемократическую траекторию, проложенную мотивом прибыли и иллюзией ИИ, которая включает в себя авторитарные правительства и технологические компании, навязывающие свое видение всем остальным.