По мере того как развивался интернет и появлялись новые цифровые инструменты, компьютеризированная журналистика превратилась в то, что мы сегодня называем журналистикой данных, которая (среди прочего) включает визуальную журналистику, вычислительную журналистику, картирование, аналитику данных, разработку ботов и анализ алгоритмической ответственности. Однако дата-журналисты в первую очередь журналисты. Для нас данные – это источник, и, чтобы рассказывать истории, мы используем ряд цифровых инструментов и платформ. Иной раз истории касаются последних новостей; время от времени они развлекательные; порой это запутанное расследования. Но они всегда информативны.
Организация ProPublica, появившаяся в 2008 г., и Guardian долгое время являются лидерами в области журналистики данных[21]. ProPublica была основана на благотворительных началах ветераном The Wall Street Journal Полом Стайгером, однако достаточно быстро завоевала репутацию расследовательского локомотива. У самого Стайгера за плечами был колоссальный опыт расследовательской журналистики: с 1997 по 2007 г. он был главным редактором в The Wall Street Journal, за это время команда журнала 16 раз получала Пулитцеровскую премию. Свою первую награду команда ProPublica получила в мае 2010 г. А в 2011 г. они получили премию за материал, опубликованный исключительно онлайн.
Многие истории, получившие эту награду, были созданы людьми, среди которых был дата-журналист или хотя бы тот, кто себя таковым считает. В сентябре 2006 г. журналист и программист Адриан Головатый, создатель фреймворка Django (которым пользовались многие редакции), опубликовал онлайн-статью «Основной путь необходимой трансформации для сайтов новостных изданий» (A Fundamental Way Newspaper Sites Need to Change)[22]. Он настаивал на том, что редакциям необходимо перешагнуть традиционную модель создания статей и начать внедрять практику структурирования данных в инструментарий журналистов. Его манифест привел к тому, что вместе с Биллом Эдейром, Мэттом Уэйтом и их командой он создал фактчекинговый сайт PolitiFact, также награжденный Пулитцеровской премией в 2009 г. Во время запуска проекта Уэйт писал: «Сайт представляет собой концепт простой старой газеты, переделанной для интернета. Мы взяли за основу политическую историю “отряда правды”, когда репортер, анализируя рекламную кампанию или агитационную речь, сначала проверяет все факты и только потом пишет историю. Мы взяли этот концепт, разделили на основные части и превратили в сайт, работающий на основе данных и посвященный периоду президентских выборов 2008 г.»[23].
На этом Головатый не остановился и создал Every Block – первое новостное приложение, в котором были представлены данные о преступлениях c геолокациями. Именно там впервые использовался интерфейс Google Maps, что привело к тому, что API стал доступен рядовым пользователям[24].
Прорыв в журналистике данных случился в 2009 г., когда репортеры и программисты Guardian запросили (посредством краудсорсинга) 450 000 записей о расходах членов парламента. За этим последовал скандал: выяснилось, что депутаты оплачивали бытовые и конторские расходы из государственного бюджета. Guardian также искусно овладела компьютерным анализом неофициальных сведений и просочившихся документов, которые использовали, например, в рамках расследований в период войн в Афганистане и Ираке[25].
Другое знаковое расследование – проект The Wall Street Journal об анализе дискриминации цен[26]. Лидирующие сетевые магазины вроде Staples и Home Depot устанавливали на своих сайтах цены, которые менялись в зависимости от почтового индекса, который посетитель вводил. При помощи компьютерного анализа журналисты выяснили, что индекс, соответствующий условно более обеспеченной локации, приводил к более низким ценам, чем у тех, кто вводил индекс условно менее обеспеченных локаций.
Исследования придают журналистике данных определенную полноту, поскольку репортеры стремятся полагаться на научные методы анализа. Чтобы быть хорошим журналистом, нужно, с одной стороны, понимать, когда следует обращаться к эксперту в той или иной области и, с другой стороны, уметь отличать эксперта от подсадной утки. Дата-журналистам приходится совмещать ряд научных подходов из разных областей. В 2008 г. профессор Технологического института Джорджии Ирфан Эсса организовал первый симпозиум для программистов и журналистов. Это ежегодное событие, где журналисты, исследователи из различных областей компьютерных знаний, коммуникации, статистики, человеко-машинного взаимодействия, визуального дизайна и других делятся своими знаниями и выстраивают междисциплинарный диалог. Николас Диакопулос, профессор Северо-Западного университета, – один из основателей симпозиума и автор знаковых работ об алгоритмах обратного проектирования как способах поддержания подотчетности фигур принятия решений. В своем исследовании «Алгоритмическая ответственность: журналистские расследования вычислительных систем господства» (Algorithmic Accountability: Journalistic Investigation of Computational Power Structures) он описывает некоторые примеры собственных расследований и расследований коллег-журналистов, посвященные анализу алгоритмических «черных ящиков»[27].
21
Lewis, “Journalism in an Era of Big Data”; Diakopoulos, “Accountability in Algorithmic Decision Making”; Houston,
25
Daniel and Flew, “The Guardian Reportage of the UK MP Expenses Scandal”; Flew et al., “The Promise of Computational Journalism.”
26
Valentino-DeVries, Singer-Vine, and Soltani, “Websites Vary Prices, Deals Based on Users’ Information.”