Выбрать главу

Один из случаев, который хорошо иллюстрирует эту проблему, имел место в 2010 году. Известный американский исследователь-психолог Дэрил Бем опубликовал в журнале с хорошей репутацией авторитетную научную работу об исследовании возможности человека предвидеть будущее, сообщив о доказанных фактах предвидения событий его испытуемыми[1].Исследование было грамотно спланировано и проведено, а результаты были статистически значимыми, однако для большинства людей они выглядели неубедительно по тем же самым причинам, что и для вас. Если бы люди действительно могли предвидеть будущее, мы бы, вероятно, уже давно знали об этом. Громкие заявления требуют весомых подтверждающих фактов, а не единичных результатов.

В действительности же исследование было повторено, но с другими результатами, отличными от тех, что получил Бем. По крайней мере две группы ученых повторили несколько экспериментов Бема, используя те же самые методы, и в обоих случаях фактов предсказания будущего подопытными зафиксировано не было. Одна из групп предоставила результаты в «Журнал исследования личности и социальной психологии», в то самое издание, которое опубликовало работу Бема в 2010 году, но на этот раз журнал сходу отверг статью исследователей.

К авторам даже вышел сам редактор и заявил, что они никогда не публикуют исследования, которые дублируют другие работы. Тут мы наблюдаем ту же самую проблему, что и в медицине: положительные результаты публикуются чаще, чем отрицательные. То и дело положительный результат какого-нибудь глупого эксперимента тут же публикуется в статье, где доказывается, например, что люди могут предвидеть будущее. Кто знает, сколько психологов на протяжении многих лет пыталось найти доказательства существования экстрасенсорных способностей, проводя долгие, сложные эксперименты на десятках, может быть, даже сотнях испытуемых, и не находило подтверждения своим догадкам. Любой ученый, пытающийся опубликовать результаты исследования, основной вопрос которого «А что если?», должен будет постараться, чтобы в лучшем случае его неподняли на смех прямо в редакции журнала. Даже несмотря на наличие ясной цели в исследовании Бема, которое широко освещалось в серьезных газетах по всей Европе и США, научные журналы, подтвердившие интерес к вопросу предвидения будущего, просто отказались публиковать статью о работе с отрицательными результатами. Однако воспроизведение этих результатов крайне важно, как сказал сам Бем в своей работе, поэтому отслеживание неудач при попытках получить такой же результат также имеет значение.

Люди, работающие в научных лабораториях, скажут вам, что порой эксперименты много раз заканчиваются неудачей и только после ряда попыток вдруг появляется результат, который исследователь и хотел получить. Что это означает? Иногда неудачи вызваны юридическими или техническими проблемами, но иногда они формируют ряд важных статистических данных, которые даже могут ставить под сомнение правильность основных результатов исследования. Помните, что результаты многих исследований не всегда свидетельствуют строго в пользу того или иного предположения. Большинство из них представляют собой хрупкие статистические корреляции. В рамках существующей системы большинство вспомогательной статистической информации о количестве неудач просто заметается под ковер, что очень отражается на стоимости исследования, во время которого пытаются воспроизвести результаты первого эксперимента. Зависимость может быть неявной и не сразу проявиться. Например, исследователи, которым не удалось воспроизвести результаты первоначального опыта, могут и не знать, с чем связана такая неудача. Возможно, при первом опыте им просто повезло, а может быть, они допустили методическую ошибку.

В действительности на поиск доказательств ошибочности результатов тратится гораздо больше времени, средств и усилий, чем на их воспроизведение. Ведь исследователю нужно провести эксперимент много раз, чтобы доказать отсутствие результатов: так работает статистика обнаружения слабых эффектов. И вам нужно быть абсолютно уверенным в том, что вы исключили все технические неполадки, чтобы не попасть впросак, если данные окажутся воспроизведены неправильно. Эти препятствия при поиске опровергающей информации частично объясняют, почему проще уклониться от публикации данных, которые в конечном счете окажутся неправильными.31

Пристрастный отбор результатов для публикации — проблема, возникающая не только при проведении далеких от жизни психологических экспериментов. В 2012 году группа ученых сообщила в журнал Nature, как они попытались воспроизвести результаты 53 ранних лабораторных исследований, направленных на изучение возможностей разработки перспективных препаратов для лечения рака. В итоге 47 из 53 результатов не были воспроизведены.32 Это исследование имело серьезные последствия для разработки новых лекарств в медицине, так как невоспроизводимость данных не просто абстрактный научный вопрос:исследователи строят теории на их основе, верят в их правильность и исследуют тот же самый феномен, используя другие методы. Если же их просто водили за нос, заставляли воспроизвести случайно полученные неверные данные, то получается, что весомая часть выделенных на проведение исследований денег и усилия ученых были потрачены зря, а прогресс в открытии новых медикаментов в значительной мере замедлился.

Авторы исследования ясно подчеркивали и причину, и решение проблемы. По их мнению, случайно полученные положительные данные чаще высылаются для публикации в журналах и чаще издаются, чем скучные цифры отрицательных исследований. Нужно больше стимулировать ученых к публикации отрицательных результатов, но мы должны предоставлять им также и больше возможностей. Другими словами нам нужно изменить манеру поведения сотрудников научных журналов, и здесь мы сталкиваемся с еще одним затруднением. Несмотря на то что работающие в таких изданиях люди часто сами являются учеными, редакторы журналов ориентируются на свои интересы и приоритеты при публикации статей. В этом отношении они больше похожи на обычных журналистов и редакторов простых газет, что многие из них вряд ли согласятся признать, и пример с экспериментом по предвидению будущего, приведенный выше, хорошо доказывает это. Могут ли журналы, подобные такому, служить примером идеальной площадки для обнародования результатов исследований в принципе — жарко обсуждаемый вопрос в научных кругах, но такова текущая ситуация. Редколлегия журналов — это фильтраторы. Редакторы выносят суждения о том, что существенно и интересно для их аудитории. Они борются за читателей. Это может заставить их действовать в ущерб интересам науки, потому что личное желание редактора журнала наполнить издание привлекательным содержанием может войти в конфликт с объективной необходимостью предоставить исчерпывающую и полную картину исследования. В журналистике распространен хорошо известный афоризм: «Если собака укусила человека, это не новость. Но если человек укусил собаку…» Критерии, определяющие, что стоит публиковать в колонке новостей популярных изданий, даже были выражены количественно. Одно исследование, проведенное в 2003 году, например, на протяжении нескольких месяцев отслеживало способ подачи новостей о здоровье на канале ВВС. Было подсчитано, скольким людям нужно умереть от какой-либо болезни, чтобы сообщение об этом появилось в новостях. Так, в каждом сюжете о курении сообщалось о не менее чем 8571 умершем в среднем, но появилось по одному сообщению о каждом смертельном случае от новой разновидности коровьего бешенства (всего их было три).33 В другой работе от 1992 года исследователи изучили способ подачи печатными изданиями сообщений о смерти от лекарственных препаратов. Они обнаружили, что для появления сообщения в газете об отравлении парацетамолом нужно было зафиксировать 265 случаев смерти, но на каждый случай смерти от экстези в среднем появлялось по одному сообщению в новостях.34

Если такая оценка событий оказывает влияние на содержание научных журналов, тогда мы столкнулись с еще одной проблемой. Могло ли произойти так, что научные журналы превратились в крепость, а охраняющие ее часовые не дают врачам и ученым получить доступ к информации об исследованиях с отрицательными данными, о безопасности и эффективности лекарств, которые ежедневно прописывают медики? Этот аргумент часто используется представителями фармакологической индустрии в качестве оправдания, да и сами исследователи тоже склонны обвинять журналы в массовом отказе печатать их статьи с отрицательными результатами. К счастью, эта проблема уже была изучена, и на сегодня можно сказать, что в целом журналы пока невиновны в том грехе, в котором их обвиняют. Нельзя утверждать, что именно они являются источником серьезных проблем в сфере медицинских услуг и общественного здоровья. Это утверждение звучит особенно правдиво, если вспомнить, что есть специализированные научные журналы,занимающиеся публикацией данных клинических исследований, а обязательство публиковать отрицательные результаты прописано в уставе таких СМИ.