И в процессе они откопали Эндрю Шаэля, который написал алгоритм и выложил его в сеть. Эндрю Шаэль тоже работал над фотографией черной дыры. И, потому что в новостях сообщалось, что Кэти Боумен разработала “алгоритм”, то они решили, что “алгоритм”, возможно, должен принадлежать Шаэлю.
Поэтому они полезли на ГитХаб Шаэля и покопались в истории. Согласно той истории, у Андрю Шаэля было в коммитах более 850 тысяч строк кода, в то время как у Кэти всего 2400.
“Боже мой”, – воскликнули они, – “он же практически сделал всю работу, а вся слава достается ей!”
Они копнули еще глубже, но не намного, и узнали, что алгоритм, который сгенерировал финальное всемирно известное изображение, был создан другим мужчиной, Мареки Хонма.
“Она забрала себе достижение двух мужчин!” – ахнули они. “Феминизм и политкорректные СМИ уничтожают мир!”
Были, конечно же, и те, кто пытались быть добрыми. “Она всегда говорила, что это было командное усилие”, – говорили они. “Мы ее не виним, мы виним СМИ. Она не просила стать девочкой с плаката для проекта, в который практически ничего не привнесла”.
Тем временем Эндрю Шаэль (гей) писал твиты в ее защиту. Он благодарил всех за поздравления с работой, на которую он потратил годы жизни, но уточнил, что если эти поздравления являются частью сексистской атаки на Кэти Боумен, то они все должны убраться вон и подумать над своей жизнью. Он сказал, что без Кэти он бы не смог сделать свою работу.
И оказалось, что это он сделал вирусное фото Боуман – именно потому, что не хотел, чтобы ее заслуги затерялись в истории.
Поэтому я решила самостоятельно выяснить, каким на самом деле был вклад Кэти Боумен. Будучи программистом, я прекрасно понимаю, что количество коммитов на ГитХабе без контекста ничего не значит. И Шаэль лично подтвердил, что огромное число коммитов с его стороны связано с автоматическими коммитами больших файлов с данными. Сам софт состоял из 68 тысяч строк кода, и, хотя он сам не считал, сколько из этих строчек принадлежит ему лично (и открыто заявил, что ему не важно авторство индивидуальных строчек в коде), кто-то еще оценил его вклад в 24 тысячи строк.
68 или 24 тысячи – это все равно больше, чем две тысячи четыреста, правильно? Зачем тогда называть это “ее” алгоритмом?
Потому что здесь ссылаются на несколько разных алгоритмов. И люди этого просто не понимают.
Я начну объяснять с конца, так будет понятнее.
Фото, на которое все смотрят, известное фото черной дыры, оно композитное. Оно было сгенерировано алгоритмом Мареки Хонма. Алгоритм Хонма, основанный на технологии МРТ, использовался, чтобы “сшить” фотографии и заполнить недостающие пиксели между ними, анализируя существующие пиксели.
Но откуда были взяты фотографии, использованные для “сшивания”?
Эти фотографии были сгенерированы четырьмя командами, под руководством Кэти Боумен и Эндрю Шаэля, Казу Аккияма и Сары Иссаун, Шоко Кояма, Хосе Л. Гомеза и Майкла Джонсона. Каждой команде выдали набор данных о черной дыре, а затем изолировали их друг от друга. На четыре команды, они использовали две разные техники – старую CLEAN, и новую RML – чтобы сгенерировать изображение.
Смысл в изолировании и разделении команд заключался в том, чтобы протестировать точность данных о черной дыре, используемых при генерации изображения. Если четыре изолированные команды могут получить одинаковые изображения, пользуясь разными методиками, значит исходные данные были хорошими.
И вот, так и произошло. Данные были не просто хорошими, а наиболее точными на данный момент. 5 петабайт (миллионы и миллионы байт) исключительно точных данных.
Но откуда же взялись эти данные?
Восемь радиотелескопов нацелили свои объективы в направлении той черной дыры в ночном небе. Черная дыра находится на каком-то абсолютно безбожном расстоянии от нас, песчинка посреди океана из миллиардов небесных тел. И телескопы записали не только данные о черной дыре, но и данные обо всем другом, что попало в их поле зрения.
Данные, которые надо было отсортировать. Очевидно, это не тот объем который можно отсортировать руками. Чтобы отделить зерна (данные об одной конкретной черной дыре) от плевел (буквально все, кроме них, отсюда и до туда), требовался алгоритм, который мог бы распознать и выделить эти зерна. Этот алгоритм обрабатывался 800 процессорами, разбросанными по 40 гигабитной сети. И учитывая, что конечный результат занял объем в 5 петабайт (сотни килограмм жестких дисков), логично предположить, что изначальный объем был в разы больше.
Алгоритм, который справился с такой задачей, назывался CHIRP, сокращение для “Непрерывной реконструкции изображений высокого разрешения с использованием предыдущих патчей” (Continuous High-resolution Image Reconstruction using Patch priors).