Выбрать главу

Не всегда такого рода опыты бывают удачными. Режиссёр Роберт Уилсон в коллаборации с композитором Филипом Глассом в конце 90-х задумали очередную совместную оперу, она получила название Monsters of Grace. Как обычно, перед постановкой Уилсон рисовал визуальную книгу спектакля – его идеи к этой постановке были мегаломанические: гигантская рука должна была вытягивать меч из океана, вертолёт должен был пролетать над Великой Китайской стеной. Уперевшись в нереализуемость проекта в реальном пространстве, Уилсон обратился к 3D-моделированию. Технологии на тот момент были понятно какие, у креативной группы ушёл целый год, чтобы в черновом варианте нарисовать видео по эскизам и сценарию Уилсона, судя по доступным скриншотам, получилось это довольно средне. Оперу показывали несколько раз: ансамбль играл музыку Гласса на сцене, а одновременно с этим на проекционный экран сверху давали 3D-видео. Проект явно сильно опередил своё время. Уилсон в интервью The New York Times позже с ужасом отмечал, что он ненавидит этот проект и что это была одна из самых стыдных вещей в его жизни.

Фейс-мэппинг

Фейс-хакингу в его современном виде чуть меньше трёх лет. В августе 2014 года японский художник и видеограф Нобумичи Асаи запустил проект OMOTE (что с японского переводится как лицо или маска) и записал видеоролик, демонстрирующий возможности проецирования динамического изображения на движущееся лицо. В феврале 2016-го совместно с Intel Асаи выпустил работу Connected Colors, в которой использовал более изощрённую (и более «природную») видеографику, которая то расходилась волнами по лицу модели, то заполняла его как татуировка. Это всё выглядело выразительно, но существовало только в качестве экспериментальных работ на видео. В том же месяце проходила 58-я церемония вручения премий Грэмми, где Intel совместно с Асаи в качестве технического и креативного директора впервые продемонстрировали фейс-хакинг вживую на большую аудиторию: в первые минуты выступления Леди Гаги с трибьютом Дэвиду Боуи на её лице растекалось что-то похожее на лаву, затем у глаза сформировался узнаваемый красный зигзаг, после чего на лице появился паук. Правда, на видео очевидно торможение проекции по отношению к резко дёргающемуся лицу исполнительницы: на тот момент технология была ещё не так точна.

Заметный прогресс можно было увидеть уже весной 2017 года: в марте Асаи выпустил очередную работу с фейс-видеомэппингом, в котором приняли участие две японские танцовщицы, составляющие популярный дуэт AyaBambi. Не говоря о том, что качество и динамичность видеографики сильно продвинулись вперёд, стоит также отметить, что в движениях головы объекты мэппинга стали более свободны: даже при резких поворотах вбок или взмахах вверх проекция на затормаживает и не срывается с контура. К тому же в этой работе площадкой для мэппинга стали сразу два человека; в некоторых местах проекция на лица синхронная, в некоторых – нет.

В общем виде технология выглядит следующим образом. Прежде всего необходимо создать 3D-модель лица человека, на которое будет осуществляться проекция. Нобумичи Асаи, в частности, физически накладывает разные виды макияжа на лицо, фиксирует его на фото, а затем с помощью фотограмметрии уточняет параметры «лицевого ландшафта» для создания объёмной цифровой модели лица. Имея 3D-модель и видеографику, созданную специально под неё, лицо человека очищают от макияжа, клеят на него несколько инфракрасных маркеров, после чего ряд из пяти ИК-камер способен фиксировать движения лица и сопоставлять их с компьютерной моделью. Дальше всё зависит только от мощностей компьютера, способных с высокой скоростью обрабатывать сенсорный трекинг.

Самое интересное касается проектора, формирующего графику на лице. Та высокая точность при быстром перемещении маркеров, которую можно было видеть в видеоработе INORI, была достигнута благодаря коллаборации с лабораторией Ishikawa Watanabe Токийского университета. Там ещё в 2015 году был разработан революционный проектор DynaFlash, который впервые в мире был способен учитывать изменение и движение плоскости, на которую падает проекция. На демонстрационном видео понятно, о чём идёт речь: если растянуть или перевернуть плоскость, те же самые манипуляции произойдут и с проекционным изображением. Главной особенностью DynaFlash является кадровая частота: он способен проецировать видео со скоростью 1000 кадров в секунду. Именно эта его характеристика в сочетании с трекинг-системой Асаи позволила создать технологию проекции на объекты, движущиеся с высокой скоростью. Как уже было сказано, примеров использования технологии в театре пока не замечено – это объясняется дороговизной проектора и необходимыми вычислительными мощностями, но вообще-то фейс-хакинг работает именно на революцию в перформативных практиках, полностью укладываясь в тренд визуального разъятия и цифрового преображения перформера в современном театре.