Выбрать главу

Решением этой - вполне инженерной, кстати, задачи - и занимается Intel. И мне кажется, что изобретение новых потребностей (как и, в меньшей степени, расширение уже существующих) - в целом задача более интересная, чем вывод на рынок нового процессора или зубодробительные подробности какой-нибудь новой технологии. Особенно в случае с Intel, потому что компания таких масштабов (в отличие от множества гениальных, но бедных стартапов) действительно может попытаться научить пользователей своим представлениям о прекрасном. Это очень долгий, дорогой и неприятный для всех участников процесс, но если представить всех участников ИТ-рынка в виде составляющих единой экосистемы, то Intel, Microsoft, Google и, может, еще десяток-другой компаний стараются не идти на поводу у потребителей, а, наоборот, вести их за собой. Подход, кстати, вполне человеческий: наши предки давно поняли, что разводить домашний скот в загоне куда эффективнее, чем сидеть с утра у водопоя или выслеживать стадо в надежде отбить теленка. На ИТ-рынке такая стратегия срабатывает не всегда: можно вспомнить множество технологий, которые, несмотря на все усилия заинтересованных компаний, в народ не пошли. Поэтому Intel для поиска инновационных идей использует тактику, описанную когда-то Робертом Броуном, а затем Норбертом Винером: проектов у Intel много, проекты разные по качеству, проекты, как правило, независимы друг от друга и не очень-то дороги. Intel может позволить себе разбрасываться. И, самое главное, ждать.

Беспокойное детство

Концепция Connected Visual Computing исчерпывающе описывается названием. Visual Computing - это все, что связано с обработкой и созданием изображений и видео (включая привычное 3D, реалистичную мимику аватаров, видеопоиск, компьютерное "зрение" и т. д.), а Connected - это новые пользовательские модели работы с информацией, включая навязший на зубах Веб 2.0 и виртуальные миры а-ля SecondLife. Другими словами, CVC - это когда Википедия встречает HalfLife, причем работает этот странный гибрид в любом месте и в любое время, потому что доступ к Сети есть везде. А одно из важнейших свойств CVC - максимальная привязка к окружающей нас реальности. Когда в поле зрения камеры мобильного телефона попадает муравей, а на экране появляется субтитр, поясняющий, что это не просто какой-то там муравей, а Camponotus herculeanus, - это CVC. Когда вы, прогуливаясь по незнакомому городу, слушаете в наушниках комментарии гида, причем этот автоматический гид отслеживает ваши передвижения с помощью GPS и каждый раз рассказывает вам о том, на что вы смотрите, - это тоже CVC ("вижуала" тут, правда, не очень много). Когда в ресторане вам принесли меню на китайском, а вы, не желая прослыть профаном, рассматриваете его через камеру мобильника, которая автоматически переводит непонятные иероглифы на русский, - это опять CVC.

К сожалению, многие из придуманных мною применений пока из области фантастики. Мы пока толком не умеем искать ни видео, ни простые изображения, плохо управляем знаниями, плохо чувствуем контекст и значительную часть своей жизни находимся офлайн. Банальный, казалось бы, пример про муравья подразумевает сложнейшую техническую реализацию. По-хорошему, телефон должен увидеть муравья и предположить, что пользователю интересен именно муравей, а не, скажем, маленькая веточка такого же размера (с распознаванием у нас пока тоскливо, но что-то умеем - номера на машинах, например, различать). Затем телефон должен отослать предварительное изображение на поисковый сервер (технических препятствий почти нет), который сравнит изображение муравья с имеющимися в базе (а мы, повторюсь, пока не знаем, что это именно муравей - для нас это просто интересный живой объект), поймет, что это муравей, и не просто муравей, а Camponotus herculeanus (не умеем), и выдаст в ответ не набор бессмысленных ссылок, а точную краткую характеристику объекта (умеем, но плохо). Или, к примеру, историческое здание на экране мобильника, увешанное комментариями и пояснениями, как популярная фотография на Flickr, - чтобы точно определить, что это за здание, нужно уметь работать с контекстом (вряд ли оптика мобильника способна уместить все здание целиком; анализировать, скорее всего, придется произвольный кусок стены), уметь искать по изображениям и видео и, конечно, уметь выводить всю эту информацию на экран так, чтобы от здания тоже что-нибудь осталось (умеем, но плохо). Самое главное, что мы не умеем постоянно быть в Сети, хотя на этом фронте перспективы вполне радужные - не сегодня, так завтра, не три "же", так четыре. Что касается остальных наших неумений, то в Intel полагают, что работоспособный видеопоиск появится в 2010 году, технология "живых субтитров" - не ранее 2012 года, а технология 2D/3D-оверлеев, когда, скажем, перевод вывески появляется не рядом с ней, а замещает собой часть оригинального изображения, - не ранее 2014 года[Про работу с контекстом см. "Препроцессинг 1" ("КТ" #751).].