Термин Big Data появился несколько лет назад. Им обозначают работу с данными, соответствующими трем непривычно большим V: Variety, Velocity, Volume, то есть структурированными и неструктурированными, с высокой скоростью поступления и обработки и больших объемов.
Масштабы научных задач поражают, но бизнес требует еще и быстроты обработки. При принятии взвешенного решения о выдаче кредита за пятнадцать минут нужно проанализировать серьезный массив данных. У интернет-магазинов время измеряется уже секундами. Пока клиент задумался, нужен ли ему тот или иной товар, Amazon должен успеть проанализировать историю его поведения в интернете, сравнить с поведением аналогичных клиентов и подсунуть наиболее заманчивые альтернативы из ассортимента более чем в миллион позиций. А компания ComScore, крупнейший поставщик профилей интернет-пользователей, обрабатывает в день 30 млрд событий — просмотров страниц, длительности сеансов, демографических сведений. У поисковых систем времени на работу — доли секунды, в течение которых они должны не просто найти подходящие варианты ответов на запрос, но и сопоставить их с актуальностью профиля конкретного юзера.
Линейный рост данных куда в большей степени отражается на требуемых ресурсах обработки: «Например, возьмем не самого большого сотового оператора, с 50 миллионами абонентов, каждый из которых совершает несколько звонков в день. Сами по себе это данные небольшие, но если мы захотим сравнить каждого абонента с каждым, то для хранения такой матрицы потребуется приблизительно 10 петабайт, и это уже достаточно большая величина», — объясняет Юрий Чехович , генеральный директор компании «Форексис».
Нагенерировали
«Революционного скачка в технологиях хранения и обработки не произошло, — продолжает Юрий Чехович. — Шло их эволюционное развитие и наращивание мощностей. И в этом смысле Big Data — прежде всего маркетинговый ход разработчиков, продвигающих свою продукцию. Стоимость сбора данных как минимум на порядок превышает стоимость анализа. Поэтому ограничителем роста data science, по крайней мере в ближайшее время, будут источники данных, а не возможности их анализа».
В основе информационного взрыва лежит цифровизация нашей жизни. Практически все документы создаются в электронном виде, число цифровых камер давно превысило число аналоговых, движение почти каждого из нас можно отследить по GPS, а слово «игры» уже мало ассоциируется с чем-то настольным.
По данным Cisco, только мобильный трафик данных в мире к концу 2012 года достиг 885 петабайт в месяц, а к 2016-му ежегодный объем глобального IP-трафика составит 1,3 зеттабайта (один зеттабайт равен триллиону гигабайт). К 2016 году каждую секунду через интернет будет передаваться столько видеоматериалов, что их просмотр занял бы 1,2 миллиона минут, или 833 дня.
По прогнозам IDC, объемы информации будут удваиваться каждые два года в течение следующих восьми лет. Один из основных факторов этого роста — увеличение доли автоматически генерируемых данных: с 11% их общего объема в 2005 году до более чем 40% в 2020-м. При этом используется лишь менее 3% из 23% потенциально полезных данных. К 2020 году общий объем цифровых данных достигнет 40 зеттабайт. Для понимания масштаба: если записать 40 зеттабайт данных на самые емкие современные диски Blue-ray, общий вес дисков без упаковки будет равен весу 424 авианосцев.
Подводная часть айсберга — бум производства датчиков и сенсоров: от носимых кардиодатчиков до систем контроля трубопроводов, от бытовых сигнализаций до орбитальных телескопов. В 2015 году планируется запустить радиотелескоп SKA с площадью антенн один квадратный километр, с которых будет передаваться сигнал со скоростью несколько петабайт в секунду, что на два порядка больше нынешнего трафика глобального интернета.
Революция происходит не в технологиях хранения, а в генерации данных и попытках использовать их в неочевидных решениях. Большие массивы данных — лишь вспомогательный инструмент в давно существующих задачах маркетинга, управления запасами, оптимизации производства. «Работа с данными велась всегда, но сейчас можно говорить о переходе количества в качество. Сравнительно недавно появилось умение понимать, осмысливать данные и принимать решения на их основе. Произошло это за счет того, что данные и методы их анализа стали высокотехнологичными, — считает Андрей Себрант , директор по маркетингу сервисов “Яндекса”. — Пока за аналитику все чаще выдают статистику. Если вы загрузили данные, а в ответ получили лишь построенную по ним кривую и вынуждены сами ломать голову над причинами изменений и над тем, что с ними делать, — это статистика. Data science — это наука о работе с данными, умении вытягивать из больших объемов информации не просто тренды, а их объяснение и обоснование возможных решений».