Таким образом, после обучения системы с помощью подходящей матрицы весов исследователи смогли моделировать ситуации вида «что будет, если…» для поиска оптимального решения Кипрского вопроса. В статье, опубликованной авторами системы, было рассмотрено три сценария, на примере которых описывались прогнозы, составленные системой. В одном из случаев была рассмотрена ситуация, при которой турецкая армия навсегда покидала остров. Прогноз включал различные события, приводившие к постепенному росту напряженности, за которым в итоге следовали анархия и хаос.
* * *
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ВОЙНЫ
В истории человечества войны были ключевым фактором технического прогресса во все времена, начиная с изготовления Архимедом военных машин во время Пунических войн и заканчивая развитием ядерной энергетики в период холодной войны.
Искусственный интеллект также изначально имел военное применение. Сами основы вычислительной техники были заложены в разгар Второй мировой войны, когда союзникам потребовалось расшифровать секретные коды нацистских войск.
Во время холодной войны важные открытия в этой области произошли из-за того, что требовалось перевести огромный объем научно-технических текстов с русского языка на английский, и для выполнения автоматического перевода появились техники обработки естественных языков.
В 1966 году был опубликован доклад Комитета по автоматической обработке языков (ALPAC — от англ. Automatic Language Processing Advisory Committee), в котором рекомендовалось прекратить государственное финансирование исследований, связанных с обработкой естественного языка. В качестве причины указывались неудовлетворительные результаты, полученные за 10 лет исследований.
Рассказывают (хотя вряд ли эти данные можно считать достоверными), что во время войны в Персидском заливе американские военные систематически производили бомбардировки всех целей, где, по оценкам интеллектуальной системы, были спрятаны самолеты противника.
По-видимому, решения принимались с помощью так называемых нейронных сетей Кохонена, о которых будет рассказано далее.
Машина «Энигма», применявшаяся во время Второй мировой войны для шифрования и расшифровки сообщений.
Глава 5. Анализ данных
Руководство крупной американской сети супермаркетов Osco несколько лет назад поставило перед службой информационных технологий задачу разработать систему, способную анализировать огромные объемы данных, генерируемых ежедневно.
Предполагалось, что в результате анализа станут понятны рыночные тенденции.
Сразу после заверения работы над системой была обнаружена удивительная тенденция: в период с 17:00 до 19:00 существенно возрастали совокупные продажи подгузников и пива. Иными словами, масса клиентов, приобретавших в это время подгузники, включали в свою продуктовую корзину и пиво. Эта тенденция сначала обеспокоила исследователей, однако вскоре нашлось и объяснение: клиенты с маленькими детьми не могут отправиться на футбол, баскетбол или бейсбол, поэтому они покупали пиво, чтобы пить его во время телевизионной трансляции матчей.
Как компания Osco использовала эту информацию? Полки с подгузниками и пивом были переставлены ближе друг к другу, и совокупные продажи обеих групп товаров значительно возросли. Этот пример использования информационных систем получил известность, и сегодня все крупные торговые сети используют хранилища данных и средства интеллектуального анализа для изучения тенденций рынка и запуска новых продуктов.
О том, что такое интеллектуальный анализ данных и хранилище данных, мы расскажем чуть позже. Пока лишь отметим, что анализ данных — это дисциплина, в которой изучаются способы извлечения информации из систематически собираемых сведений. В силу растущей сложности данных среды проводить подобный анализ с каждым разом становится все труднее, и сегодня интеллектуальный анализ данных выделяют в отдельную дисциплину на стыке искусственного интеллекта и статистики.
Анализ данных возник в XVIII веке одновременно с появлением первых современных государств, осуществлявших систематический сбор информации о населении и состоянии экономики. Интеллектуальный анализ данных появился значительно позже, в конце XX века, когда вычислительные мощности и новые методы искусственного интеллекта достигли уровня, достаточного для того, чтобы извлекать информацию из огромных объемов данных.