Выбрать главу

Работа с данными - это, например, метаанализ в медицине, это анализ потоков научных данных с ускорителей и телескопов, это юридиспруденция и наверняка еще многое. Если не требовать строгих определений, то в эту категорию попадают шахматы, го, распознавание образов. Во всех этих областях ИИ достаточно успешен, чтобы соревноваться с человеком и побеждать. Поэтому проще всего считать, что эти задачи ИИ решает лучше человека, а в некоторых случаях - идеально. То есть исходить из того, что в городе, усеянном камерами, каждый ваш шаг может быть отслежен, потому что людей по фотографиям ИИ опознает лучше, чем человек. Тем более, что опознание лиц - лишь часть того, что называется "биометрия". У человека индивидуальны жесты, походка, мимика, распределение температуры по поверхности тела, отпечатки пальцев... Разумеется, возможность построения такой системы не обязательно означает ее реального создания и применения - это зависит от общества, от людей. По крайней мере в русском языке выражения "цифровой концлагерь" и "цифровой ошейник" уже возникли.

Для создания эффективного ИИ используются большие наборы исходных данных. При этом в некоторых обществах возникает проблема конфиденциальности, то есть защиты личных данных от неправомерного использования. Иногда в качестве решения проблемы выдается, как пишут, помещение программы в ту среду, где есть данные - вместо того, чтобы извлекать их оттуда. Придуман даже специальный термин, "федеративное обучение". Однако с точки зрения защиты приватности это только ухудшает ситуацию, так как возможность неправедного использования маскируется.

"Три карты"

При взгляде на историю ИИ видны три фактора. Самый очевидный - мощность компьютеров, то есть быстродействие, объем памяти, объем и структура нейронной сети. Причем не быстродействие вообще и память вообще, а ориентированные на решение какого-то определенного класса задач. Компьютер, который победил людей в шахматы, не был универсальным, а тот, который впервые выиграл в го у чемпиона, был специализированной сетью из сотен процессоров. А вот его наследник, AlphaGo, уже не был специализированным и сетью. Конечно, что компьютер универсален в принципе, так что все это великолепие могло быть реализовано и иначе, но ценой потери эффективности или на сколько-то лет позже. Интересно, как мощность компьютера пересчитывается в силу алгоритма, но непонятно, как эти две вещи измерять по отдельности. В любом случае, ответ будет разным для разных областей, и ответить на него будет трудно еще и потому, что в реальности, программа и железо оказываются связаны. В любом случае, мощность компьютера - важный фактор. Что же касается объема и структуры нейронной сети, то вот что мы имеем (каждый квадратик - одна реализация; расшифровки см. в источнике: Макс Тегмарк "Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта", книга есть с Сети.

Эту ситуацию можно сравнить с человеческой. В IQ-тестах Айзенка есть три группы задач - числовые, словесные и пространственные. Человек может получить существенно разные результаты при решении тестовых задач разных типов, это похоже на разную организацию "железа", используемого мозгом при решении разных задач. Соответственно, это может проявится и при решении некоторых жизненных задач. Далее, имеет значение практика работы, знание подхода к проблемам в конкретных областях. Физик, химик и математик с примерно одинаковыми параметрами по тестам, будут каждый совершенно по-разному выглядеть в своей и в двух не своих областях. Это похоже на наличие или отсутствие соответствующих алгоритмов. Кстати, иногда недостатком ИИ по сравнению с человеком считают "узость", не замечая, что сравнивают конкретное воплощение ИИ с "людьми в целом", а это очевидная некорректность.

Второй фактор - это алгоритм, причем его элементы можно разделить на человеческие и компьютерные. Человеческие - это либо случайно похожие на то, как действует человек, либо просто подсмотренные у биологов. Сама идея нейросетей, перцептрон Розенблатта - это от биологов. Идея выделения из изображения характерных фрагментов - это от биологов, и поэтому программа "Кора" (Михаил Бонгард) оказалась эффективна. Идея, что для работы нейросети существенны колебания - это от биологов (осцилляторные нейронные сети). Программы, работающие с текстами на естественном языке - кладезь "человеческого", благо лингвисты не зря века рыли язык носом. Обучение нейросети показом ей размеченных объектов - это вообще психология, именно так учат детей, показывая объект и называя его ("смотри, вон кошечка"). Вообще, любые куски человеческих алгоритмов - если мы их поймем - могут используются ИИ. Идея об изменении структуры нейросети - от биологии, в мозгу ежегодно отмирает 105 нейронов, и ходят слухи, что появляются новые. Правда, 105 - малая доля от 1011, да и вряд ли это используется для обучения. Она идет этажом ниже и называется "синаптическая пластичность", причем кое-что там подозрительно похоже на обучение нейронной сети.