Компьютеры для игры в шахматы с тех пор сильно изменились. Ни Каспаров, ни действующий чемпион мира Магнул Карлсен не способны соперничать с лучшими из доступных программ. Каспаров, конечно, постарался бы победить мобильное приложение Pocket Fritz 4. Рейтинг Эло этой программы составляет 2898, тогда как максимальный рейтинг Каспарова – 2851[19].
Когда программа пользуется бо́льшими вычислительными ресурсами, чем те, которые содержит мобильное устройство, у человека практически нет против нее шансов. Deep Fritz, который можно запустить на обычном компьютере, имеет рейтинг Эло 3150. Разница в триста очков между ним и Каспаровым означает, что вероятность победы российского шахматиста составляет один к пяти в отдельно взятой игре и стремится к нулю в длительном соревновании. Я как человек, обладающий гораздо более низким рейтингом Эло, не имею почти никаких шансов на победу в матче против Deep Fritz.
Но шахматы вовсе не пострадали от такого распределения сил. Наоборот, машины помогли развитию игры в нескольких направлениях. Теперь компьютеры дают профессиональные советы начинающим игрокам. Они также открыли нам новые ходы, о наличии которых мы, быть может, никогда бы и не догадались. Так что их господство в шахматах пошло на пользу самой игре.
Запуск всех систем
Март 2016 года – еще одна важная точка в истории ИИ. Именно тогда программа AlphaGo от компании DeepMind победила Ли Седоля, одного из лучших игроков в го на планете. Го – древняя и очень сложная китайская настольная игра, в которой нужно помещать черные или белые камешки на доску размером 19×19 так, чтобы захватить большую часть территории.
Го – гораздо более сложный случай, чем шахматы, по нескольким причинам. В шахматах существует двадцать возможных ходов в каждом отдельно взятом случае. В го таких ходов может быть около двухсот[20]. В шахматах часто не так сложно определить, кто побеждает: за каждую фигуру на столе можно начислить определенное количество очков, и игрок с наибольшим количеством очков, вероятно, лидирует. В го же все фигурки одинаковы. Для того, чтобы определить, кто побеждает, нужно внимательно следить за тем, какую территорию занимает каждый из участников. Человеку требуются годы практики, чтобы научиться хорошо играть в го.
В мае 2017 года DeepMind убедительно доказала, что победа над Седолем в 2016-м не была одержана AlphaGo случайно. В матче на 1,8 миллиона долларов[21] улучшенная версия программы победила китайскую легенду го Кэ Цзе, который впоследствии был назван лучшим игроком в мире.
Однако, несмотря на то что эти две победы значат очень много для развития ИИ, не стоит переоценивать их значимость. AlphaGo была специально разработана для игры в го. Потребовалось бы очень много усилий, чтобы приспособить ее для других игр, таких как, например, покер[22]. Трудно представить, что те же техники, которые работают в AlphaZero (новейшая версия AlphaGo работает исключительно на основе знания правил игры), будут работать и в азартных играх. Разумеется, AlphaZero не способна водить машину, написать роман или перевести юридический документ.
Другое заблуждение может заключаться в том, что результат, которого достигла AlphaGo, появился ниоткуда, а потому указывает на некий «экспоненциальный» рост в сфере ИИ. На самом деле это не так. Это, несомненно, важное достижение DeepMind, привлекшее к себе столько внимания, заслуживает всяческих похвал. Однако, несмотря на то что AlphaGo предлагает некий новый способ соединения компонентов, сами компоненты остаются практически неизменными[23].
До появления AlphaGo самой успешной компьютерной программой была CrazyStone, написанная Реми Куломом[24]. В 2014 году Кулом сказал в интервью, что первая победа программы над профессиональным игроком состоится через десять лет. Однако AlphaGo потребовалось немногим больше года, чтобы победить Фэна Хуи, трехкратного чемпиона Европы, и еще один, чтобы победить Ли Седоля.
Так или иначе, DeepMind приложили больше всех усилий к решению этой задачи. Раньше программы для игры в го писались одним человеком; над AlphaGo работало около пятидесяти человек. Это заняло меньше одной десятой того времени, которое этот процесс должен был занять по мнению Кулома, но потребовало количество людей, превышающее предполагаемое более чем в десять раз.
DeepMind также имели доступ к обширным серверным фермам Google, которые позволили AlphaGo играть миллиарды раз против себя самой. Даже если бы человек всю жизнь не занимался ничем другим, кроме игры в го, он бы все равно не смог даже приблизиться к такому количеству партий. Из этого следует, что AlphaGo не так уж быстро учится. Люди, в отличие от подобных программ, могут научиться что-то делать, увидев это лишь единожды. Мы всё еще пытаемся создать ИИ, который мог бы учиться на основе такого маленького количества данных. Так что, несмотря на то что победы AlphaGo стали важным символическим моментом для ИИ, они не были таким прорывным достижением, каким его представляет для вас PR-отдел Google[25].
19
Рейтинг Эло описывает относительный уровень соревнующихся в играх, где участвуют двое игроков. Система была названа в честь ее создателя, Арпада Эло, американского профессора физики венгерского происхождения. Рейтинг обновляется всякий раз, когда игрок побеждает или проигрывает, а также меняется в зависимости от рейтинга соперника. Полагаться на тот рейтинг Эло, который присваивается компьютерным программам, однако, не всегда стоит, так как они часто играют совсем немного официальных игр. Тем не менее разрыв между ними и нашими лучшими шахматистами так велик, что человек практически не имеет шансов против компьютера.
21
Все суммы в долларах (за исключением тех мест, где это специально оговорено) приводятся в валюте США.
22
В октябре 2017 года DeepMind представили AlphaGo Zero. Это улучшенная версия AlphaGo, которую не учили играть в го вручную и не показывали игры лучших спортсменов. Ей были даны только правила игры. То есть ее познания не основывались на тысячах лет человеческого опыта в этой игре, а складывались из того, что она освоила самостоятельно. После трех дней практики программа уже играла на сверхчеловеческом уровне. Как и многие мои коллеги, я был впечатлен. Всего три дня требуется компьютеру, чтобы оказаться там, куда человечество шло тысячелетиями. Еще больше я был впечатлен, когда в декабре 2017-го компания представила AlphaZero, еще более универсальную версию, которая также смогла научиться играть в шахматы и сёги (японские шахматы) на сверхчеловеческом уровне только на основе знания правил. Однако есть определенные сомнения (по моему мнению, существенные) в том, что программа может научиться играть во что-то совсем другое. Шахматы, го и сёги – настольные игры для двух человек. Покер же, например, подразумевает не только большее число игроков, но и много новых факторов, таких как неопределенность и человеческая психология. Для того чтобы выиграть в покер, необходимо иметь дело с неполной информацией о картах соперников, тогда как в го все сведения о том, что происходит в игре, доступны обоим участникам. Кроме того, в покере приходится сталкиваться с психологическими трюками соперника, например блефом. Ни AlphaGo, ни AlphaZero не приспособлены для решения подобных задач. Чтобы доказать универсальность программы, DeepMind должны будут продемонстрировать ей способность побеждать в совершенно разных играх, таких как шахматы, покер или StarCraft. И даже тогда алгоритм AlphaZero будет ограничен только играми.
23
AlphaGo не была первой искусственной нейросетью, которая научилась играть во что-то на нашем уровне. TD-Gammon – программа для игры в нарды – была разработана в 1992 году в научно-исследовательском центре Томаса Дж. Уотсона в IBM. Она показывала уровень чуть ниже, чем у лучших игроков в нарды того времени. Программа использовала стратегии, которые людям и не приходили в голову, и помогла взглянуть на нарды с новой стороны. Так же, как и AlphaGo Zero, она знала только правила игры и научилась всему благодаря постоянной практике.
25
Реклама, которую победа AlphaGo сделала для Google на китайском рынке, вероятно, окупила все многомиллионные затраты DeepMind на разработку программы. С другой стороны, это может выйти Google боком, так как все это подвигло китайцев на создание собственного ИИ. Если один из китайских гигантов вроде Baidu или Tencent выиграет гонку в сфере искусственного интеллекта, Ларри Пейдж и Сергей Брин могут проклясть тот день, когда они разбудили спящего дракона.