Выбрать главу

6). Все более опасные кибератаки. ИИ мультиплицирует риски и угрозы кибератак. Уже сегодня есть свидетельства наличия шпионских, боевых киберплатформ, ранее привычно называемых вирусами, управляемых ИИ. ИИ находит слабые секторы в антивирусной обороне и системах информационной безопасности и рассчитывает способ их преодоления. Кроме того, сами по себе суперкомпьютеры и облачные серверы, связанные с ИИ, становятся приоритетной целью для кибератак. По мере того, как весь мир переходит к Интернету всего, где все – от автомобилей до критических инфраструктур – управляется ИИ, именно кибервооружение становится одновременно наиболее разрушительным, экономичным и вероятно доступным видом оружия массового поражения. Комиссия считает, что мир со стратегическим кибероружием не обладает встроенными механизмами предупреждения конфликтов, которые существовали в прошлом, когда обе стороны – США и СССР – знали о так называемом гарантированном ответном ядерном ударе.

7). Новые методы, приносящие новые уязвимости. ИИ станет желанным инструментом для злоумышленников и преступников всех видов и направлений. Они будут не столько разрушать системы ИИ, сколько брать их под управление, либо, в крайнем случае, получать доступ к этим системам, чтобы в нужный момент использовать в своих целях.

8). Опасность непредвиденных чрезвычайных ситуаций. Новые технологии создают дополнительные риски для безопасности и надежности. Относительно бедные и технически неразвитые страны вполне могут пользоваться ИИ по модели SAAS, т. е. «сервис, как услуга». Это может привести к крупномасштабным катастрофам и инцидентам в развивающихся государствах. Что касается Соединенных Штатов, то здесь возникает другая опасность. Поскольку в Интернете все связано со всем, то, несомненно, будут связаны друг с другом и ИИ. Уже сегодня специалисты не вполне понимают ход вычислений, который приводит к тем или иным выводам. Завтра же массовое внедрение ИИ может создать сверхсложную среду, где люди будут неспособны принимать оптимальные решения и раз за разом ошибаться.

Период неопределенности

Возрастающую технологическую неопределенность порождает комбинация возможностей, рисков и угроз в изменчивой, турбулентной политической, экономической и технологической среде. В обществе существует высокая степень обеспокоенности по поводу последствий использования ИИ, особенно в значительной степени в засекреченной сфере национальной безопасности. В процессе работы Комиссия не раз встречалась с мнениями руководителей бизнеса и правительственных организаций, ведущих исследователей относительно рисков негативного воздействия ИИ на общество, экономику и правопорядок. Комиссия указывает следующие риски.

1. Многие эксперты в области обороны призывают Соединенные Штаты как можно быстрее поставить на вооружение LAWS с управлением ИИ. По их мнению, это позволит Соединенным Штатам оставаться конкурентоспособными в конфликтах с государствами, уже эксплуатирующими LAWS с поддержкой ИИ, а также спасти жизни американцев и сократить жертвы среди гражданского населения. В то же время представители гражданского общества и многие разработчики призывают Соединенные Штаты отказаться от LAWS с поддержкой ИИ, полагая, что в противном случае Америка развяжет гонку киберфизических вооружений, управляемых ИИ, которая может привести к катастрофическим последствиям. Некоторые технические работники, обеспокоенные, что их усилия в части развития ИИ могут быть использованы в военных целях, призвали своих работодателей ограничить сотрудничество с Министерством обороны, а желательно прекратить его вообще. В то же время военные, а также руководители технологических компаний указывают, что важнейшим преимуществом Китая перед Соединёнными Штатами является участие абсолютно всех команд и коллективов разработчиков ИИ в реализации общенациональной программы военного использования ИИ. По их мнению, отказ тех или иных американских специалистов и групп от сотрудничества с Министерством обороны в области ИИ является прямым пособничеством противнику.