Выбрать главу

Алгоритмические войны – это не просто битва искусственных интеллектов или сражение алгоритмов против алгоритмов. Это – не разрушение сайтов и критических инфраструктур как в кибервойнах, а сражение алгоритмов против алгоритмов, управляющих деятельностью и поведением людей на основе их инстинктов, предпочтений и т. п. Вероятно, в ближайшем будущем алгоритмические войны в гораздо большей степени определят сущность конфликтов, нежели традиционные факторы, такие как численность войск, уровень вооружений, диапазон использования оружия. Вычислительные сражения будут определяться превосходством в данных, вычислительных мощностях, общей устойчивостью системы, умением использовать человеческие инстинкты, стереотипы и привычки. Достижение такого будущего потребует разработки принципиально новых оперативных концепций, конструкций и способов ведения конфликтов.

Комиссия также признает, что смертоносные автономные вооруженные системы (LAWS) представляют собой важный аспект использования ИИ. Комиссия стремится понять различные точки зрения на LAWS, а также оценить риски использования этих систем другими государствами и террористическими сетями.

Главные угрозы

ИИ усиливает и ускоряет существующие угрозы, а также создает новые. Они могут возникнуть из двух аспектов: из того, что противник может сделать с ИИ, а также из непредвиденных последствий собственного использования ИИ.

Комиссия выделяет несколько основных направлений угроз.

1). Эрозия военного преимущества США. По мнению Комиссии, стратегические конкуренты, и прежде всего, Китай и Россия, стремятся максимально широко использовать ИИ, а также LAWS с ИИ в ходе своих военных операций, в рамках гибридных войн и прокси конфликтов для подрыва военного превосходства США и лишения эффективности традиционной американской стратегии сдерживания.

2). Угроза стратегической стабильности. Глобальная стабильность и ядерное сдерживание могут быть подорваны, если системы с поддержкой ИИ позволят отслеживать и наносить удары по ранее неуязвимым целям. Дестабилизация ядерного равновесия в условиях ИИ может подтолкнуть отдельные государства к принятию более агрессивных стратегий, а главное, практических действий, что чревато быстрой и, возможно, неуправляемой эскалацией локальных конфликтов.

3). Неконтролируемое распространение ИИ. По мере того, как платформы, приложения и фреймворки ИИ становятся все более доступными, растет вероятность безрассудного и неэтичного использования ИИ государствами-изгоями, агрессивными государствами и негосударственными, в том числе, террористическими субъектами. Как показывают консультации Комиссии с технологическими компаниями и университетами, уже сегодня агрессоры и преступники вполне могут создать ИИ, базируясь на выложенных в сеть свободных решениях и программах с открытым исходным кодом. Крайне угрожающим, по мнению Комиссии, является принятие решения технологическими гигантами об открытии платформ и фреймворков ИИ как ответ на их критику со стороны общественности и подозрения в злоупотреблении возможностями управления поведением. В результате этих, по большей мере, необоснованных подозрений, враждебные государства, террористы и преступники-одиночки уже сегодня могут создать не только простые, но и среднего уровня платформы, использующие ИИ. Это уже завтра станет огромной угрозой международной стабильности, целостности финансовой системы и безопасности личной жизни американцев.

4). Дезинформация и угрозы демократической системе. ИИ усиливает и без того серьезные угрозы злонамеренного управления поведением через проведение кампаний дезинформаций, а также риски осуществления киберопераций, включая действия «под чужим флагом». ИИ уже сегодня позволяет создавать deepfakes, неотличимые от подлинных фото и аудиоконтента, видеороликов и т. п. Впервые в истории люди оказываются в информационной среде, в отношении которой они не могут быть убеждены, что это реальность, а не создание манипуляторов. Все это может не только поставить под угрозу подведение итогов выборов, но, что гораздо страшнее, создать атмосферу тотального недоверия, дезинформации и агрессивности американцев, усугубить нарастающее разделение общества по обе стороны Атлантического океана.

5). Эрозия личной жизни и гражданских свобод. Новые инструменты ИИ предоставляют государствам несравнимо большие, чем раньше, возможности мониторинга, отслеживания и манипуляции поведением, как собственных граждан, так и граждан других государств. Уже в настоящее время практически на каждого жителя в развитых государствах и значительной части развивающихся имеются цифровые профили, включающие не только профессиональные, идентификационные данные, но и сведения об их поведении онлайн и офлайн, а также чувствительные персональные данные, связанные с убеждениями, религиозной принадлежностью, состоянием здоровья, психики и т. п. Внедрение ИИ в комбинации с системами видеонаблюдения и Интернетом вещей превращают весь цифровой мир в средство копирования любых следов личности и создают предпосылки для полной информационной осведомленности собственников платформ и брокеров данных о поведении, как отдельных граждан, так и любых их совокупностей. В этой связи особую тревогу Комиссии вызывает использование Китаем ИИ для создания систем тотального мониторинга поведения, включая видеонаблюдение. У Комиссии имеются задокументированные данные о том, что китайские системы размещены и работают минимум в 74 странах, включая многие либеральные демократии.