Чуть более вероятен мир, в котором нормативные или юридические меры остановят развитие ИИ в будущем. Возможно, эксперты по безопасности ИИ убедят правительства запретить разработку ИИ, дополнив это угрозами применения силы против тех, кто посмеет нарушить эти ограничения. Но, учитывая, что большинство правительств только начинают рассматривать вопрос о регулировании, а также отсутствие международного консенсуса, представляется крайне маловероятным, что глобальный запрет произойдет в ближайшее время или что регулирование заставит развитие ИИ остановиться.
Тем не менее, похоже, что большинство людей и организаций планируют именно этот сценарий. И я понимаю это отрицание. Большинство людей не просили создавать ИИ, который сможет выполнять множество задач, ранее предназначенных для людей. Учителя не хотели, чтобы почти все виды домашних заданий мгновенно решались компьютером. Работодатели не хотели, чтобы высокооплачиваемые задачи, которые имеют смысл только при выполнении человеком (оценка работы, отчетность), вместо них выполняли машины. Правительственные чиновники не хотели, чтобы совершенная система дезинформации была выпущена без каких-либо полезных контрмер. Мир стал гораздо более странным, причем очень быстро.
Поэтому неудивительно, что многие люди пытаются справиться с последствиями ИИ, полагая, что ничего не изменится, запрещая его навсегда или даже воображая, что изменения, вызванные ИИ, можно легко сдержать. Как мы уже убедились, такая политика вряд ли сработает. Хуже того, существенные преимущества ИИ будут значительно уменьшены, если пытаться делать вид, что все происходит так же, как и в предыдущие волны технологий, когда на изменения уходят десятилетия.
Даже если ИИ не будет развиваться дальше, некоторые его последствия уже неизбежны. Первые изменения, которые произойдут с ИИ, будут связаны с тем, как мы понимаем и не понимаем мир. Уже сейчас невозможно отличить сгенерированные ИИ изображения от реальных, и это просто с помощью инструментов, доступных сегодня любому человеку. Видео и голос также легко подделать. Информационная среда в Интернете станет совершенно неуправляемой, а специалисты по проверке фактов будут захлестнуты потоком информации. Создать фальшивые изображения сейчас лишь немногим сложнее, чем сделать настоящие фотографии. Каждое изображение политика, знаменитости или войны может быть выдумано - и это невозможно определить. Наш и без того хрупкий консенсус относительно того, какие факты являются реальными, скорее всего, быстро рассыплется.
Технологические решения вряд ли спасут нас. Попытки отследить происхождение изображений и видео с помощью водяных знаков, созданных ИИ , могут быть пресечены относительно простыми изменениями в основном контенте. И это при условии, что люди, подделывающие изображения и видео, используют коммерческие инструменты - идентифицировать контент, созданный ИИ, будет еще сложнее, поскольку правительства разрабатывают свои собственные системы, а модели с открытым исходным кодом распространяются все шире. Возможно, в каком-то будущем ИИ поможет нам отсеивать нечистоты, но ИИ, как известно, ненадежен в обнаружении ИИ-контента, так что это тоже кажется маловероятным.
Есть только несколько вариантов развития событий. Возможно, возродится доверие к основным СМИ, которые смогут выступать в роли арбитров, определяющих, какие изображения и истории являются настоящими, тщательно отслеживая происхождение каждой истории и артефакта. Но это кажется маловероятным. Второй вариант заключается в том, что мы еще больше разделимся на племена, веря той информации, которой хотим верить, и игнорируя как фальшивую ту, на которую не хотим обращать внимания. Вскоре даже самые элементарные факты будут вызывать споры. Этот рост все более изолированных информационных пузырей кажется гораздо более вероятным, ускоряя тенденцию, существовавшую до появления LLM. Последний вариант - полный отказ от онлайн-источников новостей, поскольку они настолько загрязнены фальшивой информацией, что перестают быть полезными. Независимо от того, в каком направлении мы двинемся, даже без достижений в области ИИ наше отношение к информации изменится.
Изменится и наше личное отношение к ИИ. Нынешние системы уже достаточно хороши, чтобы казаться человеческими, а при небольших настройках, как показывают исследования, ИИ может стать еще более увлекательным, возможно, даже тревожным. Один крупный эксперимент на платформе с миллионами пользователей показал, что обучение модели выдавать результаты , которые заставляют людей общаться, приводит к тому, что пользователи остаются на 30 % дольше, а разговоры становятся гораздо более продолжительными. Это говорит о том, что даже без технологического прогресса общение с ботами будет становиться все более интересным. Нынешние системы недостаточно хороши, чтобы стать глубокими собеседниками, но, возможно, мы начнем замечать, что люди предпочитают взаимодействовать с ИИ, а не с людьми.
И другие тенденции, о которых мы уже говорили, теперь также неизбежны. Даже если предположить, что дальнейшее совершенствование LLM не произойдет, ИИ окажет большое влияние на задачи многих работников, особенно тех, кто занят высокооплачиваемым творческим и аналитическим трудом. Однако ИИ в его нынешнем состоянии оставляет много места для задач киборгов, а человеческие способности во многих случаях превосходят возможности ИИ. Хотя работа изменится, если ИИ не будет развиваться дальше, он, скорее всего, будет работать как дополнение к человеку, облегчая бремя утомительной работы и повышая производительность, особенно среди низкоэффективных работников. Это не означает, что некоторые профессии и отрасли не окажутся под угрозой - например, большинство переводческих работ, скорее всего, будут в значительной степени вытеснены ИИ. Нынешние системы недостаточно хорошо понимают контекст, нюансы и планирование.
Скорее всего, ситуация изменится.
Сценарий 2: Медленный рост
Возможности искусственного интеллекта растут экспоненциальными темпами, но в большинстве случаев экспоненциальный рост технологий в конце концов замедляется. ИИ может преодолеть этот барьер в ближайшее время. Практически это означает, что вместо десятикратного увеличения мощности в год рост замедлится и составит, возможно, 10 или 20 процентов в год. Есть много причин, по которым это может произойти. Это и растущие расходы на обучение, и нормативные требования. Как и возможность того, что мы скоро достигнем технических пределов для больших языковых моделей, как утверждает ряд ученых, включая профессора (и главного специалиста по ИИ в Meta) Яна ЛеКуна. Это потребует от нас поиска новых технологических подходов к разработке ИИ, чтобы продолжить работу. Как бы это ни произошло, такое замедление темпов развития все равно будет впечатляющим, хотя и понятным. Вспомните, как телевизоры становятся немного лучше с каждым годом. Вам не нужно выбрасывать свой старый телевизор, но новый, скорее всего, будет намного лучше и дешевле, чем тот, который вы купили несколько лет назад. Благодаря таким линейным изменениям мы можем видеть будущее и планировать его.
Все, что происходит в сценарии 1, по-прежнему происходит. Злодеи по-прежнему используют ИИ для подделки информации в Интернете, но со временем способность ИИ выполнять более сложную работу делает их еще более опасными. Ваш электронный почтовый ящик наводняется точно рассчитанными на вас целевыми сообщениями (рекламные компании уже делают персонализированные видеоролики для миллионов пользователей с помощью ИИ), некоторые из которых являются мошенничеством или попытками фишинга. Вы получаете телефонные звонки голосом близких людей, которые просят деньги под залог. Во время следующей войны каждый сотрудник министерства обороны начинает получать очень специфические текстовые сообщения с угрозами, в которых содержатся сгенерированные ИИ видеоролики с изображением их семьи. Некомпетентные преступники и террористы используют способность ИИ повышать производительность, чтобы стать более эффективными убийцами.
Такие возможности пугают, но, поскольку ИИ развивается размеренными темпами, худшие варианты развития событий могут и не произойти. Первые инциденты, когда ИИ используется для создания опасных химикатов или оружия, могут привести к эффективному регулированию, чтобы замедлить распространение опасных применений. Коалиции компаний и правительств или, возможно, сторонники конфиденциальности с открытым исходным кодом могли бы успеть разработать правила использования, которые позволят людям устанавливать свою личность таким образом, чтобы ее можно было проверить, устранив часть угрозы самозванства.