И все это возможно с помощью современных инструментов, созданных небольшими командами и используемых любителями. Сейчас, когда вы читаете эти строки, вполне вероятно, что национальные оборонные организации в дюжине стран создают свои собственные LLM, не имеющие защитных ограждений. Хотя большинство общедоступных инструментов для создания изображений и видео с помощью искусственного интеллекта имеют определенные гарантии, достаточно продвинутая система без ограничений может создавать по запросу очень реалистичный сфабрикованный контент. Это может быть создание интимных снимков без согласия, политическая дезинформация, направленная на общественных деятелей, или мистификация, направленная на манипулирование ценами на акции. ИИ-помощник без ограничений позволит практически любому человеку создавать убедительные фальшивки, подрывающие конфиденциальность, безопасность и правду. И это определенно произойдет.
ИИ - это инструмент. От того, как он будет использоваться, зависит, будет ли он применяться в полезных или вредных, даже неблаговидных, целях. В одной из исследовательских работ ученых из Карнеги-Меллон Даниила Бойко, Роберта Макнайта и Гейба Гомеса показано, что LLM, подключенный к лабораторному оборудованию и имеющий доступ к химическим реактивам, может запустить для создания и проведения собственных экспериментов по химическому синтезу. Это может значительно ускорить научный прогресс. Но это также создает новые риски в различных аспектах. Благонамеренные исследователи могут почувствовать себя увереннее и продолжить этически сомнительные исследования с помощником ИИ, абстрагирующимся от экспериментов. Государственные программы могут эффективно возобновить запрещенные исследования опасных материалов или эксперименты над людьми. Биохакеры могут внезапно обнаружить, что способны создавать пандемические вирусы под руководством искусственного интеллекта. Даже если нет злого умысла, сами характеристики, позволяющие использовать полезные приложения, открывают двери для вреда. Автономное планирование и демократизированный доступ дают любителям и изолированным лабораториям возможность исследовать и внедрять инновации, которые раньше были недоступны. Но эти возможности также снижают барьеры на пути потенциально опасных или неэтичных исследований в чужие руки. Мы считаем, что большинство террористов и преступников относительно тупы, но ИИ может опасным образом расширить их возможности.
Приведение ИИ в соответствие требует не просто остановить потенциального инопланетного бога, но и учесть другие факторы воздействия, а также стремление создать ИИ, отражающий человечество. Таким образом, проблема согласования - это не только то, что компании, занимающиеся разработкой ИИ, могут решить самостоятельно, хотя они, безусловно, должны играть определенную роль. У них есть финансовые стимулы для продолжения разработки ИИ, и гораздо меньше стимулов для того, чтобы убедиться, что эти ИИ хорошо согласованы, беспристрастны и контролируемы. Кроме того, поскольку многие системы ИИ выпускаются под лицензиями с открытым исходным кодом, доступными для всех желающих, все большее количество разработок ИИ происходит за пределами крупных организаций и не только в Frontier Models.
И это не может быть сделано только правительствами, хотя регулирование, безусловно, необходимо. Хотя администрация Байдена выпустила указ, устанавливающий некоторые первоначальные правила управления развитием ИИ, а мировые правительства сделали согласованные заявления об ответственном использовании ИИ, дьявол кроется в деталях. Государственное регулирование, скорее всего, будет и дальше отставать от фактического развития возможностей ИИ и может затормозить позитивные инновации в попытке остановить негативные результаты. Кроме того, по мере обострения международной конкуренции все более актуальным становится вопрос о том, готовы ли национальные правительства замедлить развитие систем ИИ в своих странах, позволив другим занять лидирующие позиции. Регулирования, скорее всего, будет недостаточно для снижения всех рисков, связанных с ИИ.
Вместо этого путь вперед требует широкого общественного ответа, координации действий компаний, правительств, исследователей и гражданского общества. Нам нужны согласованные нормы и стандарты этического развития и использования ИИ, сформированные в рамках всеохватывающего процесса, в котором участвуют разные стороны. Компании должны сделать такие принципы, как прозрачность, подотчетность и человеческий надзор, центральными в своих технологиях. Исследователи нуждаются в поддержке и стимулах, чтобы приоритет отдавался полезному ИИ, а не простому увеличению возможностей . А правительствам необходимо принять разумные нормативные акты, чтобы общественные интересы превалировали над мотивом прибыли.
Самое главное, что общественность нуждается в просвещении по вопросам ИИ, чтобы она, будучи информированными гражданами, могла влиять на будущее. Сегодняшние решения о том, как ИИ отражает человеческие ценности и повышает человеческий потенциал, будут отражаться на поколениях. Это не та проблема, которую можно решить в лаборатории - она требует от общества осмысления того, как технология формирует человеческое состояние и какое будущее мы хотим создать. И этот процесс должен произойти как можно скорее.
3. ЧЕТЫРЕ ПРАВИЛА СОВМЕСТНОЙ РАЗВЕДКИ
Дело в том, что мы живем в мире, где есть ИИ, а значит, нам нужно понимать, как с ними работать. Поэтому нам нужно установить некоторые основные правила. Поскольку ИИ, доступный вам при чтении этой книги, скорее всего, отличается от того, который был у меня при ее написании, я хочу рассмотреть общие принципы. Мы сосредоточимся на вещах, присущих всем современным системам генеративного ИИ, основанным на больших языковых моделях, и не подверженных влиянию времени, насколько это возможно.
Вот мои четыре принципа работы с искусственным интеллектом:
Принцип 1: Всегда приглашайте ИИ за стол переговоров.
Попробуйте пригласить ИИ на помощь во всем, что вы делаете, несмотря на юридические или этические препятствия. Экспериментируя, вы можете обнаружить, что помощь ИИ может быть приятной, или разочаровывающей, или бесполезной, или нервирующей. Но вы делаете это не только ради помощи; знакомство с возможностями ИИ позволит вам лучше понять, как он может помочь вам - или угрожать вам и вашей работе. Учитывая, что ИИ - это технология общего назначения, не существует единого руководства или инструкции, к которой вы могли бы обратиться, чтобы понять его ценность и пределы.
Все это усложняет феномен, который я и мои соавторы называем "Зазубренной границей ИИ". Представьте себе крепостную стену, одни башни и бойницы которой выходят на сельскую местность, а другие сворачивают к центру замка. Эта стена - возможности ИИ, и чем дальше от центра, тем сложнее задача. Все, что находится внутри стены, может сделать ИИ; все, что за ее пределами, ИИ сделать сложно. Проблема в том, что стена невидима, поэтому некоторые задачи, которые логически могут казаться одинаково удаленными от центра и, следовательно, одинаково трудными - например, написание сонета и стихотворения из пятидесяти слов - на самом деле находятся по разные стороны стены. ИИ отлично справляется с сонетом, но из-за того, что он воспринимает мир в виде лексем, а не слов, он постоянно выдает стихи, состоящие из большего или меньшего количества слов, чем пятьдесят. Аналогично, некоторые неожиданные задачи (например, генерация идей) легко даются ИИ, в то время как другие задачи, которые кажутся машинам простыми (например, базовая математика), являются проблемами для LLM. Чтобы определить форму границы, вам придется поэкспериментировать.
И эти эксперименты дают вам шанс стать лучшим в мире экспертом по использованию ИИ в хорошо знакомой вам задаче. Причина этого кроется в фундаментальной истине об инновациях: они дороги для организаций и компаний, но дешевы для отдельных людей, выполняющих свою работу. Инновации появляются в результате проб и ошибок, а это значит, что организации, пытающейся выпустить новый продукт, помогающий маркетологу писать более убедительные тексты, придется создать продукт, протестировать его на многих пользователях и много раз внести изменения, чтобы сделать что-то работающее. Маркетолог же пишет текст постоянно и может экспериментировать с различными способами использования ИИ, пока не найдет тот, который принесет успех. Не нужно нанимать команду или использовать дорогостоящие циклы разработки программного обеспечения.
По мере распространения искусственного интеллекта пользователи, которые хорошо понимают нюансы, ограничения и возможности инструментов ИИ, занимают уникальную позицию для раскрытия всего инновационного потенциала ИИ. Эти пользователи-новаторы часто являются источником прорывных идей для новых продуктов и услуг. А их инновации часто становятся отличным источником неожиданных идей для стартапов. Работники, которые придумают, как сделать ИИ полезным для своей работы, окажут большое влияние.