Кроме того, подход "человек в контуре" способствует развитию чувства ответственности и подотчетности. Активно участвуя в процессе создания ИИ, вы сохраняете контроль над технологией и ее последствиями, обеспечивая соответствие решений на основе ИИ человеческим ценностям, этическим стандартам и социальным нормам. Кроме того, вы несете ответственность за результаты работы ИИ, что может помочь предотвратить причинение вреда. А если ИИ продолжит совершенствоваться, то умение быть человеком, который в курсе всех событий, означает, что вы раньше других заметите искры растущего интеллекта, что даст вам больше шансов адаптироваться к грядущим изменениям, чем людям, которые не работают с ИИ в тесном контакте.
Принцип 3: Относитесь к ИИ как к человеку (но расскажите ему, что он за человек).
Я собираюсь совершить грех. И не один раз, а много-много раз. До конца этой книги я собираюсь антропоморфировать ИИ. Это значит, что я перестану писать, что "ИИ "думает" что-то", а вместо этого буду писать, что "ИИ думает что-то". Отсутствие кавычек может показаться тонким различием, но оно очень важно. Многие эксперты очень нервно относятся к антропоморфизации ИИ, и на то есть веские причины.
Антропоморфизм - это приписывание человеческих черт тому, что не является человеком. Мы склонны к этому: мы видим лица в облаках, наделяем погоду мотивами и ведем беседы с нашими домашними животными. Поэтому нет ничего удивительного в том, что мы склонны антропоморфировать искусственный интеллект, тем более что общение с LLM очень похоже на общение с человеком. Даже разработчики и исследователи, создающие эти системы, могут попасть в ловушку, используя человекоподобные термины для описания своих творений. Мы говорим, что эти сложные алгоритмы и вычисления " понимают", "учатся" и даже "чувствуют", создавая ощущение знакомости и родственности, но также, возможно, путаницы и непонимания.
Это может показаться глупым поводом для беспокойства. В конце концов, это всего лишь безобидная причуда человеческой психологии, свидетельство нашей способности к сопереживанию и общению. Но многие исследователи глубоко обеспокоены последствиями непринужденного поведения ИИ как человека, как с этической, так и с эпистемологической точки зрения. Как предупреждают исследователи Гэри Маркус и Саша Лучиони, " чем больше ложных полномочий люди им приписывают, тем больше их можно эксплуатировать".
Вспомните человекоподобный интерфейс таких ИИ, как Claude или Siri, или социальных роботов и терапевтических ИИ, явно создающих иллюзию сочувствующего человека на другой стороне. Хотя антропоморфизм может служить полезной цели в краткосрочной перспективе, он поднимает этические вопросы об обмане и эмоциональном манипулировании. Не обманывают ли нас, заставляя поверить, что эти машины разделяют наши чувства? И может ли эта иллюзия привести к тому, что мы сообщим этим машинам личную информацию, не понимая, что делимся ею с корпорациями или удаленными операторами?
Отношение к ИИ как к человеку может породить нереалистичные ожидания, ложное доверие или необоснованный страх среди общественности, политиков и даже самих исследователей. Оно может затушевать истинную природу ИИ как программного обеспечения, что приведет к неверным представлениям о его возможностях. Это может даже повлиять на то, как мы взаимодействуем с системами ИИ, отразиться на нашем самочувствии и социальных отношениях.
Поэтому в следующих главах, когда я говорю, что ИИ "думает", "учится", "понимает", "принимает решения" или "чувствует", пожалуйста, помните, что я говорю метафорически. У систем ИИ нет сознания, эмоций, самоощущения или физических ощущений. Но я буду делать вид, что они есть, по одной простой и одной сложной причине. Простая причина - повествовательная; трудно рассказать историю о вещах и гораздо легче - о существах. Более сложная причина: как бы несовершенна ни была аналогия, работать с ИИ проще всего, если думать о нем как о человеке-инопланетянине, а не как о машине, созданной человеком.
Так что давайте начнем грешить. Представьте, что ваш ИИ-сотрудник - это бесконечно быстрый стажер, стремящийся угодить, но склонный к искажению истины. Несмотря на то, что мы привыкли считать ИИ бесчувственными, логичными роботами, LLM больше похожи на людей. Они могут быть креативными, остроумными и убедительными, но также могут уклоняться и придумывать правдоподобную, но неверную информацию, когда их заставляют дать ответ. Они не являются экспертами ни в одной области, но могут подражать языку и стилю экспертов, что может быть как полезным, так и вводящим в заблуждение. Они не знают реального мира, но могут генерировать правдоподобные сценарии и истории, основанные на здравом смысле и закономерностях. Они не являются вашими друзьями (пока что), но могут адаптироваться к вашим предпочтениям и личности, изучая ваши отзывы и взаимодействия. Похоже, они даже реагируют на эмоциональные манипуляции: исследователи зафиксировали, что LLM дают лучшие ответы, если вы говорите им "это важно для моей карьеры" в качестве части вашей подсказки. Одним словом, они внушаемы и даже доверчивы.
Чтобы извлечь максимум пользы из этих отношений, необходимо создать четкую и конкретную персону ИИ, определив, кто такой ИИ и какие проблемы он должен решать. Помните, что LLM работают, предсказывая следующее слово или часть слова, которое последует за вашей подсказкой. Затем они продолжают добавлять язык, снова предсказывая, какое слово будет следующим. Поэтому стандартный вывод многих таких моделей может звучать очень шаблонно, так как они склонны следовать схожим шаблонам, характерным для письменных документов, на которых обучался ИИ. Разрушив шаблон, можно получить гораздо более полезные и интересные результаты. Самый простой способ сделать это - предоставить контекст и ограничения. Можно сказать системе, кто она, потому что это дает ей перспективу. Если попросить ее выступить в роли преподавателя для студентов MBA, результат будет отличаться от того, если попросить ее выступить в роли циркового клоуна. Это не волшебство - вы не можете сказать "Выступить в роли Билла Гейтса" и получить лучший бизнес-консультант, - но это может помочь сделать тон и направление соответствующими вашей цели.
Позвольте мне привести несколько примеров того, как определение персоны ИИ может улучшить ваши результаты. Предположим, вы директор по маркетингу и хотите использовать LLM для создания запоминающихся слоганов для вашего нового продукта - смарт-часов, которые отслеживают состояние вашего здоровья и физической формы. Если вы просто попросите LLM сгенерировать несколько слоганов для моего продукта, без какого-либо контекста или ограничений, вы можете получить что-то вроде этого:
Смарт-часы, которые делают вас умнее
Ваш партнер по фитнесу и здоровью
Устройство, идеально подходящее для вашего образа жизни
Оставайтесь на связи и будьте здоровы с нашими смарт-часами
Смарт-часы, которые делают все
Они не отличаются оригинальностью или запоминаемостью. Они звучат как общие маркетинговые фразы, которые можно применить к любым смарт-часам или носимым устройствам. Они не отражают того, что делает ваш продукт уникальным или привлекательным. Теперь предположим, что вы задаете LLM определенный контекст и ограничения, говоря ему, кто он такой и что должен делать. Например, вы можете сказать: "Выступите в роли остроумного комика и придумайте несколько слоганов для моего продукта, которые заставят людей смеяться". Тогда вы можете получить что-то вроде: Универсальное устройство для ленивых людей, которые хотят выглядеть подтянутыми. Или: Зачем нанимать персонального тренера, если ваше запястье может пилить вас бесплатно? (Хотя, как вы, наверное, понимаете, большинство ИИ предпочитают оставаться на территории "Папиных шуток").
Конечно, не обязательно, чтобы ИИ выступал в роли комика, если это не ваш стиль или цель. Вы также можете попросить его выступить в роли эксперта, друга, критика, рассказчика или в любой другой роли, которая соответствует вашим целям. Главное - дать LLM некоторые указания и направления, как генерировать результаты, соответствующие вашим ожиданиям и потребностям, чтобы привести его в нужное "состояние" и дать вам интересные и уникальные ответы. Исследования показали, что , предлагая ИИ соответствовать различным персоналиям, дает разные, а зачастую и лучшие ответы. Однако не всегда ясно, какие персоны работают лучше всего, и LLM могут даже незаметно адаптировать свою персону к вашей технике задавания вопросов, давая менее точные ответы людям, которые кажутся менее опытными, поэтому эксперименты являются ключевым моментом.
Как только вы дадите ему личность, вы сможете работать с ним так же, как с другим человеком или стажером. Я убедился в ценности такого подхода на практике, когда поручил своим студентам "схитрить", используя искусственный интеллект для создания эссе из пяти параграфов на актуальную тему. Поначалу студенты давали простые и расплывчатые подсказки, в результате чего получались посредственные эссе. Но по мере того как они пробовали разные стратегии, качество работы ИИ значительно улучшилось. Одна из очень эффективных стратегий, которая была выработана в ходе занятий, заключалась в том, чтобы рассматривать ИИ как соредактора, участвуя в процессе обсуждения в режиме "спина к спине". Студенты создавали впечатляющие эссе, которые значительно превосходили их первоначальные попытки, постоянно корректируя и перенаправляя ИИ.