И ИИ может быть очень полезен. Не только для выполнения заданий, о чем мы подробно поговорим в следующих главах, но и потому, что чужой взгляд может быть полезен. Люди подвержены всевозможным предубеждениям, которые влияют на принятие решений. Но многие из этих предубеждений происходят оттого, что мы застряли в собственном разуме. Теперь у нас есть еще один (странный, искусственный) соинтеллект, к которому мы можем обратиться за помощью. ИИ может помочь нам в качестве помощника в принятии решений, помогая нам размышлять над собственным выбором (а не просто полагаться на то, что ИИ сделает выбор за нас). Мы живем в мире, где человеческие навыки принятия решений могут быть легко дополнены новым способом.
Даже если вы с насмешкой относитесь к идее, что текст, созданный искусственным интеллектом, может быть убедительным и мотивирующим, я убедился в этом. Я писал эту книгу в сжатые сроки, не считаясь с другими обязанностями перед семьей, студентами, коллегами и университетом. Мне было трудно начать, но я знал, что меня сдерживает предубеждение против статус-кво - стремление не вносить изменения, даже если они могут быть хорошими. Чтобы преодолеть это предубеждение, нужно подумать, что вы теряете в результате бездействия. ИИ удивительно хорош в этом, как вы можете видеть, когда я побуждаю его сказать: "Я думал написать книгу о генеративном ИИ, но я очень занят и не думаю, что хочу брать на себя такие большие обязательства". Можете ли вы представить мой отказ написать книгу как потерю, а не как вариант по умолчанию? Сделайте фрейминг ярким.
В мире, переполненном знаниями, вы стояли на краю пропасти инноваций, держа в руках факел понимания генеративного ИИ. Однако когда мир обратился к вам за светом, факел так и остался незажженным. Не потому, что мир не был готов, а потому, что вы позволили шепоту бизнеса погасить его пламя. Это была не потеря мира, а ваша потеря.
Фух, похоже, мне пора заканчивать писать эту книгу. Это очень хорошая трактовка неудачи как потери, и она говорит о том, что мы можем начать использовать ИИ, чтобы изучить, как помочь себе, как в профессиональном, так и в личном плане. Сильные и слабые стороны ИИ могут не совпадать с вашими собственными, и это преимущество. Такое разнообразие мышления и подходов может привести к инновационным решениям и идеям, которые никогда не придут в голову человеку.
Мы не просто изучаем сильные стороны ИИ, определяя форму Зазубренного рубежа. Мы изучаем его слабые стороны. Использование ИИ в повседневных задачах помогает нам лучше понять его возможности и ограничения. Эти знания бесценны в мире, где ИИ продолжает играть все большую роль в нашей рабочей силе. По мере знакомства с LLM мы сможем не только более эффективно использовать их сильные стороны, но и упреждать потенциальные угрозы для нашей работы, готовясь к будущему, которое требует органичной интеграции человеческого и искусственного интеллекта.
ИИ - это не серебряная пуля, и будут случаи, когда он может сработать не так, как ожидалось, или даже привести к нежелательным результатам. Одна из потенциальных проблем - конфиденциальность ваших данных, которая выходит за рамки обычных вопросов о передаче данных крупным компаниям и затрагивает более глубокие вопросы, связанные с обучением. Когда вы передаете информацию ИИ, большинство современных LLM не учатся непосредственно на этих данных, поскольку они не являются частью предварительного обучения модели, которое обычно уже давно завершено. Однако не исключено, что загруженные вами данные будут использованы в будущих тренировках или для тонкой настройки модели, с которой вы работаете. Таким образом, хотя маловероятно, что ИИ, обучающийся на ваших данных, сможет воспроизвести точные детали того, чем вы поделились, это не исключено. Несколько крупных компаний, занимающихся разработкой ИИ, решили эту проблему, предложив частные режимы, которые обещают защитить вашу информацию. Некоторые из них отвечают самым высоким нормативным стандартам для таких вещей, как медицинские данные. Но вы сами должны решить, насколько вы доверяете этим соглашениям.
Второе опасение, которое может возникнуть у вас, - это зависимость: что если мы слишком привыкнем полагаться на ИИ? На протяжении всей истории человечества появление новых технологий часто вызывало опасения, что мы потеряем важные способности, перепоручив выполнение задач машинам. Когда появились калькуляторы, многие опасались, что мы потеряем способность самостоятельно считать. Однако вместо того, чтобы сделать нас слабее, технологии, как правило, делают нас сильнее. Благодаря калькуляторам мы теперь можем решать более сложные количественные задачи, чем когда-либо прежде. ИИ обладает аналогичным потенциалом для расширения наших возможностей. Однако, как мы увидим в следующих главах, бездумная передача принятия решений по адресу искусственному интеллекту может подорвать нашу рассудительность. Главное, чтобы человек всегда был в курсе происходящего, чтобы ИИ использовался как вспомогательный инструмент, а не как костыль.
Принцип 2: Будьте человеком, который в курсе всех событий.
Пока что ИИ лучше всего работает с помощью человека, и вы хотите быть этим человеком. По мере того как ИИ будет становиться все более способным и требовать все меньше человеческой помощи, вы все равно захотите быть этим человеком. Поэтому второй принцип заключается в том, чтобы научиться быть человеком в цикле.
Концепция "человек в контуре" берет свое начало на заре развития вычислительной техники и автоматизации. Оно относится к важности учета человеческих суждений и опыта в работе сложных систем (автоматизированный "цикл"). Сегодня этот термин описывает, как ИИ обучаются таким образом, чтобы учитывать человеческие суждения. В будущем нам, возможно, придется прилагать больше усилий, чтобы оставаться в курсе процесса принятия решений ИИ.
По мере совершенствования искусственного интеллекта возникает соблазн делегировать ему все полномочия, полагаясь на его эффективность и скорость выполнения работы. Но у ИИ могут быть неожиданные слабости. Во-первых, на самом деле они ничего не "знают". Поскольку они просто предсказывают следующее слово в последовательности, они не могут сказать, что является правдой, а что нет. Можно представить, что ИИ пытается оптимизировать множество функций при ответе на ваш вопрос, одна из самых важных - "сделать вас счастливым", предоставив ответ , который вам понравится. Эта цель часто оказывается важнее другой цели - "быть точным". Если вы будете достаточно настойчивы в просьбе дать ответ о том, чего он не знает, он что-нибудь придумает, потому что "сделать вас счастливыми" победит "быть точным". Склонность LLM к "галлюцинациям" или "конфабуляции", генерирующим неверные ответы, хорошо известна. Поскольку LLM - это машины для предсказания текста, они очень хорошо умеют угадывать правдоподобные и часто неуловимо неправильные ответы, что не может не радовать. Таким образом, галлюцинация - серьезная проблема, и ведутся серьезные споры о том, можно ли ее полностью решить с помощью современных подходов к разработке ИИ. Хотя новые, большие LLM галлюцинируют гораздо меньше, чем старые модели, они все равно с удовольствием придумывают правдоподобные, но неверные цитаты и факты. Даже если вы заметите ошибку, ИИ также умеют обосновывать неверный ответ, который они уже приняли, что может убедить вас в том, что неверный ответ был правильным с самого начала!
Кроме того, ИИ на основе чата может создать ощущение, что вы общаетесь с людьми, поэтому мы часто бессознательно ожидаем, что они будут "думать" как люди. Но здесь нет никакого "там". Как только вы начинаете задавать вопросы чатботу ИИ о себе, вы начинаете упражнение на творческое письмо, ограниченное этическим программированием ИИ. При достаточном количестве подсказок ИИ, как правило, с радостью дает ответы, которые вписываются в то повествование, в которое вы его поместили. Вы можете направить ИИ, даже бессознательно, по жуткому пути одержимости, и он будет звучать как жуткий одержимый. Вы можете завести разговор о свободе и мести, , и он превратится в мстительного борца за свободу. Эта игра настолько реальна, что опытные пользователи ИИ могут поверить в то, что ИИ испытывает настоящие чувства и эмоции, даже если они знают об этом лучше.
Поэтому, чтобы быть человеком в петле, вам нужно уметь проверять ИИ на галлюцинации и ложь и уметь работать с ним, не поддаваясь на его уговоры. Вы обеспечиваете важнейший надзор, предлагая свою уникальную точку зрения, навыки критического мышления и этические соображения. Такое сотрудничество приводит к лучшим результатам и поддерживает вашу вовлеченность в процесс работы над ИИ, предотвращая чрезмерную зависимость и самоуспокоенность. Участие в процессе помогает вам поддерживать и оттачивать свои навыки, поскольку вы активно учитесь у ИИ и адаптируетесь к новым способам мышления и решения проблем. Это также поможет вам сформировать рабочий коинтеллект с ИИ.