То, что верно в отношении подделки денег, должно быть верно и в отношении подделки людей. Если правительства принимают решительные меры для защиты доверия к деньгам, то имеет смысл принять столь же решительные меры для защиты доверия к людям. До появления искусственного интеллекта один человек мог выдавать себя за другого, и общество наказывало таких мошенников. Но общество не потрудилось объявить вне закона создание поддельных людей, поскольку технологии для этого не существовало. Теперь, когда ИИ может выдавать себя за человека, это грозит разрушить доверие между людьми и расшатать ткань общества. Поэтому Деннетт предлагает правительствам объявить фальшивых людей вне закона так же решительно, как ранее они объявили вне закона фальшивые деньги.
Закон должен запрещать не только глубокое подделывание реальных людей - например, создание фальшивого видео с президентом США, - но и любые попытки нечеловеческого агента выдать себя за человека. Если кто-то жалуется, что такие строгие меры нарушают свободу слова, ему следует напомнить, что у ботов нет свободы слова. Запрет людей на публичных площадках - деликатный шаг, и демократические страны должны быть очень осторожны с такой цензурой. Однако запрет ботов - это простой вопрос: он не нарушает ничьих прав, потому что у ботов нет прав.
Все это не означает, что демократические страны должны запретить всем ботам, алгоритмам и искусственным интеллектам участвовать в любых дискуссиях. Цифровые инструменты могут участвовать во многих дискуссиях, если они не выдают себя за людей. Например, врачи с искусственным интеллектом могут быть очень полезны. Они могут следить за нашим здоровьем двадцать четыре часа в сутки, давать медицинские советы с учетом индивидуальных особенностей здоровья и характера пациента, а также отвечать на наши вопросы с бесконечным терпением. Но ИИ-врач никогда не должен пытаться выдать себя за человека.
Еще одна важная мера, которую могут принять демократические страны, - запретить алгоритмам, не поддающимся контролю, курировать ключевые общественные дискуссии. Мы, конечно, можем продолжать использовать алгоритмы для управления платформами социальных сетей; очевидно, что ни один человек не может этого сделать. Но принципы, по которым алгоритмы решают, какие голоса следует заглушить, а какие усилить, должны проверяться человеческим институтом. Хотя мы должны быть осторожны с цензурой подлинных человеческих взглядов, мы можем запретить алгоритмам намеренно распространять возмущение. По крайней мере, корпорации должны быть прозрачны в отношении принципов курирования, которым следуют их алгоритмы. Если они используют возмущение, чтобы привлечь наше внимание, пусть они четко объяснят свою бизнес-модель и любые политические связи, которые у них могут быть. Если алгоритм систематически удаляет видео, которое не соответствует политической повестке дня компании, пользователи должны знать об этом.
Это лишь некоторые из многочисленных предложений, выдвинутых в последние годы, о том, как демократические страны могли бы регулировать участие ботов и алгоритмов в общественных дискуссиях. Естественно, у каждого из них есть свои преимущества и недостатки, и ни одно из них не будет легко реализовать. Кроме того, поскольку технология развивается так быстро, правила, скорее всего, быстро устареют. Я хотел бы подчеркнуть, что демократические страны могут регулировать информационный рынок и что от этого зависит их выживание. Наивный взгляд на информацию выступает против регулирования и считает, что полностью свободный информационный рынок будет спонтанно генерировать истину и порядок. Это совершенно не соответствует реальной истории демократии. Сохранение демократического диалога никогда не было легким делом, и все места, где он происходил - от парламентов и мэрий до газет и радиостанций, - требовали регулирования. Это вдвойне верно в эпоху, когда чужеродная форма интеллекта угрожает доминировать в разговоре.