В сентябре 2020 года, спустя почти десять лет после нашего первого разговора, мы с Арни опубликовали всеобъемлющий обзор наших исследований под названием "Освещение темных пространств здравоохранения с помощью Ambient Intelligence". В нем мы представили наше полное видение интеллектуальных датчиков, которые расширяют сознание врачей и медсестер, позволяя им отслеживать хаос медицинской среды с невиданными ранее масштабами и последовательностью.
В статье описывается, какую роль может сыграть окружающий интеллект в улучшении ухода за пожилыми людьми, помощи в лечении хронических заболеваний, выявлении симптомов психических расстройств, отслеживании использования хирургических инструментов в течение всей операции, поддержании гигиены врача в течение всей смены и многом другом. И эта статья была опубликована не в журнале, посвященном компьютерным наукам, искусственному интеллекту или обработке информации, а в Nature, возможно, самом известном журнале во всей науке. Это было напоминание о том, что лучшая работа часто выполняется в общем пространстве науки в целом - в глобальном сотрудничестве, которое без колебаний преодолевает границы, - а не в "пузырях" наших собственных областей.
Я гордился этой работой, но впереди меня ждал долгий путь. Всего через пару месяцев после выхода обзора Nature, в декабре, журнал The Lancet опубликовал своеобразное опровержение под названием "Этические проблемы использования окружающего интеллекта в здравоохранении". Это была откровенная и тщательно аргументированная статья, в которой не было никаких штампов и предлагалось честное, но строгое рассмотрение последствий нашей работы. По словам авторов, потенциал окружающего интеллекта для повышения качества оказания медицинской помощи был сопряжен со "спектром этических проблем", многие из которых связаны с масштабным сбором данных, новыми проблемами конфиденциальности и, с более философской точки зрения, с природой информированного согласия в среде таких иммерсивных, децентрализованных технологий мониторинга. Хотя читать критику собственной работы всегда нелегко, эта статья была именно тем видом этического дискурса, который нужен ИИ, и я со многим в ней согласился.
Ambient intelligence, скорее всего, всегда будет основой исследований моей лаборатории, и достаточно взглянуть на моих родителей, чтобы вспомнить, почему я считаю эту работу такой важной. Именно поэтому даже сейчас я посвящаю определенную часть каждого дня тому, чтобы быть в курсе последних экспериментов, испытаний и изменений в законодательстве. Но когда я размышляю о том, как быстро развивалась наша область в последние несколько лет - прорывы в распознавании объектов, создание человекоподобных описаний фотографий и даже видео, - мне становится все труднее игнорировать общую мысль: при всей изощренности этих методов они, по сути, сводятся к пассивному наблюдению. В той или иной форме каждый из них представляет собой экземпляр алгоритма, рассказывающего нам о том, что он видит. Наши модели научились наблюдать, иногда очень подробно и с поразительной точностью, но не более того. Конечно, думаю я в последнее время, что-то должно лежать за пределами этого.
"Эй, помнишь, о чем ты спросил меня пару лет назад в первый день занятий? Мне интересно, остался ли он с тобой".
Кофе-брейк закончился, и мы со студентом возвращались в лабораторию, держа в руках бумажные стаканчики с крышками.
"Вообще-то да", - улыбнувшись, напомнил он. "Я спросил вас, какое отношение этика имеет к этим вещам".
"Ну?" Я улыбнулся в ответ. "Думаете, вы нашли ответ?"
Он вздохнул, глядя на небо, краски которого потускнели, когда полдень сменился ранним вечером.
"Честно? Не совсем. И я определенно думала об этом. Как я мог не думать? В последнее время об этом говорят во всех новостях. Я даже ходила на занятия к профессору Райху".
Он имел в виду курс "Компьютеры, этика и государственная политика", созданный компьютерщиком Мехраном Сахами, ученым-политологом Джереми Вайнштейном и Робом Райхом, политологом и этиком, который до сих пор является одним из основателей HAI. Я кивнул.