«Биоэтика – как желтый сигнал светофора: ехать можно, но нужно осознавать риски»

Современную медицину невозможно представить без новых технологий. Но вместе с очевидной пользой инновации приносят и страх. Что будет, если ученые клонируют человека? Можно ли редактировать геном? Этические проблемы во взаимодействии врача и пациента изучает наука биоэтика. О роли искусственного интеллекта в современной медицине мы поговорили с одним из ведущих специалистов России по биоэтике Еленой Брызгалиной.

Моральные ценности — это ведь не высеченные в камне скрижали,
содержание «блага» может меняться в зависимости от социально-экономической ситуации и личных обстоятельств. Границы добра и зла выглядят иначе с позиций врача и пациента, его здорового родственника и судьбы нерожденного ребенка.

— Искусственный интеллект в медицине применяется все активнее. Цифровой разум уже помогает диагностировать заболевания. А как еще помогает врачам ИИ?
— Медицина и образование — именно те сферы, где применение систем искусственного интеллекта рассматривается как наиболее перспективное. Использование ИИ трансформирует не только медицинскую науку, но и здравоохранение в целом. Медицина переходит на новую парадигму, ориентированную на персонализацию, предикцию (выявление предрасположенности к болезням. — Прим. ред.) и превенцию (предотвращение и профилактика заболеваний. — Прим. ред.), на диалог между врачом и пациентом. Это требует цифровизации медицинской информации, внедрения систем поддержки врачебных решений, управленческих инструментов. ИИ сможет помочь в создании максимально полных моделей нормальных и патологических процессов, популяцион­ных карт распространения патологий и индивидуальных моделей организмов пациентов — так называемых цифровых аватаров. ИИ поможет разработать новые диагностические инструменты и средства лечения. Однако с приходом в медицину систем ИИ обострятся вопросы охраны здоровья и понимания здоровья как общественного блага, усилится внимание к защите чувствительной персональной информации.

— Какие еще есть риски? Если, например, ИИ неверно диагностирует заболевание и даст неправильные рекомендации по лечению, кто будет виноват?
— Риски есть. Это и возможность принятия ИИ ошибочных решений при неполноте или некорректности данных. И несоответствие понимания блага пациентом и системой ИИ при рекомендации средств лечения. И несанкционированный доступ третьих лиц к медицинской информации, и, наконец, использование ИИ в злонамеренных целях. Сейчас эти риски активно обсуждаются на разных экспертных площадках, например, Наффилдским советом по биоэтике — это одна из самых известных ­биоэтических институций в мире.

Проблема ответственности тоже обсуждается. Использование ИИ в медицине подвергает поставщиков медицинских услуг повышенным рискам привлечения к ответственности за причинение вреда, который может возникнуть, например, в результате сбоя в работе такой системы или выдачи рекомендаций на основании фактических неточностей. Известно, что на этапе обучения суперкомпьютер Watson (IBM) давал ошибочные и опасные для жизни пациентов рекомендации при анализе опухолей. Одним из примеров стал случай 65-летнего мужчины, которому врачи поставили диагноз «рак легких» и у которого обнаружили мощное крово­течение. Watson предложил назначить мужчине химиотерапию и препарат «Бевакизумаб», однако этот препарат может привести к смертельному кровотечению, а ИИ этого не учел.

Как решить проблему ответственности? Тут есть разные сценарии: ввести ответственность не врача, а медицинской организации; застраховать врача при ошибке системы ИИ; повысить ответственность пациента за полноту информации о его здоровье.

— Нет ли опасения, что развитие ИИ сделает профессию врача менее значимой? Ведь уже сейчас пациенты часто приходят в больницу и говорят, что «нагуглили» диагноз и знают, как лечить. И не станут ли сами медики менее профессиональными? Или, может быть, образование трансформируется?
— Когда между врачом и пациентом появляется посредник в виде системы ИИ, личные отношения между людьми меняются. Если врач знает, что ИИ выдает корректные рекомендации в 98% случаев, будет ли он одинаково внимательно в каждом случае перепроверять систему или позволит себе расслабиться? Скорее второе.

Обучение таких систем требует больших массивов данных и примеров (то есть ответов: патология это или норма), а их распространение может стать фактором снижения среднего уровня квалификации врачей. И в итоге может возникнуть ситуация, когда врачей, способных дать для обучения системы ИИ пул достоверных примеров, просто не окажется.

Конечно, вопросы взаимодействия с системами ИИ, этики коммуникации с пациентами, правила цифровой безопасности должны быть включены в профессиональную подготовку и программы повышения квалификации медработников.

Что касается доступности медицинской информации, то врачи должны осваивать современные коммуникативные практики. От позиции пациента, «погуглившего» диагноз или получившего информацию о показателях организма через селф-трекинг, медицина сегодня не может отмахнуться. Система жестких плановых ограничений времени приема должна уйти в прошлое, ведь эффективность решения во многом зависит от общения врача и пациента. Врачу надо увидеть в пациенте личность со своей системой ценностей, проблемами и пониманием блага и применить эти знания для обсуждения вариантов медицин­ского вмешательства. Это одна из ключевых компетенций врача, которая станет еще более актуальной при расширении применения систем ИИ.

Отмечу, что использование систем ИИ в медицине трансформирует социальные отношения во многих других сферах. Как гарантировать свободу воли человека при профориентации, выборе места учебы и трудоустройства с учетом медицинских рекомендаций и цифровых следов, зафиксированных ИИ? Определение вероятности развития определенных заболеваний придаст человеку статус «больного в ­ожидании» — как это может сказаться при страховании жизни и здоровья? А в профессиональных и личных отношениях? Риски внедрения ИИ связаны не только с возможным ущемлением автономии и достоинства пациентов, нарушением конфиденциальности медицинской информации, но и с возможной дискриминацией, углублением неравенства и несправедливости в обществе в целом.

— Стартап Neuralink Илона Маска разрабатывает «цифровой слой над корой головного мозга». Сразу несколько компаний работают над «протезами памяти» — делают что-то вроде внешнего хранилища данных, из которого потом можно будет загружать информацию прямо в мозг. Цели у всех разработчиков вполне себе благие и добрые. А что говорит наука биоэтика о подобных разработках?
— Нейроэтика как разновидность био­этики (хотя есть споры о предмете этих дисциплин) достаточно скептически настроена относительно нейротехнологий, сращивающих тела человека с кибернетическими системами с целями, выходящими за пределы терапии — например, ради улучшения человека. Организм человека целостный и сложный, включая мозг. Нельзя точно описать полные и отдаленные последствия инвазивных вмешательств — как прямые, так и побочные. Биоэтика и нейроэтика настаивают на принципах предосторожности и ответственности как ключевых маяках при кибергизации человеческой телесности. Перевод сознания на небиологические носители обсуждается как далекая перспектива. Но она связана с разрушением природы человека, и с позиции биоэтики от нее надо воздержаться.

— Поговорим о том, что уже существует. В 2017 году впервые отредактировали геном человека. А в 2018-м китайский ученый Хэ Цзянькуй объявил, что внес изменения в геном двух девочек. Получается, появились генно-модифицированные люди. Ученого сравнили с Франкенштейном и посадили на три года, но в обществе по-разному отнеслись к этой новости. Где находится эта грань между «можно» и «нельзя»?
— Во «Всеобщей декларации о геноме человека и о правах человека» (ЮНЕСКО, 1997 г.) говорится, что «телесность составляет существенный компонент реальности человеческого бытия и генетический код рассматривается как основная глубинная структура телесности». Вмешательство в эту структуру считается этически допустимым, если оно проводится в отношении соматических клеток взрослого пациента. При этом пациент должен дать информированное добровольное согласие, а изменение не будет передаваться следующим поколениям. Современная биоэтика считает, что генетические вмешательства с целью корректировки признаков следующих поколений не­этичны. Снижать риски рождения детей с теми или иными патологиями можно с помощью иных методов, например медицинского применения вспомогательных репродуктивных технологий.

Пока технология мало распространена, последствия ее применения плохо понятны, но в этот период ее можно контролировать,
а вот когда технология становится массовой, явно проявляются позитивные и негативные последствия, но контролировать технологию становится практически невозможно.

— Нет ли у вас ощущения, что в обществе спокойнее бы отнеслись к работе Хэ Цзянькуя, если бы он объявил о редактировании генома не в 2018-м, а в 2021-м? Может быть, его не посадили бы в тюрьму. Не должны ли мы нормы морали и этики тоже редактировать?
— Действительно, науке сегодня доступны решения проблем, ранее считавшихся тупиковыми. Но, пожалуй, ни одна современная биомедицинская технология не может быть признана абсолютно безвредной, не может обойтись без рисков и побочных эффектов. Это обостряет вечные вопросы: добро или зло, приемлемо или нет, для себя или для общества. Моральные ценности — это ведь не высеченные в камне скрижали, содержание «блага» может меняться в зависимости от социально-экономической ситуации и личных обстоятельств. Границы добра и зла выглядят иначе с позиций врача и пациента, его здорового родственника и судьбы нерожденного ребенка. Био­этика — это площадка для обсуждения конкретных ситуаций: правил эксперимента с участием человека, разработки экспериментальной терапии, поведения человека в моменты личного этического выбора. Биоэтика не противостоит технологиям, она призвана наладить обсуждение новых биомедицинских технологий, диалог ученых и врачей с обществом, с простыми людьми. Я сравниваю биоэтику с мигающим желтым светофором на пути технологий: ехать можно, но понимать риски, последствия и стремиться их минимизировать.

— Наука не стоит на месте, технологии становятся доступнее и дешевле. Cейчас геном, наверное, могут редактировать единицы лабораторий, а что будет, если это сможет каждая лаборатория? Как правительства, ООН и мир в целом будут контролировать цифровое вмешательство в человека?
— Не соглашусь, что технологии редактирования генома пока малодоступны. Например, биохакер Джошуа Зайнер создал и продает набор инструментов и материалов для редактирования генома бактерий в домашних условиях. Гражданская наука вовлекает в исследования и их применение все больше неспециалистов. Международная некоммерческая организация Humanity+ направленно работает по продвижению идей улучшения человечества с помощью технологий. В 2006 году ФБР приняло программу биологических контрмер для предотвращения актов биотерроризма, которые довольно сложно предусмотреть по мере развития биотехнологий. Этика цифровых решений обсуждается разработчиками систем ИИ и экспертами ООН. Нужны комплексные этико-правовые меры регулирования высокорискованных технологий.

Однако есть известная дилемма: пока технология мало распространена, последствия ее применения плохо понятны, но в этот период ее можно контролировать, а вот когда технология становится массовой, явно проявляются позитивные и негативные последствия, но контролировать технологию становится практически невозможно. Человечество пока не имеет однозначных представлений о том, в какой точке развития технологий надо принимать меры с учетом описанной дилеммы. Биоэтика предлагает ее искать.