Этические проблемы внедрения искусственного интеллекта в медицине

Обложка

Цитировать

Полный текст

Аннотация

Системы искусственного интеллекта (ИИ) высокоэффективны, что делает невозможным игнорирование их имплементации в медицинскую практику, но создаёт ряд этических проблем. Проблема «чёрного ящика» является базовой для философии искусственного интеллекта, но имеет свою специфику применительно к медицине. С целью изучения проблем внедрения ИИ в медицину проведён отбор релевантных статей за последние три года через Pubmed и Google Scholar по цитированиям и их анализ. Одной из центральных проблем внедрения ИИ в медицину является проблема «чёрного ящика» — отсутствие ясных и обоснованных принципов работы ИИ. Как врачи могут опираться на заключения ИИ, не имея достаточного количества данных, объясняющих принятие того или иного решения? А в случае неблагоприятного исхода (летального случая, тяжёлой травмы) на ком будет лежать ответственность за окончательно принятое решение? В рутинной практике медицинские решения основываются на комплексном подходе: понимании патофизиологии и биохимии, интерпретации полученных в прошлом результатов, клинических исследованиях и когортных наблюдениях. Искусственный интеллект может быть использован для построения плана диагностики заболеваний и лечения, но не предоставляет убедительных обоснований для принятия конкретных решений. Это и создаёт «чёрный ящик»: не всегда понятно, какую информацию ИИ считает важной для вынесения заключения, каким образом и почему ИИ приходит именно к такому выводу. Хуан Мануэль Дуран пишет: «Даже если мы заявляем, что понимаем принципы, лежащие в основе маркировки и обучения ИИ, всё равно сложно, а часто даже невозможно претендовать на понимание внутренней работы таких систем. Врач может интерпретировать или проверять результаты этих алгоритмов, но врач не может объяснить, как алгоритм пришёл к своим рекомендациям или диагнозу». Сегодня модели ИИ обучены распознавать микроскопические аденомы и полипы в толстой кишке. Но, несмотря на высокую точность, врачи всё ещё имеют недостаточно представлений о том, как ИИ дифференцирует различные виды полипов, а признаки, являющиеся ключевыми для постановки диагноза ИИ, остаются неясными для опытных врачей-эндоскопистов. Другой пример — биомаркеры колоректального рака, распознаваемые ИИ. При этом врач не знает, как алгоритмы определяют количественные и качественные критерии выявляемых биомаркеров для формулировки окончательного диагноза в каждом индивидуальном случае, т.е. возникает «чёрный ящик» в патологии процесса. Для того чтобы завоевать доверие врачей и пациентов, необходимо обеспечить расшифровку и пояснение процессов, лежащих в основе работы ИИ, описать, как последовательно, шаг за шагом происходит работа и формулируется конкретный результат. Хотя алгоритмы «чёрного ящика» нельзя назвать прозрачными, стоит рассмотреть возможность применения данных технологий в практической медицине. Несмотря на перечисленные проблемы, точность и эффективность решений не позволяет пренебрегать использованием ИИ, даже, наоборот, делает это использование необходимым. Возникающие проблемы должны служить основой для подготовки и обучения врачей умению работать с ИИ, расширения сфер применения и разработки новых методик диагностики.

Об авторах

Максим Игоревич Коньков

Российский национальный исследовательский медицинский университет имени Н.И. Пирогова

Автор, ответственный за переписку.
Email: konkovmaksim18@gmail.com
ORCID iD: 0009-0002-2803-1020
Россия, Москва

Список литературы

  1. Holm E.A. In defense of the black box // Science. 2019. Vol. 364, N 6435. P. 26–27. doi: 10.1126/science.aax0162
  2. Durán J.M., Jongsma K.R. Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI // J Med Ethics. 2021 Mar 18:medethics-2020-106820. doi: 10.1136/medethics-2020-106820
  3. Poon A.I.F., Sung J.J.Y. Opening the black box of AI-Medicine // J Gastroenterol Hepatol. 2021. Vol. 36, N 3. P. 581–584. doi: 10.1111/jgh.15384
  4. Wang F., Kaushal R., Khullar D. Should Health Care Demand Interpretable Artificial Intelligence or Accept “Black Box” Medicine? // Ann Intern Med. 2020. Vol. 172, N 1. P. 59–60. doi: 10.7326/M19-2548
  5. London A.J. Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability // Hastings Cent Rep. 2019. Vol. 49, N 1. P. 15–21. doi: 10.1002/hast.973
  6. Yang G., Ye Q., Xia J. Unbox the black-box for the medical explainable AI via multi-modal and multi-centre data fusion: A mini-review, two showcases and beyond // Inf Fusion. 2022. Vol. 77. P. 29–52. doi: 10.1016/j.inffus.2021.07.016
  7. Quinn T.P., Jacobs S., Senadeera M., Le V., Coghlan S. The three ghosts of medical AI: Can the black-box present deliver? // Artif Intell Med. 2022. Vol. 124. P. 102158. doi: 10.1016/j.artmed.2021.102158
  8. Handelman G.S., Kok H.K., Chandra R.V., et al. Peering Into the Black Box of Artificial Intelligence: Evaluation Metrics of Machine Learning Methods // AJR Am J Roentgenol. 2019/ Vol. 212, N 1. P. 38–43. doi: 10.2214/AJR.18.20224
  9. Мелдо А.А., Уткин Л.В., Трофимова Т.Н. Искусственный интеллект в медицине: современное состояние и основные направления развития интеллектуальной диагностики // Лучевая диагностика и терапия. 2020. Т. 11, № 1. С. 9–17. doi: 10.22328/2079-5343-2020-11-1-9-17
  10. Малых В.Л. Системы поддержки принятия решений в медицине // Программные системы: теория и приложения. 2019. Т. 10, № 2 (41). С. 155–184. doi: 10.25209/2079-3316-2019-10-2-155-184

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».