Этическая экспертиза в сфере здравоохранения с применением ии: методология дизайна ценностей

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

По мере того, как наш мир становится все более зависим от данных, алгоритмы чаще и чаще используются для принятия обоснованных решений в различных областях, начиная от финансов и заканчивая управлением персоналом. Сфера здравоохранения не является исключением, и искусственные интеллектуальные системы получают все большее распространение в этой области. В то время как ИИ может помочь нам принимать более обоснованные и эффективные решения, он также служит источником множества моральных и этических проблем. Одним из самых глобальных является вопрос доверия. Когда машина заменяет человека в сфере здравоохранения, пациентам и медицинским работникам может стать трудно доверять тому процессу и результатам лечения, которые предлагает ИИ. Кроме того, механизм «черного ящика» в системах искусственного интеллекта ставит вопрос: кто несет ответственность за принятые решения, и кто должен за них отвечать в случае ошибки? К этим вопросам добавляется проблема эмоциональной фрустрации — разрыв контакта «человек–человек» рискует ввести пациентов и медицинских работников в состояние эмоционального разочарования от неспособности вести живую коммуникацию с роботизированным механизмом и, как следствие, привести к падению эффективности лечения и комплаентности. Несмотря на увеличение внимания к этим проблемам в последние годы, технические решения этих сложных моральных и этических вопросов часто разрабатываются без учета социального контекста и мнения агентов, которых затрагивает технология. Кроме того, призывы к более этичному и социально ответственному ИИ часто фокусируются на основных правовых принципах, таких, как «прозрачность» и «ответственность» и не учитывают намного более проблематичную область человеческих ценностей. Для решения этой проблемы в статье предлагается рассмотреть "ценностно-чувствительный" подход к разработке ИИ, который может помочь перевести основные права и ценности человека в контекстно-чувствительные требования к алгоритмам искусственного интеллекта. Этот подход может помочь создать маршрут от человеческих ценностей к ясным и понятным требованиям для дизайна ИИ. Помимо представления ключевых требований к алгоритмам этико-чувствительного ИИ, предлагается посмотреть, какие философские истоки имеют те ценности, о которых мы говорим сегодня в рамках обсуждения этичного искусственного интеллекта: честность, добросовестность, ответственность, эмпатия, долг перед жизнью. Автор предлагает рассмотреть их сквозь призму этики добродетели и деонтологии.

Об авторах

Елизавета Александровна Карпова

Национальный исследовательский университет «Высшая школа экономики»

Российская Федерация, 105066 Москва, ул. Старая Басманная, д. 21/4

Список литературы

  1. Aizenberg E., Van den Hoven J. Designing for human rights in AI. Big Data & Society. 2020. Vol. 7, Iss. 2. P.1–30. doi: 10.1177/2053951720949566
  2. Azenkot S., Prasain S., Borning A., et al. Enhancing independence and safety for blind and deaf-blind public transit riders. Proceedings of the 2011 annual conference on Human factors in computing systems CHI ’11. New York, NY, 2011. P. 3247–3256.
  3. Davis J., Nathan L.P. Value Sensitive Design: Applications, Adaptations, and Critiques. Handbook of Ethics, Values, and Technological Design. Van den Hoven J., Vermaas P.E., Van de Poel I. (eds.). Dordrecht: Springer, 2015. P. 11–40.
  4. Friedman B. Human Values and the Design of Computer Technology. Cambridge: Cambridge Univ. Press, 1997.
  5. MacIntyre A. After Virtue: A Study in Moral Theory. Notre Dame, IN: Univ. of Notre Dame Press, 1981.
  6. Charter of Fundamental Rights of the European Union. Official Journal of the European Union. 2012. Vol. 55. P. 391–407.
  7. Santoni de Sio F., Van Wynsberghe A. When Should We Use Care Robots? The Nature- of-Activities Approach. Science and Engineering Ethics. 2016. Vol. 22, N 6. P. 1745–1760. doi: 10.1007/s11948-015-9715-4
  8. Van de Poel I. Translating Values into Design Requirements. Philosophy and Engineering: Reflections on Practice, 28 Principles and Process. Michelfelder D.P., McCarthy N., Goldberg D.E. (eds.). Dordrecht: Springer, 2013. P. 253–266.
  9. Van der Velden M., Mörtberg C. Participatory Design and Design for Values. Handbook of Ethics, Values, and Technological Design, Van den Hoven J., Vermaas P.E., Van de Poel I. (eds.). Dordrecht: Springer, 2015. P. 41–66.

© Российская академия наук, 2023

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах