🔧На сайте запланированы технические работы
25.12.2025 в промежутке с 18:00 до 21:00 по Московскому времени (GMT+3) на сайте будут проводиться плановые технические работы. Возможны перебои с доступом к сайту. Приносим извинения за временные неудобства. Благодарим за понимание!
🔧Site maintenance is scheduled.
Scheduled maintenance will be performed on the site from 6:00 PM to 9:00 PM Moscow time (GMT+3) on December 25, 2025. Site access may be interrupted. We apologize for the inconvenience. Thank you for your understanding!

 

Possibility of Using AI in Teaching Ethics: Using Bioethics as an Example

Capa

Citar

Texto integral

Resumo

This study analyzes the prospect of integrating artificial intelligence (AI) systems into the teaching of ethical disciplines, with bioethics as a key example. Based on an interdisciplinary approach (philosophy, cognitive sciences, bioethics, AI theory), the problem of attributing AI to moral agency is investigated. Although there are strong arguments in favor of recognizing AI as an influential agent in the socio-cultural sense, this does not provide it with the status of a full-fledged moral agent. AI is able to “follow the rule”, but without a genuine understanding of the irrational moments of intersubjective interaction, the existing cultural and psychological context, which excludes human flexibility in decision-making. Since there is no comprehensive, final ethical regulation, ethical action requires practical wisdom (phronesis), which is inaccessible to AI due to its discrete nature devoid of contextual integrity. Without existential involvement in the world, his own history and physicality, it remains a responsive, but not a morally responsible agent. Using examples of the use of AI (neural networks, chatbots), existing research in the field of its perception and involvement in the educational process, the status of AI as the Other is analyzed. This virtual Other does not introduce us into an ethical situation like a human teacher for several reasons. On the one hand, our work substantiates the AI’s inability to self-reflect due to its ontology. The key argument is human vulnerability, which is the foundation of conscience, responsibility, and genuine ethical inquiry, inaccessible to AI. Without vulnerability, there is no empathy, and without it, there is no immersion in ethical issues as inevitably relevant. The ways of safe use of AI technologies and the associated ethical risks need to be thoroughly studied, including by students themselves in the educational process. In particular, they should understand the need to understand interactions with AI from the perspective of morality, the influence of AI on the decision-making process in future professional activities.

Sobre autores

Boris Solozhenkin

Sechenov First Moscow State Medical University

Autor responsável pela correspondência
Email: gerzhogzdes@mail.ru
ORCID ID: 0000-0003-1125-1342
Código SPIN: 6164-2092

PhD in Philosophy, Associate Professor at the Institute of Social Sciences

8 bd 2 Trubetskaya St., Moscow, 119048, Russian Federation

Marina Asafaylo

Sechenov First Moscow State Medical University

Email: asafaylo_m_p@staff.sechenov.ru
ORCID ID: 0000-0003-3482-1424
Código SPIN: 9779-6377

PhD in Philosophy, Associate Professor at the Institute of Social Sciences

8 bd 2 Trubetskaya St., Moscow, 119048, Russian Federation

Bibliografia

  1. Chibisov ON. Gnoseology of Machine Learning of Strong Artificial Intelligence. Nauka. Iskusstvo. Kul’tura. 2024;(2):143–157. (In Russian). EDN: YXKOHW
  2. Gottfredson LJ. Mainstream Science on Intelligence: An Editorial with 52 Signatories, History, and Bibliography. Intelligence. 1997;24(1):13–23. doi: 10.1016/s0160-2896(97)90011-8
  3. Gignac GE, Szodorai ET. Defining Intelligence: Bridging the Gap between Human and Artificial Perspectives. Intelligence. 2024;104:101832. doi: 10.1016/j.intell.2024.101832 EDN: ZGKQKF
  4. Luger GF. Artificial Intelligence: Principles and Practice. Springer International Publishing; 2024.
  5. Mokshanov MV. The use of artificial intelligence in data analysis: an overview of the current state and future directions. Universum: Tekhnicheskie Nauki. 2024;5(122). Available from: https://7universum.com/ru/tech/archive/item/17513 (accessed: 21.07.2025). (In Russian).
  6. Searle JR. Consciousness, Brain, and Programs. In: Analytical Philosophy: Formation and Development (The anthology). Moscow: Dom Intellektual’noi Knigi; 1998. (In Russian).
  7. Smirnov SA. Is human being computable, or anthropology of artificial intelligence. Methodological aspect. Vestnik Sankt-Peterburgskogo Universiteta. Filosofiya i Konfliktologiya. 2023;39(3):478–491. (In Russian). doi: 10.21638/spbu17.2023.306 EDN: SFQBCU
  8. Solozhenkin BS. The basic concepts of bioethics in their philosophical-anthropological perspective: on the dialectics of life and death. In: Grekhov AV, Fatenkov AN, editors. Social and humanitarian cognition: methodological and substantive parallels : A collective monograph. Moscow: Akvilon. 2019. (In Russian). EDN: ZHFJAL
  9. Charles T. Human Agency and Language. Philosophical Papers. Vol. 1. Cambridge: Cambridge University Press; 1985.
  10. Safonova YA, Subocheva ON, Korshkova AS. Agency of artificial autonomous systems as a factor in the transformation of society. Sotsiologiya. 2023;(6):116–122. (In Russian). EDN: BSOFML
  11. Floridi L. The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: Oxford University Press; 2023.
  12. Ågerfalk PJ. Artificial Intelligence as Digital Agency. European Journal of Information Systems. 2020;29(1):1–8. doi: 10.1080/0960085X.2020.1721947
  13. Dreyfus HL. What Computers Still Can’t Do: A Critique of Artificial Reason. Biryukov BV, editor. Moscow: Librokom; 2010. (In Russian).
  14. Krylov NN. Ethics of Surgery. Dialogues with a Surgeon: Dialogues with a Surgeon on Professional Morality and Ethics. Moscow: Filin; 2021. (In Russian).
  15. Descombes V. Complement to the Subject: A Study of the Phenomenon of Action from One’s Own Person. Golovanivskaya M, transl. Moscow: Novoe literaturnoe obozrenie; 2011 (In Russian).
  16. Gunkel DJ. Mind the Gap: Responsible Robotics and the Problem of Responsibility. Ethics and Information Technology. 2020;22(4):307–320. doi: 10.1007/s10676-017-9428-2 EDN: ZCENSQ
  17. Coeckelbergh M. You, Robot: On the Linguistic Construction of Artificial Others. AI & Society. 2011;26(1):61–69. doi: 10.1007/s00146-010-0289-z EDN: CYPWXM
  18. Shen J, Dipaola D, Ali S, et al. Empathy toward Artificial Intelligence versus Human Experiences and the Role of Transparency in Mental Health and Social Support Chatbot Design: Comparative Study. JMIR Mental Health. 2024;11:e62679. doi: 10.2196/62679 EDN: NPZKBE
  19. Chiu TKF, Moorhouse BL, Chai CS, Ismailov M. Teacher Support and Student Motivation to Learn with Artificial Intelligence (AI) based Chatbot. Interactive Learning Environments. 2024;32(7):3240–3256. doi: 10.1080/10494820.2023.2172044
  20. Shannon V. Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford: Oxford University Press; 2016.
  21. Siluyanova IV, Nazarova EV. Contribution of N.I. Pirogov in the development of professional ethics of physicians Vestnik RGMU. 2010;(5):98–101. (In Russian). EDN: NDDQJF
  22. Blasimme A, Vayena E. The Ethics of AI in Biomedical Research, Patient Care, and Public Health. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020.
  23. Andreeva YV, Antonova II, Shakurova AR, Garnaeva GI, Efimov MG. Analysis of Involvement in the Interaction Process with the Neural Network of Students and Teachers. Kompetentnost’ / Competency (Russia). 2024;(9–10):6–12. (In Russian). doi: 10.24412/1993-8780-2024-9-06-12 EDN: PILSCE
  24. Fasoli M, Cassinadri G, Ienca M. The Dark Side of Cognitive Enhancement: A Framework for the Technologically Induced Cognitive Diminishment. Journal of Cognitive Enhancement. 2025;(9):1–14. doi: 10.1007/s41465-025-00331-7
  25. Bermus AG, Sizova EV. Ethical aspects of implementing artificial intelligence technologies in a classical university: analysis of student audience attitude. Nepreryvnoe obrazovanie: XXI vek. 2025;13(2):1–16. (In Russian). doi: 10.15393/j5.art.2025.10585 EDN: BQHTHY
  26. Bryzgalina EV, Gumarova AN, Shkomova ЕМ. Key problems, risks and restrictions of using artificial intelligence in medicine and education. Vestnik Moskovskogo universiteta. Series 7: Philosophy. 2022;(6):93–108. (In Russian). EDN: GXUYWB

Arquivos suplementares

Arquivos suplementares
Ação
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».