The Moral Status of Artificial Intelligence: in Search of a Sociological Perspective

Cover Page

Cite item

Full Text

Abstract

The article examines AI from the perspective of moral agency and moral patiency. In the forepart, an overview of the main theoretical arguments as well as some experimental data regarding the (im)possibility of grounding the moral status of intelligent machines is provided. Evidence shows that perceived anthropomorphism and animism, this being culturally dependent, significantly influence the moral recognition of AI. The second part of the article highlights some research perspectives that seem promising for sociology of morality to be applied to the AI field: (a) discrimination of moral situations specific to interaction with AI, (b) discovering the cultural background of moral agency and patiency of AI, (c) expertise in AI code of ethics development, (d) inquiry into AI value alignment when delegating morally relevant decisions. The remainder of the article interprets moral status of AI as a stratification of integrated moral responsibility for social consequences in human-machine interactions and represents a pyramid within which several layers are distinguished, demonstrating the tendency to link the moral ‘non-recognition’ of AI with enhancing its autonomy and ‘consciousness’.

About the authors

Anastasia V. Aganova

HSE University; Foundation “Public Opinion”

Email: avaganova@hse.ru
Postgraduate Student, Doctoral School of Sociology, HSE University; Senior Analyst, Foundation “Public Opinion” Moscow, Russia

Ilya V. Katerny

MGIMO-University; Institute of Sociology of FCTAS RAS

Email: yarkus@mail.ru
ORCID iD: 0000-0002-5505-4941
SPIN-code: 8082-7990
ResearcherId: C-9663-2014
Doctor of Sociological Sciences, Professor, Department of Sociology, MGIMO University; Leading Researcher, Institute of Sociology of FCTAS RAS Moscow, Russia

References

  1. Абрамов Р.Н., Катечкина В.М. Социальные аспекты взаимодействия человека и робота: опыт экспериментального исследования // Журнал социологии и социальной антропологии. 2022. Т. 25. № 2. С. 214–243. doi: 10.31119/jssa.2022.25.2.9 EDN: ASRIAF
  2. Автономное оружие: открытое письмо исследователей ИИ и роботов, 01.09.2017 // Future of Life Institute [электронный ресурс]. Дата обращения 15.03.2020. URL: https://futureoflife.org/open-letter-autonomous-weapons-russian/
  3. Баррат Дж. Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens / Пер. с англ. М.: Альпина нон-фикшн, 2015. — 304 с.
  4. Быков А.В. Когнитивная и аналитическая перспективы в новой социологии морали: основания различения и ключевые особенности // Социологический журнал. 2024. Т. 30. № 1. С. 26–42. doi: 10.19181/socjour.2024.30.1.2 EDN: FCOYMR
  5. Быков А.В. Понятие морального сознания в социологической традиции // Социологический журнал. 2017. Т. 23. № 3. С. 26–43. doi: 10.19181/socjour.2017.23.3.5362 EDN: ZIPDET
  6. Девятко И.Ф. Проблема ориентации искусственного интеллекта на человеческие ценности (AI value alignment) и социология морали // Социологические исследования. 2023. № 9. С. 16–28. doi: 10.31857/S013216250027775-5 EDN: QVKPLQ
  7. Кант И. Критика практического разума / Пер. Н.М. Соколова // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 373–479.
  8. Кант И. Основоположения метафизики нравов / Пер. Л.Д.Б. // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 153–246.
  9. Катерный И.В. Каузальные объяснения эффекта «зловещей долины» в робототехнике: теории и исследовательские данные // Качество и жизнь. 2017. № 4. С. 88–96 EDN: YOPGDD
  10. Корбут А.М. Одомашнивание искусственного интеллекта: умные колонки и трансформация повседневной жизни // Мониторинг общественного мнения: экономические и социальные перемены. 2021. № 1. С. 193–216. doi: 10.14515/monitoring.2021.1.1808 EDN: TKKKDP
  11. Максимова А.С. Настройка собеседника: интеракционные барьеры в телефонном разговоре с роботом // Приключения технологий: барьеры цифровизации в России / Л.В. Земнухова и др. М., СПб.: ФНИСЦ РАН, 2020. C. 95–132. doi: 10.31119/978-5-89697-339-3
  12. Нарьян С.К., Быков А.В. Проблема моральной агентности акторов: перспективы социологического подхода в контексте теории «моральной диады» // Социологический журнал. 2022. Т. 28. № 1. С. 8–23. doi: 10.19181/socjour.2022.28.1.8835 EDN: NIJSPT
  13. Хонинева Е.А. Гендер и дисплей: коммуникативные жанры и способы категоризации во взаимодействии с голосовыми ассистентами // Журнал социологии и социальной антропологии. 2017. Т. 20. № 5. С. 95–112. doi: 10.31119/jssa.2017.20.5.6 EDN: ZVMKGF
  14. Широкова М. К роботам-курьерам отнеслись по-человечески, 30.11.2023 // Коммерсантъ [электронный ресурс]. Дата обращения 02.01.2025. URL: https://www.kommersant.ru/doc/6366826
  15. Шталь Б.К., Шредер Д., Родригес Р. Этика искусственного интеллекта: кейсы и варианты решения этических проблем / Пер. с англ.; Науч. ред. А. Павлов. М.: Издательский дом ВШЭ, 2024. — 200 с. doi: 10.17323/978-5-7598-2981-2 EDN: WYWKGL
  16. Abend G. Thick Concepts and the Moral Brain. European Journal of Sociology. 2011. Vol. 52. No. 1. P. 143–172. doi: 10.1017/S0003975611000051
  17. Awad E., Dsouza S., Kim R., et. al. The Moral Machine Experiment. Nature. 2018. Vol. 563. P. 59–64. doi: 10.1038/s41586-018-0637-6
  18. Banks J. A Perceived Moral Agency Scale: Development and Validation of a Metric for Humans and Social Machines. Computers in Human Behavior. 2019. Vol. 90. P. 363–371. doi: 10.1016/j.chb.2018.08.028
  19. Banks J. From Warranty Voids to Uprising Advocacy: Human Action and the Perceived Moral Patiency of Social Robots. Frontiers in Robotics and AI. 2021. Vol. 8. Art. 670503. doi: 10.3389/frobt.2021.670503
  20. Banks J., Bowman N.D. Perceived Moral Patiency of Social Robots: Explication and Scale Development. International Journal of Social Robotics. 2023. Vol. 15. No. 1. P. 101–113. doi: 10.1007/s12369-022-00950-6
  21. Bartneck C., Keijsers M. The Morality of Abusing a Robot. Paladyn, Journal of Behavioral Robotics. 2020. Vol. 11. No. 1. P. 271–283. doi: 10.1515/pjbr-2020-0017
  22. Basl J., Sandler R. Three Puzzles Regarding the Moral Status of Synthetic Organisms. Synthetic Biology and Morality: Artificial Life and the Bounds of Nature. Ed. by G.E. Kaebnick, T.H. Murray. Cambridge, MA: MIT Press, 2013. P. 89–106. doi: 10.7551/mitpress/9780262019392.003.0009
  23. Bertoncini A.L.C., Serafim M.C. Ethical Content in Artificial Intelligence Systems: A Demand Explained in Three Critical Points. Frontiers in Psychology. 2023. Vol. 14. Art. 1074787. doi: 10.3389/fpsyg.2023.1074787
  24. Bigman Y.E., Gray K. People Are Averse to Machines Making Moral Decisions. Cognition. 2018. No. 181. P. 21–34. doi: 10.1016/j.cognition.2018.08.003
  25. Brożek B., Janik B. Can Artificial Intelligences Be Moral Agents? New Ideas in Psychology. 2019. Vol. 54. P. 101–106. doi: 10.1016/j.newideapsych.2018.12.002
  26. Cervantes J.-A., Lopez S., Rodriguez L.-F., et. al. Artificial Moral Agents: A Survey of the Current Status. Science and Engineering Ethics. 2020. Vol. 26. No. 2. P. 501–532. doi: 10.1007/s11948-019-00151-x
  27. Choi T.R., Drumwright M.E. “OK, Google, Why Do I Use You?” Motivations, Post-Consumption Evaluations, and Perceptions of Voice AI Assistants. Telematics and Informatics. 2021. Vol. 62. Art. 101628. doi: 10.1016/j.tele.2021.101628
  28. Coeckelbergh M. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. Science and Engineering Ethics. 2020. Vol. 26. No. 4. P. 2051–2068. doi: 10.1007/s11948-019-00146-8
  29. Colombatto C., Fleming S. Folk Psychological Attributions of Consciousness to Large Language Models. Neuroscience of Consciousness. 2024. No. 1, Art. niae013. doi: 10.1093/nc/niae013
  30. DeGrazia D. Moral Status as a Matter of Degree? Southern Journal of Philosophy. 2008. Vol. 46. No. 2. P. 181–198 doi: 10.1111/j.2041-6962.2008.tb00075.x
  31. DeGrazia D. Robots with Moral Status? Perspectives in Biology and Medicine. 2022. Vol. 65. No. 1. P. 73–88. doi: 10.1353/pbm.2022.0004
  32. Dong M., Bocian K. Responsibility Gaps and Self-Interest Bias: People Attribute Moral Responsibility to AI for Their Own but not Others’ Transgressions. Journal of Experimental Social Psychology. 2024. Vol. 111. Art. 104584. doi: 10.1016/j.jesp.2023.104584
  33. Formosa P., Ryan M. Making Moral Machines: Why We Need Artificial Moral Agents. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 839–851. doi: 10.1007/s00146-020-01089-6
  34. Friedman C. Human-Robot Moral Relations: Human Interactants as Moral Patients of Their Own Agential Moral Actions Towards Robots. Artificial Intelligence Research. SACAIR 2021. Communications in Computer and Information Science. Ed. by A. Gerber. 2020. Vol 1342. P. 3–20. doi: 10.1007/978-3-030-66151-9_1
  35. Fritz A., Brandt W., Gimpel H., et. al. Moral Agency without Responsibility? Analysis of Three Ethical Models of Human-Computer Interaction in Times of Artificial Intelligence (AI). De Ethica. 2020. Vol. 6. No. 1. P. 3–22. doi: 10.3384/de-ethica.2001-8819.20613
  36. Gamez P., Shank D.B., Arnold C., North M. Artificial Virtue: The Machine Question and Perceptions of Moral Character in Artificial Moral Agents. AI & SOCIETY. 2020. Vol. 35. No. 4. P. 795–809. doi: 10.1007/s00146-020-00977-1
  37. Hitlin S., Vaisey S. The New Sociology of Morality. Annual Review of Sociology. 2013. Vol. 39. No. 1. P. 51–68. doi: 10.1146/annurev-soc-071312-145628
  38. Ikari S., Sato K., Burdett E., et. al. Religion-Related Values Differently Influence Moral Attitude for Robots in the United States and Japan. Journal of Cross-Cultural Psychology. 2023. Vol. 54. No. 6–7. P. 742–759 doi: 10.1177/00220221231193369
  39. Korsgaard C. The Sources of Normativity. Cambridge: Cambridge University Press, 1996. 273 p. doi: 10.1017/CBO9780511554476
  40. Laakasuo M., Herzon V., Perander S., et. al. Socio-Cognitive Biases in Folk AI Ethics and Risk Discourse. AI and Ethics. 2021. Vol. 1. No. 4. P. 593–610. doi: 10.1007/s43681-021-00060-5
  41. Mittelstadt B.D., Allo P., Taddeo M., et. al. The Ethics of Algorithms: Mapping the Debate. Big Data & Society. 2016. Vol. 3. No. 2. Art. 205395171667967. doi: 10.1177/2053951716679679
  42. Moosavi P. Will Intelligent Machines Become Moral Patients? Philosophy and Phenomenological Research. 2023. Vol. 109. No. 1. P. 95–116. doi: 10.1111/phpr.13019
  43. O’Leary D.E. GOOGLE’S Duplex: Pretending to Be Human. Intelligent Systems in Accounting Finance & Management. 2019. Vol. 26. No. 1. P. 46–53. doi: 10.1002/isaf.1443
  44. Pause Giant AI Experiments: An Open Letter, 23.03.2023. Future of Life Institute. Accessed 09.01.2025. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  45. Redaelli R. Different Approaches to the Moral Status of AI: A Comparative Analysis of Paradigmatic Trends in Science and Technology Studies. Discover Artificial Intelligence. 2023. Vol. 3. No. 1. Art. 25. doi: 10.1007/s44163-023-00076-2
  46. Scheessele M. A Framework for Grounding the Moral Status of Intelligent Machines. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. Ed. by J. Furman, G. Marchant, H. Price, F. Rossi. N.-Y.: Association for Computing Machinery, 2018. P. 215–256 doi: 10.1145/3278721.3278743
  47. Shank D.B., DeSanti A., Maninger T. When Are Artificial Intelligence Versus Human Agents Faulted for Wrongdoing? Moral Attributions after Individual and Joint Decisions. Information, Communication & Society. 2019. Vol. 22. No. 5. P. 648–663. doi: 10.1080/1369118X.2019.1568515
  48. Shevlin H. How Could We Know When a Robot Was a Moral Patient? Cambridge Quarterly of Healthcare Ethics. 2021. Vol. 30. No. 3. P. 459–471. doi: 10.1017/S0963180120001012
  49. Smiley L. The Legal Saga of Uber’s Fatal Self-Driving Car Crash is Over. Wired. Jul 28, 2023. Accessed 25.12.2024. URL: https://www.wired.com/story/ubers-fatal-self-driving-car-crash-saga-over-operator-avoids-prison/
  50. Sparrow R. Why Machines Cannot Be Moral. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 685–693. doi: 10.1007/s00146-020-01132-6
  51. Sullivan Y.W., Fosso Wamba S. Moral Judgments in the Age of Artificial Intelligence. Journal of Business Ethics. 2022. Vol. 178. No. 4. P. 917–943. doi: 10.1007/s10551-022-05053-w
  52. The Nobel Prize in Chemistry 2024. Press-release, 09.10.2024. The Royal Swedish Academy of Sciences. Accessed 01.02.2025. URL.: https://www.nobelprize.org/prizes/chemistry/2024/press-release/
  53. Tsamados A., Aggarwal N., Cowls J., et. al. The Ethics of Algorithms: Key Problems and Solutions. Ethics, Governance, and Policies in Artificial Intelligence. Ed. by L. Floridi. Springer, 2021. P. 97–123. doi: 10.1007/978-3-030-81907-1_8

Supplementary files

Supplementary Files
Action
1. JATS XML


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».