«Mашина бога» Дж.Cавулеску как моральный агент и проблема ответственности

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Данная статья посвящена проблематике моральной ответственности в связи с технологиями искусственного интеллекта. В последние годы искусственный интеллект активно развивается в сторону все большей автономности, что делает крайне актуальной философскую аналитику искусственной моральной агентности (moral agency). Актуальность работы также определяется все большим распространением искусственного интеллекта в профессиональных сферах, в том числе связанных с принятием ответственных управленческих, финансовых и т.п. решений. Основным объектом исследования в статье выступает умозрительный эксперимент — проект так называемой «Машины Бога» западного философа Дж. савулеску, который позволяет обратиться к такому важному аспекту, как возможность влияния искусственного интеллекта на развитие нравственного сознания человека, поскольку современные технологии, наряду с проектами биологического нравственного улучшения человека претендуют на способность создания искусственных моральных агентов. Авторы дают всесторонний анализ этого проекта, соотнося его с другими концепциями современной аналитической философии сознания, в том числе Г. Франкфурта. Теоретический фокус исследования направлен на концепты ответственности и свободы как ключевые в формулировке критериев морального агентства. При этом в статье рассмотрены особенности реализации критериев моральной агентности в отношении искусственного интеллекта. В статье оценивается состоятельность проекта Дж. Савулеску, в частности: насколько искусственный интеллект наподобие Машины Бога может рассматриваться как моральный агент, сможет ли человек при помощи такого искусственного посредника обрести характеристики нравственной, ответственной и свободной личности, и насколько такие проекты способствуют нравственному совершенствованию человечества. Указываются риски патерналистского вмешательства в развитие морали. Отдельно рассматривается феномен моральных дилемм в связи с проблематикой встраивания искусственного интеллекта в жизнь современного общества, а также логические аспекты принятия решения в условии моральных конфликтов. Формулируется вывод о ключевом значении категории ответственности для моделирования взаимоотношений человека и искусственного интеллекта в машинной этике.

Об авторах

Игорь Юрьевич Ларионов

Санкт-Петербургский государственный университет

Российская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5

Нина Вадимовна Перова

Санкт-Петербургский государственный университет

Российская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5

Список литературы

  1. Альчуррон К.Э., Герденфорс П., Макинсон Д. Логика теории изменения: функции ревизии и сокращения через частичное пересечение // «Нормативные системы» и другие работы по философии права и логике норм. СПб.: Издательский Дом СПбГУ, 2013. С. 318–343.
  2. Гарвардт М.А., Перова Н.В. Универсализм и релятивизм морального агента биологического нравственного улучшения (на примере политической деятельности) // Дискурсы этики. 2022, № 1(13). С.69–84.
  3. Ларионов И.Ю. Кто несет ответственность за применение оружия с искусственным интеллектом? // Интернет и современное общество: сборник тезисов докладов [Электронный ресурс]. Труды XXV Международной объединенной научной конференции «Интернет и современное общество» (IMS-2022), Санкт-Петербург, 23–24 июня 2022 г. СПб: Университет ИТМО, 2022. http://ojs.itmo.ru/index.php/IMS/issue/view/78,свободный.
  4. Ларионов И.Ю., Марков Б.В. Морально-антропологические риски технологий биологического совершенствования человека // Дискурсы этики. 2022. № 4(16). C. 25–46.
  5. Милль Дж. О свободе // Наука и жизнь. 1993. № 11. С.10–11.
  6. Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57–73.
  7. Сёрл Дж. Сознание, мозг и программы // Аналитическая философия: становление и развитие. М.: Дом интеллектуальной книги, Прогресс-Традиция, 1998.
  8. Философия ответственности / под ред. Е.Н. Лисанюк, В.Ю. Перова. СПб.: Наука, 2014.
  9. Франкфурт Г. Альтернативные возможности и моральная ответственность // Философия. Журнал Высшей школы экономики. 2017. Т. I, № 4. С.129–140.
  10. Allen C., Varner G., Zinser J. Prolegomena to any future artificial moral agent. Journal of Experimental & Theoretical Artificial Intelligence. 2000. Vol.12, N 3. P. 251–261.
  11. Anderson M., Anderson S.L. Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. 2007. N 4(28). P.15–26.
  12. Awad E., Dsouza S., Kim R. et al. The Moral Machine Experiment. 2018. Nature. Vol. 563. P. 59–64.
  13. Dennett D. When HAL Kills, Who’s to Blame? Computer Ethics // Stork, David, HAL’s Legacy: 2001's Computer as Dream and Reality. MIT Press, 1998.
  14. Floridi L., Sanders J. Artificial Evil and the Foundation of Computer Ethics. Ethics and Information Technology. 2001. N 3(1). P. 56–66.
  15. Frankfurt H. Freedom of the Will and the Concept of a Person. The Journal of Philosophy. 1971. Vol. 68, N 1. P. 5–20.
  16. Harris J. Moral Enhancement and Freedom. Bioethics. 2011. Vol. 25. P.102–111.
  17. Himma K.E. Artificial Agency, Consciousness, and the Criteria for Moral Agency: What Properties must an Artificial Agent have to be a Moral Agent? Ethics and Information Technology. 2009. N. 11. P. 19–29.
  18. Lara F. Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates? Science and Engineering Ethics. 2021, N 42. P. 27.
  19. Moral Dilemmas and Moral Theory / ed. Mason H.E. N.Y.: Oxford University Press, 1996.
  20. Nadeau J.E. Only Androids Can Be Ethical // Thinking about Android Epistemology / eds. Ford K. and Glymour C. MIT Press, 2006. P. 241–248.
  21. Savulescu J., Persson I. Moral Enhancement, Freedom and the God Machine. The Monist. 2012. N 95(3). P. 399–421.
  22. Sullins J.P. When Is a Robot a Moral Agent. International Review of Information Ethics. 2006. Vol.6 (12). P. 23–30.
  23. Thomson J.J. The Trolley Problem. The Yale Law Journal. 1985. Vol. 94, N 6. P.1395–1415.
  24. Turing A. Computing Machinery and Intelligence // Mind. 1950, LIX (236). P. 433–460.

© Российская академия наук, 2023

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».