Автоматизированные интеллектуальные системы: этический и нормативно-технический подходы к регулированию

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Искусственный интеллект настолько прочно вошел в нашу жизнь, что его непосредственное влияние на формирование картины мира будущего не вызывает сомнений. Однако потребовалось время для того, чтобы наряду с теоретическими спекуляциями на тему «восстания машин» и прочих угроз человечеству с его стороны постепенно начал вырабатываться конструктивный подход к предупреждению рисков и нормативному регулированию технологий на всех этапах их жизненного цикла. Предметом особого внимания являются так называемые автоматизированные искусственные системы, регулирование которых ограничено до сих пор нормативно-техническими требованиями. Особенностью такого подхода является убеждение его сторонников в истинности технологического детерминизма, для которого «техника» является ценностно нейтральной. Предупреждение рисков этического характера с точки зрения такого подхода оказывается практически нерешаемой задачей в силу того, что вопросы нормативного регулирования касаются лишь функциональных характеристик и нарушения требований эксплуатации конкретной системы. В данной статье технологическому детерминизму противопоставляется технологический субстантивизм, для которого «техника» приобретает самостоятельную этическую ценность независимо от ее инструментального использования. Основанная на нем этическая оценка состоит в процедуре регулярного соотнесения социального «блага» и «надежности» системы. Разработка методологии такой процедуры соотнесения требует специальных компетенций, отличающих новую профессиональную сферу — этику в сфере ИИ.

Полный текст

Доступ закрыт

Об авторах

Сергей Владимирович Гарбук

Национальный исследовательский университет «Высшая школа экономики»

Автор, ответственный за переписку.
Email: sgarbuk@hse.ru
ORCID iD: 0000-0001-5385-3961

кандидат технических наук, директор по научным проектам

Россия, Москва

Анастасия Валерьевна Углева

Национальный исследовательский университет «Высшая школа экономики»

Email: augleva@hse.ru
ORCID iD: 0000-0002-9146-1026

кандидат философских наук, профессор Школы философии и культурологии, заместитель директора Центра трансфера и управления социоэкономической информацией

Россия, Москва

Список литературы

  1. Гарбук С.В. Метод оценки влияния параметров стандартизации на эффективность создания и применения систем искусственного интеллекта // Информационно-экономические аспекты стандартизации и технического регулирования. 2022. № 3. С. 4‒14.
  2. Гарбук С.В. Особенности обоснования представительного набора требования к интеллектуальным автотранспортным средствам // Труды НАМИ. 2023. № 4. С. 69–86.
  3. Грунвальд А., Железняк В.Н., Середкина Е.В. Беспилотный автомобиль в свете социальной оценки техники // Технологос. 2019. № 2. С. 41–51.
  4. Шевченко С.Ю., Шкомова Е.М., Лаврентьева С.В. Гуманитарная экспертиза полного цикла // Горизонты гуманитарного знания. 2021. №2 2. С. 3–17.
  5. Шталь Б.К. Этика искусственного интеллекта: Кейсы и варианты решения этических проблем. М.: Издательство ВШЭ, 2024.
  6. Ashok M., Rohit M., Anton J., Uthayasankar S. Ethical framework for Artificial Intelligence and Digital technologies. International Journal of Information Management, 2022. Vol. 62, N 2. P. 102433.
  7. Boddington P. AI and moral thinking: how can we live well with machines to enhance our moral agency? AI and Ethics. 2021. N 1. P. 109–111.
  8. Borenstein J., Howard А. Emerging challenges in AI and the need for AI ethics education. AI and Ethics. 2020. N 1. P. 61–65.
  9. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford Academ, 2016.
  10. Brendel A.B., Mirbabaie M., Lembcke T.-B., Hofeditz L. Ethical Management of Artificial Intelligence. Sustainability. 2021. N 13(4).
  11. Bruneault Fr., Sabourin Laflamme А. AI Ethics: how can information ethics provide a framework to avoid usual conceptual pitfalls? An Overview. AI & SOCIETY. 2021. N 36(3). P. 757–766.
  12. Daley K. Two arguments against human-friendly AI. AI and Ethics. 2021. N 1. P. 435–444.
  13. Douglas D.M., Howard D., Lacey J. Moral responsibility for computationally designed products. AI and Ethics. 2021. N 1. P. 273–281.
  14. Dreyfus H. (1990). Being-in-the-World: A Commentary on Heidegger’s Being and Time, Division I. The MIT Press, 1990.
  15. Floridi L., Cowls J., King T.C. et al. (2020). How to Design AI for Social Good: Seven Essential Factors. Sci Eng Ethics, 26: 1771–1796.
  16. Forbes K. Opening the path to ethics in artificial intelligence. AI Ethics. 2021. N 1. P. 297–300.
  17. Gabriel I. Artifcial Intelligence, Values, and Alignment. Minds and Machines. 2020. N 30. P. 411‒437.
  18. Gambelin O. Brave: what it means to be an AI Ethicist. AI Ethics. 2021. N 1. P. 87–91.
  19. Garbuk S.V. Intellimetry as a way to ensure AI trustworthiness. The Proceedings of the 2018 International Conference on Artificial Intelligence Applications and Innovations (IC-AIAI). Limassol, Cyprus, 6‒10.10.2018. P. 27–30.
  20. Gendron C. Penser l’acceptabilité sociale: au-delà de l’intérêt, les valeurs. Éthique et relations publiques: pratiques, tensions et perspectives, 2014. N 11. P. 117–129.
  21. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds & Machines. 2020. N 30. P. 99–120.
  22. Hager G.D., Drobnis A., Fang F., Ghani R., Greenwald A., Lyons T., Parkes D. C. et al. Artificial intelligence for social good. 2017.
  23. Heidegger M. Die Frage nach der Technik. Die Kunste im technischen Zeitalter. München, 1954. S. 70–108.
  24. Iphofen R., Kritikos M. Regulating artificial intelligence and robotics: ethics by design in a digital society. Contemporary Social Science. 2019. N 16(2). P. 1–15.
  25. Kazim E., Soares Koshiyama A. A high-level overview of AI ethics. Patterns. 2021. N 2(9). P. 100314.
  26. Pekka A.-P., Bauer W., Bergmann U., Bieliková M., Bonefeld-Dahl C., Bonnet Y., Bouarfa L. et al. The European Commission’s high-level expert group on artificial intelligence: Ethics guidelines for trustworthy ai. Working Document for stakeholders’ consultation. Brussels, 2018. P. 1–37.
  27. Taddeo M., Floridi L. How AI Can be a Force for Good. Science. 2018. Vol. 361(6404). P. 751–752.
  28. ГОСТ Р 70889-2023 Информационные технологии. Искусственный интеллект. Структура жизненного цикла данных (ISO/IEC 8183:2023, MOD).
  29. ПНСТ 840 Искусственный интеллект. Обзор этических и общественных аспектов (ISO/IEC TR 24368:2022 MOD).
  30. ПНСТ 841-2023 Системная и программная инженерия. Требования и оценка качества систем и программного обеспечения (SQuaRE). Руководство по оценке качества систем ИИ (ISO/IEC DTS 25058, MOD).
  31. ПНСТ 776-2022 Информационные технологии. Интеллект искусственный. Управление рисками. (ISO/IEC FDIS 23894, NEQ).
  32. Федеральный закон «О персональных данных» от 27 июля 2006 г. № 152-ФЗ.
  33. SAE J3016 Surface vehicle recommended practice. Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles. June, 2018.

© Российская академия наук, 2024

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах