Автоматизированные интеллектуальные системы: этический и нормативно-технический подходы к регулированию

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Искусственный интеллект настолько прочно вошел в нашу жизнь, что его непосредственное влияние на формирование картины мира будущего не вызывает сомнений. Однако потребовалось время для того, чтобы наряду с теоретическими спекуляциями на тему «восстания машин» и прочих угроз человечеству с его стороны постепенно начал вырабатываться конструктивный подход к предупреждению рисков и нормативному регулированию технологий на всех этапах их жизненного цикла. Предметом особого внимания являются так называемые автоматизированные искусственные системы, регулирование которых ограничено до сих пор нормативно-техническими требованиями. Особенностью такого подхода является убеждение его сторонников в истинности технологического детерминизма, для которого «техника» является ценностно нейтральной. Предупреждение рисков этического характера с точки зрения такого подхода оказывается практически нерешаемой задачей в силу того, что вопросы нормативного регулирования касаются лишь функциональных характеристик и нарушения требований эксплуатации конкретной системы. В данной статье технологическому детерминизму противопоставляется технологический субстантивизм, для которого «техника» приобретает самостоятельную этическую ценность независимо от ее инструментального использования. Основанная на нем этическая оценка состоит в процедуре регулярного соотнесения социального «блага» и «надежности» системы. Разработка методологии такой процедуры соотнесения требует специальных компетенций, отличающих новую профессиональную сферу — этику в сфере ИИ.

Полный текст

Доступ закрыт

Об авторах

Сергей Владимирович Гарбук

Национальный исследовательский университет «Высшая школа экономики»

Автор, ответственный за переписку.
Email: sgarbuk@hse.ru
ORCID iD: 0000-0001-5385-3961

кандидат технических наук, директор по научным проектам

Россия, Москва

Анастасия Валерьевна Углева

Национальный исследовательский университет «Высшая школа экономики»

Email: augleva@hse.ru
ORCID iD: 0000-0002-9146-1026

кандидат философских наук, профессор Школы философии и культурологии, заместитель директора Центра трансфера и управления социоэкономической информацией

Россия, Москва

Список литературы

  1. Гарбук С.В. Метод оценки влияния параметров стандартизации на эффективность создания и применения систем искусственного интеллекта // Информационно-экономические аспекты стандартизации и технического регулирования. 2022. № 3. С. 4‒14.
  2. Гарбук С.В. Особенности обоснования представительного набора требования к интеллектуальным автотранспортным средствам // Труды НАМИ. 2023. № 4. С. 69–86.
  3. Грунвальд А., Железняк В.Н., Середкина Е.В. Беспилотный автомобиль в свете социальной оценки техники // Технологос. 2019. № 2. С. 41–51.
  4. Шевченко С.Ю., Шкомова Е.М., Лаврентьева С.В. Гуманитарная экспертиза полного цикла // Горизонты гуманитарного знания. 2021. №2 2. С. 3–17.
  5. Шталь Б.К. Этика искусственного интеллекта: Кейсы и варианты решения этических проблем. М.: Издательство ВШЭ, 2024.
  6. Ashok M., Rohit M., Anton J., Uthayasankar S. Ethical framework for Artificial Intelligence and Digital technologies. International Journal of Information Management, 2022. Vol. 62, N 2. P. 102433.
  7. Boddington P. AI and moral thinking: how can we live well with machines to enhance our moral agency? AI and Ethics. 2021. N 1. P. 109–111.
  8. Borenstein J., Howard А. Emerging challenges in AI and the need for AI ethics education. AI and Ethics. 2020. N 1. P. 61–65.
  9. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford Academ, 2016.
  10. Brendel A.B., Mirbabaie M., Lembcke T.-B., Hofeditz L. Ethical Management of Artificial Intelligence. Sustainability. 2021. N 13(4).
  11. Bruneault Fr., Sabourin Laflamme А. AI Ethics: how can information ethics provide a framework to avoid usual conceptual pitfalls? An Overview. AI & SOCIETY. 2021. N 36(3). P. 757–766.
  12. Daley K. Two arguments against human-friendly AI. AI and Ethics. 2021. N 1. P. 435–444.
  13. Douglas D.M., Howard D., Lacey J. Moral responsibility for computationally designed products. AI and Ethics. 2021. N 1. P. 273–281.
  14. Dreyfus H. (1990). Being-in-the-World: A Commentary on Heidegger’s Being and Time, Division I. The MIT Press, 1990.
  15. Floridi L., Cowls J., King T.C. et al. (2020). How to Design AI for Social Good: Seven Essential Factors. Sci Eng Ethics, 26: 1771–1796.
  16. Forbes K. Opening the path to ethics in artificial intelligence. AI Ethics. 2021. N 1. P. 297–300.
  17. Gabriel I. Artifcial Intelligence, Values, and Alignment. Minds and Machines. 2020. N 30. P. 411‒437.
  18. Gambelin O. Brave: what it means to be an AI Ethicist. AI Ethics. 2021. N 1. P. 87–91.
  19. Garbuk S.V. Intellimetry as a way to ensure AI trustworthiness. The Proceedings of the 2018 International Conference on Artificial Intelligence Applications and Innovations (IC-AIAI). Limassol, Cyprus, 6‒10.10.2018. P. 27–30.
  20. Gendron C. Penser l’acceptabilité sociale: au-delà de l’intérêt, les valeurs. Éthique et relations publiques: pratiques, tensions et perspectives, 2014. N 11. P. 117–129.
  21. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds & Machines. 2020. N 30. P. 99–120.
  22. Hager G.D., Drobnis A., Fang F., Ghani R., Greenwald A., Lyons T., Parkes D. C. et al. Artificial intelligence for social good. 2017.
  23. Heidegger M. Die Frage nach der Technik. Die Kunste im technischen Zeitalter. München, 1954. S. 70–108.
  24. Iphofen R., Kritikos M. Regulating artificial intelligence and robotics: ethics by design in a digital society. Contemporary Social Science. 2019. N 16(2). P. 1–15.
  25. Kazim E., Soares Koshiyama A. A high-level overview of AI ethics. Patterns. 2021. N 2(9). P. 100314.
  26. Pekka A.-P., Bauer W., Bergmann U., Bieliková M., Bonefeld-Dahl C., Bonnet Y., Bouarfa L. et al. The European Commission’s high-level expert group on artificial intelligence: Ethics guidelines for trustworthy ai. Working Document for stakeholders’ consultation. Brussels, 2018. P. 1–37.
  27. Taddeo M., Floridi L. How AI Can be a Force for Good. Science. 2018. Vol. 361(6404). P. 751–752.
  28. ГОСТ Р 70889-2023 Информационные технологии. Искусственный интеллект. Структура жизненного цикла данных (ISO/IEC 8183:2023, MOD).
  29. ПНСТ 840 Искусственный интеллект. Обзор этических и общественных аспектов (ISO/IEC TR 24368:2022 MOD).
  30. ПНСТ 841-2023 Системная и программная инженерия. Требования и оценка качества систем и программного обеспечения (SQuaRE). Руководство по оценке качества систем ИИ (ISO/IEC DTS 25058, MOD).
  31. ПНСТ 776-2022 Информационные технологии. Интеллект искусственный. Управление рисками. (ISO/IEC FDIS 23894, NEQ).
  32. Федеральный закон «О персональных данных» от 27 июля 2006 г. № 152-ФЗ.
  33. SAE J3016 Surface vehicle recommended practice. Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles. June, 2018.

© Российская академия наук, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».