РЕГУЛИРОВАНИЕ РИСКОВ, СВЯЗАННЫХ СО ЗЛОНАМЕРЕННЫМ ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В США, ЕС И КИТАЕ

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

В статье представлен анализ основных механизмов регулирования рисков злонамеренного использования искусственного интеллекта (ЗИИИ) в США, ЕС и КНР. Актуальность проблемы ЗИИИ подтверждена многочисленными данными о применении технологий искусственного интеллекта (ИИ) антисоциальными, преступными акторами, включая террористические. Цель статьи -выявить специфику регулирования рисков злонамеренного использования искусственного интеллекта в США, ЕС и КНР. Установлено, что в США противодействие ЗИИИ еще не выделилось в системные решения на уровне федеральных органов власти, соответствующие меры отдельных штатов и компаний. Речь идет о решениях, которые принимают во внимание растущие риски ЗИИИ в рамках общего регулирования ИИ и безопасности его использования. В ЕС принят первый в мире закон об искусственном интеллекте, который уделяет незначительное внимание проблемам ЗИИИ. Основными инициаторами предложений по противодействию и регулированию рисков в Евросоюзе выступают силовые структуры, такие как Европол. В КНР регулирование рисков ЗИИИ наиболее централизовано и становится темой стратегических документов и законодательных актов. В статье использован системный подход при рассмотрении различных вариантов угроз ЗИИИ и при формулировке выводов исследования.

Об авторах

Д. Ю БАЗАРКИНА

Институт Европы РАН; Санкт-Петербургский государственный университет

Email: bazarkina-icspsc@yandex.ru
Доктор политических наук, ведущий научный сотрудник Отдела исследований европейской интеграции Москва, Россия; Санкт-Петербург, Россия

Е. Н ПАШЕНЦЕВ

Дипломатическая академия МИД России; Санкт-Петербургский государственный университет

Email: icspsc@mail.ru
Доктор исторических наук, профессор, главный научный сотрудник; профессор факультета международных отношений Москва, Россия; Санкт-Петербург, Россия

Е. А МИХАЛЕВИЧ

ПАО «Газпром нефть»; Санкт-Петербургский государственный университет

Email: ekaterina_mikhalevich@mail.ru
Главный специалист Управления организационного развития; инженер-исследователь факультета международных отношений Санкт-Петербург, Россия

Список литературы

  1. Базаркина Д.Ю. (2023) Цифровое десятилетие Европейского союза: цели и промежуточные результаты. Аналитические записки ИЕ РАН. Выпуск 4. С. 89-98. DOI: http://doi.org/10.15211/analytics43420238998
  2. Потемкина О.Ю. (2019) Лучше, чем люди? Политика ЕС в области искусственного интеллекта. Научно-аналитический вестник ИЕ РАН. № 5. С. 16-21. DOI: http://dx.doi.org/10.15211/vestnikieran520191621
  3. Маслова Е.А., Сорокова Е.Д. (2022) Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС. Современная Европа. № 5(112). С. 19-33. doi: 10.31857/S0201708322050023
  4. Сорокова Е.Д. (2023) Реагирование Европейского союза на глобальные технологические риски: практика и эффективность. Дис. ... канд. полит. наук. МГИМО, Москва. 280 с.
  5. Antunes H.S. (2024) European AI Regulation Perspectives and Trends. Legal Aspects of Autonomous Systems. ICASL 2022. Data Science, Machine Intelligence, and Law. Ed. by D. Moura Vicente, R. Soares Pereira, A. Alves Leal. Vol. 4. Springer, Cham, Switzerland. P. 53-65. DOI: https://doi.org/10.1007/978-3-031-47946-5_4
  6. Bazarkina D. (2023) Current and Future Threats of the Malicious Use of Artificial Intelligence by Terrorists: Psychological Aspects. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev E. Palgrave Macmillan, Cham, Switzerland. P. 251-272. DOI: https://doi.org/10.1007/978-3-031-22552-9_10
  7. Cao L. (2023) AI and data science for smart emergency, crisis and disaster resilience. International Journal of Data Science and Analytics. No. 15. P. 231-246. DOI: https://doi.org/10.1007/s41060-023-00393-w
  8. Dixon R.B.L. (2023) A principled governance for emerging AI regimes: lessons from China, the European Union, and the United States. AI Ethics. No. 3. P. 793-810. DOI: https://doi.org/10.1007/s43681-022-00205-0
  9. Doss C., Mondschein J., Shu D. Wolfson T., Kopecky D., Fitton-Kane V. A., Bush L., Tucker C. (2023) Deepfakes and scientific knowledge dissemination. Scientific Reports. No. 13. 13429. DOI: https://doi.org/10.1038/s41598-023-39944-3
  10. Hemberg E., Zhang L., O’Reilly U.M. (2020) Exploring Adversarial Artificial Intelligence for Autonomous Adaptive Cyber Defense. Adaptive Autonomous Secure Cyber Systems. Ed. by S. Jajodia, G. Cybenko, V. Subrahmanian, V. Swarup, C. Wang, M. Wellman. Springer, Cham, Switzerland. P. 41-61. DOI: https://doi.org/10.1007/978-3-030-33432-1_3
  11. Laux J. (2023) Institutionalised distrust and human oversight of artificial intelligence: towards a democratic design of AI governance under the European Union AI Act. AI & Society. DOI: https://doi.org/10.1007/s00146-023-01777-z
  12. Lukacovic M.N., Sellnow-Richmond D.D. (2023) The COVID-19 Pandemic and the Rise of Malicious Use of AI Threats to National and International Psychological Security. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 175-201. DOI: https://doi.org/10.1007/978-3-031-22552-9_7
  13. Malatji M., Tolah A. (2024) Artificial intelligence (AI) cybersecurity dimensions: a comprehensive framework for understanding adversarial and offensive AI. AI Ethics. DOI: https://doi.org/10.1007/s43681-024-00427-4
  14. Orwat C., Bareis J., Folberth A., Jahnel J., Wadephul C. (2024) Normative Challenges of Risk Regulation of Artificial Intelligence. Nanoethics. Vol. 18. Article 11. DOI: https://doi.org/10.1007/s11569-024-00454-9
  15. Pashentsev E. (2023) General Content and Possible Threat Classifications of the Malicious Use of Artificial Intelligence to Psychological Security. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 23-46. DOI: https://doi.org/10.1007/978-3-031-22552-9_2
  16. Pauwels E. (2023) How to Protect Biotechnology and Biosecurity from Adversarial AI Attacks? A Global Governance Perspective. Cyberbiosecurity. Ed. by D. Greenbaum. Springer, Cham, Switzerland. P. 173-184. DOI: https://doi.org/10.1007/978-3-031-26034-6_11
  17. Thomann P.E. (2023) Geopolitical Competition and the Challenges for the European Union of Countering the Malicious Use of Artificial Intelligence. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 453-486. DOI: https://doi.org/10.1007/978-3-031-22552-9_17
  18. Vassilev A., Oprea A., Fordyce A., Anderson H. (2024) Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. NIST Artifcial Intelligence (AI) Report, NIST AI 100-2e2023. National Institute of Standards and Technology, Gaithersburg, USA. 99 p. DOI: https://doi.org/10.6028/NIST.AI.100-2e2023
  19. Wells D. (2024) The Next Paradigm-Shattering Threat? Right-Sizing the Potential Impacts of Generative AI on Terrorism. Middle East Institute, Washington, USA. 16 p.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».