Возможности правового нивелирования политических и организационно-управленческих рисков применения искусственного интеллекта


Цитировать

Полный текст

Аннотация

Рассматриваются основные риски применения технологий, основанных на элементах искусственного интеллекта, а также правовые меры, которые рационально было бы предпринять для минимизации этих рисков. Установлено, что использование технологий, основанных на отдельных элементах искусственного интеллекта (далее - ИИ), в политической сфере несет с собой как потенциал для улучшения эффективности управленческой работы, так и серьезные риски. Подчеркивается отсутствие у искусственного интеллекта человеческой морали, и вытекающие отсюда этические проблемы применения ИИ, проблема сохранения конфиденциальности данных, с которыми работает ИИ, проблема создания и распространения ложной информации (на примере дипфейков), проблема дискриминации искусственным интеллектом и неравного доступа граждан к технологиям ИИ и др. Вполне очевидно, что прямо сейчас не создан сильный ИИ, имеющий в своем арсенале набор возможностей, который максимально приблизят его к человеку по когнитивным способностям. Тем не менее, тенденции последних лет говорят о том, что общество, государство, даже сами разработчики не всегда могут предвидеть негативные последствия новых технологий. В этой связи представляется наиболее целесообразным выстроить механизм опережающего регулирования, который будет учитывать самые ключевые риски внедрения технологий, основанных на ИИ. В качестве правовых мер минимизации указанных рисков предложено создать и контролировать соблюдение новых правовых норм, создать как государственные, так и независимые экспертные органы и комиссии по контролю за ИИ и этике искусственного интеллекта, обучать граждан, и особенно чиновников, работающих с ИИ, не только необходимым навыкам, но так же и вопросам этики использования ИИ, особое внимание уделить принципам прозрачности и открытости в применении этих новых технологий. Указывается на необходимость учитывать зарубежный опыт и создать международные этические и юридические нормы, призванные снизить риски, сопутствующие распространению технологий искусственного интеллекта.

Об авторах

Александр Сергеевич Киселев

Финансовый университет при Правительстве Российской Федерации

Автор, ответственный за переписку.
Email: alskiselev@fa.ru
ORCID iD: 0000-0002-5044-4721
SPIN-код: 3570-8911

кандидат юридических наук, ведущий научный сотрудник, Центр исследований и экспертиз; доцент кафедры международного и публичного права, юридический факультет, ФГБОУ ВО «Финансовый университет при Правительстве Российской Федерации»; заместитель главного редактора журнала «Банковское право» ИГ «Юрист»

125468, Российская Федерация, г. Москва, Ленинградский проспект, д. 49

Список литературы

  1. Basheva, O. A. (2020) Digital activism as a new method of civil mobilization. Scientific result of Sociology and management. 6 (1), 41-57. (in Russian).
  2. Bertovsky, L.V. (2021) High-tech law: Understanding, genesis and prospects. RUDN Journal of Law. 25 (4), 735-749. (in Russian).
  3. Chernogor, N.N. (2022) Artificial intelligence and its role in the transformation of modern law. Journal of Russian Law. 26 (4), 5-15. (in Russian).
  4. Crawford, K. & Calo, R. (2016) There are gaps in artificial intelligence research. Nature. 538, 311-313.
  5. Gavrilova, Yu. A. (2021) The concept of integrating artificial intelligence into the legal system. RUDN Journal of Law. 25 (3), 673-692. https://doi.org/10.22363/2313-2337-2021-25-3-673-692
  6. Ilina, E.M. (2022) Politics and management in the Government of the Russian Federation: The political course of public administration. Ars Administrandi. 3, 403-421. (in Russian).
  7. Kazaryan, V.P. & Shutova, K.Yu. (2023) Ethical risks in the practice of artificial intelligence. Ideas and ideals. (2-2), 346-364. (in Russian).
  8. Kiselev, A.S. (2021) On the need for legal regulation in the field of artificial intelligence: Deepfake as a threat to national security. Bulletin of the Moscow State University. Series: Jurisprudence. (3), 54-64. (in Russian).
  9. Khabrieva, T. Ya. (2023) Technological imperatives of the modern world and law. Journal of Foreign Legislation and Comparative Jurisprudence. 19 (1), 5-12. (in Russian).
  10. Kozlov, S.E. (2020) Internet activism as a form of political participation in modern Russia. State administration Electronic Bulletin. (79), 154-169. https://doi.org/10.24411/2070-1381-2020-10053 (in Russian).
  11. Lemaikina, S.V. (2023) Problems of countering the use of deepfakes for prestigious purposes. Lawyer-Jurist. (2 (105)), 143-148. (in Russian).
  12. Lovink, G. (2019) Critical theory of the Internet. Moscow, Ad Marginem Publ. (in Russian).
  13. Novitsky, N.A. (2020) Issues of combining public administration in general, reducing investment risks in the development of digital systems with artificial intelligence. Eurasian Union of Scientists. (8-3 (77)), 48-54. (in Russian).
  14. Postarnak, A.M. (2023) Analysis of foreign legal regulation of deepfakes: The problem of intellectual integrity protection. Theory and practice of social development. (6 (182)), 269-273. (in Russian).
  15. Sorokova, E.D. (2022) Ethics of artificial intelligence in Russia and the European Union: Common in risk-oriented approaches. Discourse-Pi. (3), 157-169. (in Russian).
  16. Ren, Hu. (2022) Artificial intelligence and the legal system of the future: The right to access the electric energy of artificial intelligence. Open Journal of Social Sciences. 10 (12), 447-458.
  17. Volodenkov, S.V. & Fedorchenko, S.N. (2021) Digital infrastructures of civil and political activism: Current challenges, risks and limitations. Monitoring. 6, 97-118. (in Russian).
  18. Volodenkov, S.V. (2022) Politics in digital format in the research of Russian and foreign scientists: Introdusing the issue. RUDN Journal of Political Science. 24 (3), 339-350. https://doi.org/10.22363/2313-1438-2022-24-3-339-350 (in Russian).
  19. Yastrebov, O.A. (2018) Artificial intelligence in the legal space. RUDN Journal of Law. 22 (3), 315-328. (in Russian).
  20. Yuste, R., Goering, S. et al. (2017) These four priorities for neurotechnology and artificial intelligence. Nature. 551 (7679), 159-163.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).