Возможности правового нивелирования политических и организационно-управленческих рисков применения искусственного интеллекта


Цитировать

Полный текст

Аннотация

Рассматриваются основные риски применения технологий, основанных на элементах искусственного интеллекта, а также правовые меры, которые рационально было бы предпринять для минимизации этих рисков. Установлено, что использование технологий, основанных на отдельных элементах искусственного интеллекта (далее - ИИ), в политической сфере несет с собой как потенциал для улучшения эффективности управленческой работы, так и серьезные риски. Подчеркивается отсутствие у искусственного интеллекта человеческой морали, и вытекающие отсюда этические проблемы применения ИИ, проблема сохранения конфиденциальности данных, с которыми работает ИИ, проблема создания и распространения ложной информации (на примере дипфейков), проблема дискриминации искусственным интеллектом и неравного доступа граждан к технологиям ИИ и др. Вполне очевидно, что прямо сейчас не создан сильный ИИ, имеющий в своем арсенале набор возможностей, который максимально приблизят его к человеку по когнитивным способностям. Тем не менее, тенденции последних лет говорят о том, что общество, государство, даже сами разработчики не всегда могут предвидеть негативные последствия новых технологий. В этой связи представляется наиболее целесообразным выстроить механизм опережающего регулирования, который будет учитывать самые ключевые риски внедрения технологий, основанных на ИИ. В качестве правовых мер минимизации указанных рисков предложено создать и контролировать соблюдение новых правовых норм, создать как государственные, так и независимые экспертные органы и комиссии по контролю за ИИ и этике искусственного интеллекта, обучать граждан, и особенно чиновников, работающих с ИИ, не только необходимым навыкам, но так же и вопросам этики использования ИИ, особое внимание уделить принципам прозрачности и открытости в применении этих новых технологий. Указывается на необходимость учитывать зарубежный опыт и создать международные этические и юридические нормы, призванные снизить риски, сопутствующие распространению технологий искусственного интеллекта.

Об авторах

Александр Сергеевич Киселев

Финансовый университет при Правительстве Российской Федерации

Автор, ответственный за переписку.
Email: alskiselev@fa.ru
ORCID iD: 0000-0002-5044-4721
SPIN-код: 3570-8911

кандидат юридических наук, ведущий научный сотрудник, Центр исследований и экспертиз; доцент кафедры международного и публичного права, юридический факультет, ФГБОУ ВО «Финансовый университет при Правительстве Российской Федерации»; заместитель главного редактора журнала «Банковское право» ИГ «Юрист»

125468, Российская Федерация, г. Москва, Ленинградский проспект, д. 49

Список литературы

  1. Basheva, O. A. (2020) Digital activism as a new method of civil mobilization. Scientific result of Sociology and management. 6 (1), 41-57. (in Russian).
  2. Bertovsky, L.V. (2021) High-tech law: Understanding, genesis and prospects. RUDN Journal of Law. 25 (4), 735-749. (in Russian).
  3. Chernogor, N.N. (2022) Artificial intelligence and its role in the transformation of modern law. Journal of Russian Law. 26 (4), 5-15. (in Russian).
  4. Crawford, K. & Calo, R. (2016) There are gaps in artificial intelligence research. Nature. 538, 311-313.
  5. Gavrilova, Yu. A. (2021) The concept of integrating artificial intelligence into the legal system. RUDN Journal of Law. 25 (3), 673-692. https://doi.org/10.22363/2313-2337-2021-25-3-673-692
  6. Ilina, E.M. (2022) Politics and management in the Government of the Russian Federation: The political course of public administration. Ars Administrandi. 3, 403-421. (in Russian).
  7. Kazaryan, V.P. & Shutova, K.Yu. (2023) Ethical risks in the practice of artificial intelligence. Ideas and ideals. (2-2), 346-364. (in Russian).
  8. Kiselev, A.S. (2021) On the need for legal regulation in the field of artificial intelligence: Deepfake as a threat to national security. Bulletin of the Moscow State University. Series: Jurisprudence. (3), 54-64. (in Russian).
  9. Khabrieva, T. Ya. (2023) Technological imperatives of the modern world and law. Journal of Foreign Legislation and Comparative Jurisprudence. 19 (1), 5-12. (in Russian).
  10. Kozlov, S.E. (2020) Internet activism as a form of political participation in modern Russia. State administration Electronic Bulletin. (79), 154-169. https://doi.org/10.24411/2070-1381-2020-10053 (in Russian).
  11. Lemaikina, S.V. (2023) Problems of countering the use of deepfakes for prestigious purposes. Lawyer-Jurist. (2 (105)), 143-148. (in Russian).
  12. Lovink, G. (2019) Critical theory of the Internet. Moscow, Ad Marginem Publ. (in Russian).
  13. Novitsky, N.A. (2020) Issues of combining public administration in general, reducing investment risks in the development of digital systems with artificial intelligence. Eurasian Union of Scientists. (8-3 (77)), 48-54. (in Russian).
  14. Postarnak, A.M. (2023) Analysis of foreign legal regulation of deepfakes: The problem of intellectual integrity protection. Theory and practice of social development. (6 (182)), 269-273. (in Russian).
  15. Sorokova, E.D. (2022) Ethics of artificial intelligence in Russia and the European Union: Common in risk-oriented approaches. Discourse-Pi. (3), 157-169. (in Russian).
  16. Ren, Hu. (2022) Artificial intelligence and the legal system of the future: The right to access the electric energy of artificial intelligence. Open Journal of Social Sciences. 10 (12), 447-458.
  17. Volodenkov, S.V. & Fedorchenko, S.N. (2021) Digital infrastructures of civil and political activism: Current challenges, risks and limitations. Monitoring. 6, 97-118. (in Russian).
  18. Volodenkov, S.V. (2022) Politics in digital format in the research of Russian and foreign scientists: Introdusing the issue. RUDN Journal of Political Science. 24 (3), 339-350. https://doi.org/10.22363/2313-1438-2022-24-3-339-350 (in Russian).
  19. Yastrebov, O.A. (2018) Artificial intelligence in the legal space. RUDN Journal of Law. 22 (3), 315-328. (in Russian).
  20. Yuste, R., Goering, S. et al. (2017) These four priorities for neurotechnology and artificial intelligence. Nature. 551 (7679), 159-163.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».