Прозрачность государственного управления в условиях автоматизированного принятия решений

Обложка

Цитировать

Полный текст

Аннотация

В условиях активного внедрения автоматизированных систем принятия решений и систем искусственного интеллекта в деятельность органов публичной власти актуализируется проблема поддержания надлежащего уровня прозрачности государственного управления, имеющая критическое значение для соблюдения принципов верховенства права и защиты фундаментальных прав граждан. Настоящая работа ставит целью провести комплексную систематизацию и критический анализ сложившихся в российском и зарубежном праве, а также в правовой теории подходов к решению указанной проблемы. Методологическую основу исследования составили общенаучные (анализ, синтез, системный подход) и частные (сравнительно-правовой, формально-юридический) методы изучения. В статье рассматриваются концептуальные основания и практические вызовы реализации требований прозрачности и объяснимости автоматизированного принятия решений и систем искусственного интеллекта, включая их роль в повышении доверия, обеспечении подотчетности, предотвращении дискриминации и укреплении легитимности публичного управления. Основное внимание уделено критическому анализу широкого спектра механизмов прозрачности (классифицируемых, в частности, по направленности на систему в целом или на отдельное решение, а также по моменту сообщения информации — ex ante или ex post): раскрытие порядка или логики принятия решений, «право на объяснение», контрфактологические объяснения, раскрытие данных и программного кода/модели, аудит и общественный контроль, информирование о применении, а также использование объяснимых/интерпретируемых моделей и иных технических решений. По каждому механизму выявлены преимущества, недостатки и трудности реализации — конфликт с защитой интеллектуальной собственности, техническая затрудненность имплементации и интерпретации, «эффект Расёмона» и фундаментальная проблема «черного ящика» систем искусственного интеллекта. Обосновывается вывод о недостаточности применения отдельных инструментов и необходимости разработки гибкого, риск-ориентированного и контекстуально-зависимого комплексного подхода. Подчеркивается актуальность имплементации адаптированных и системно увязанных механизмов в российское законодательство для поддержания надлежащего уровня прозрачности в условиях автоматизации государственного управления в России.

Об авторах

Павел Кабытов

Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации

Email: kapavel.v@yandex.ru
ORCID iD: 0000-0001-8656-5317

Кандидат юридических наук, ведущий научный сотрудник. Кандидат юридических наук, ведущий научный сотрудник. , д. 34.

Россия 117218, Москва, Большая Черемушкинская ул., д. 34.

Никита Назаров

Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации

Автор, ответственный за переписку.
Email: naznikitaal@gmail.com
ORCID iD: 0000-0002-3997-0886

Младший научный сотрудник. Младший научный сотрудник. , д. 34.

Россия 117218, Москва, Большая Черемушкинская ул., д. 34.

Список литературы

  1. Bathaee Y. (2017) The Artificial Intelligence Black Box and the Failure of Intent and Causation. Harvard Journal of Law & Technology, no. 2, pp. 889–938.
  2. Diver L., Schafer B. (2017) Opening the Black Box: Petri Nets and Privacy by Design. International Review of Law, Computers & Technology, no. 1, pp. 1–39.
  3. Edwards L., Veale M. (2018) Enslaving the Algorithm: From a Right to an Explanation to a Right to Better Decisions? IEEE Security & Privacy, no. 3, pp. 46–54.
  4. Felzmann H., Villaronga E.F. et al. (2019) Transparency You Can Trust: Transparency Requirements for Artificial Intelligence between Legal Norms and Contextual Concerns. Big Data & Society, no. 1, pp. 1–14.
  5. Ferrario A., Loi M. (2022) The Robustness of Counterfactual Explanations over Time. IEEE Access, no. 10, pp. 82736–82750.
  6. Goodman B., Flaxman S. (2017) European Union Regulations on Algorithmic Decision Making and a Right to Explanation. AI Magazine, no. 3, pp. 50–57.
  7. Guidotti R., Monreale A. et al. (2019) A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys, no. 5, pp. 1–42.
  8. Guidotti R. (2022) Counterfactual Explanations and How to Find them: Literature Review and Benchmarking. Data Mining and Knowledge Discovery, vol. 38, pp. 2770–2824.
  9. Kuner C., Bygrave L.A., Docksey C. (2019) The EU General Data Protection Regulation (GDPR): a commentary. Oxford: University Press, 1393 p.
  10. Mittelstadt B. (2016) Auditing for Transparency in Content Personalization Systems. International Journal of Communication. no. 10, pp. 4991–5002.
  11. Pilipenko A.N. (2019) France: towards Digital Democracy. Pravo. Journal Vysshey shkoly ekonomiki=Law. Journal of the Higher School of Economics, vol. 12, no. 4, pp. 185–207. (in Russ.)
  12. Santosuosso A., Pinotti G. (2020) Bottleneck or Crossroad? Problems of Legal Sources Annotation and some Theoretical Thoughts Stats, vol. 3, no. 3, pp. 376–395.
  13. Selbst A.D., Powles J. (2017) Meaningful Information and the Right to Explanation. International Data Privacy Law, vol. 7, no. 4, pp. 233–242.
  14. Talapina E.V. (2024) Principle of Transparency in the use of Artificial Intelligence. Gosudarstvennaya vlast i mestnoe samoupravlenie=State Power and Local Self-Government, no. 7, pp. 36–39 (in Russ.)
  15. Troisi E. (2022) Automated Decision Making and Right to Explanation. The Right of Access as ex post Information. European Journal of Privacy Law & Technologies, no. 1, pp. 182–202.
  16. Tutt A. (2017) An Fda for Algorithms. Administrative Law Review, no. 1, pp. 83–123.
  17. Vengerov A.B. (1979) Legal Bases of Management Automation in the National Economy of the USSR. Moscow: Vysshaya shkola, 245 p. (in Russ.)
  18. Wachter S., Mittelstadt B., Floridi L. (2017) Why a Right to Explanation of Automated Decision-Making does not Exist in the General Data Protection Regulation. International Data Privacy Law, vol. 7, no. 2, pp. 76–99.
  19. Wulf A.J., Seizov O. (2024) Please Understand We Cannot Provide Further Information: Evaluating Content and Transparency of GDPR-Mandated AI Disclosures. AI & SOCIETY, vol. 39, no. 1, pp. 235–256.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Кабытов П., Назаров Н., 2025

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».