Пути минимизации рисков внедрения ИИ-агентов через механизмы государственного управления.

Обложка

Цитировать

Полный текст

Аннотация

Обоснование. Повсеместное внедрение технологий искусственного интеллекта привело к осознанию рисков, обоснованность которых требует исследования механизмов работы ИИ, а также последствий в отношении всей социальной жизни, и возможностей государственного управления. Закрытость для пользователя и потребителя механики работы ИИ-агентов как автономных систем, решающих конкретную задачу, и вместе с тем комфорт, обеспечиваемый автоматизацией многих процессов, уже выходящих за пределы операционных в классическом понимании, повышает рискогенность повсеместного использования таких технологий. Проверка обоснованности этих опасений и выработка позиции государства к данным рискам осуществлена на основе анализа принципов работы ИИ-агентов с данными. В статье выделяются конкретные риски внедрения ИИ-агентов, связанные с технологией обработки информации.

Цель – поиск путей минимизации рисков внедрения ИИ-агентов в социальную жизнь общества и экономику государства через анализ механизмов работы отдельных автономных интеллектуальных систем.

Метод и методология проведения работы. В качестве основного метода применялся абстрактно-логический, также использовался вторичный анализ сторонних исследований.

Результаты. Обобщены рискогенные факторы функционирования автономных интеллектуальных систем, уточнены направления государственного регулирования в области технологий искусственного интеллекта.

Область применения результатов. Полученные результаты могут быть использованы при разработке государственных стратегий регулирования ИИ и при формулировании положений нормативно-правовых актов.

Об авторах

Алла Керимовна Полянина

Нижегородский государственный университет им. Н.И. Лобачевского; Приволжский государственный университет путей сообщения

Автор, ответственный за переписку.
Email: Alker@yandex.ru
ORCID iD: 0000-0003-2035-9849
SPIN-код: 4324-4300

профессор кафедры менеджмента и государственного управления, доктор социологических наук; доцент

 

Россия, пр. Гагарина, 23, г. Нижний Новгород, Нижегородская область, 603087, Российская Федерация; пл. Комсомольская, 3, г. Нижний Новгород, Нижегородская область, 603087, Российская Федерация

Список литературы

  1. Аксянов, Н. С. (2021). Использование современных технологий в рекрутменте персонала. Наука Красноярья, 10(5-1), 68–81.
  2. Володенков, С. В., Федорченко, С. Н., & Печенкин, Н. М. (2024). Риски, угрозы и вызовы современных социально-политических коммуникаций в условиях развития искусственного интеллекта и нейросетевых технологий. Политическая экспертиза: ПОЛИТЭКС, 20(3), 474–494.
  3. Гринин, Л. Е., Гринин, А. Л., & Гринин, И. Л. (2023). Искусственный интеллект: развитие и тревоги. Взгляд в будущее. Статья вторая. Искусственный интеллект: терра инкогнита или управляемая сила? Философия и общество, 4(109), 5–32.
  4. Игнатьев, В. И. (2019). И грядет «другой» актор… Становление техносубъекта в контексте движения к технологической сингулярности. Социология науки и технологий, 10(1), 64–78.
  5. Капелюшников, Р. И. (2025). Искусственный интеллект и проблема сингулярности в экономике. Вопросы экономики, 5, 5–45.
  6. Козлов, С. Д. (2019). Политическая трансформация в условиях приближения к точке технологической сингулярности. Вестник Института мировых цивилизаций, 10(1-22), 6–10.
  7. Курцвейл, Р. (2018). Эволюция разума, или Бесконечные возможности человеческого мозга, основанные на распознавании образов. Москва: Эксмо, Бомбора, 349 с.
  8. Лукьянович, Н. В., & Некрасов, С. А. (2024). Так ли новы риски развития искусственного интеллекта в экономике и обществе? Контуры глобальных трансформаций: политика, экономика, право, 17(5), 44–60.
  9. Намиот, Д. Е., & Ильюшин, Е. А. (2025). О кибербезопасности ИИ-агентов. International Journal of Open Information Technologies, 13(9), 13–24.
  10. Николаева, Е. М., Николаев, М. С., & Васильева, В. С. (2024). Человек и искусственный интеллект: перспективы и риски биолого-кремниевой коллаборации. Век глобализации, 2, 151–159.
  11. Ракитов, А. И. (2016). Постинформационное общество. Философские науки, 12, 7–19.
  12. Alqodsi, E. M., & Gura, D. (2023). High tech and legal challenges: Artificial intelligence-caused damage regulation. Cogent Social Sciences, 9(2), 2270751. https://doi.org/10.1080/2331188X.2023.2270751
  13. Cyman, D., Gromova, E., & Juchnevicius, E. (2021). Regulation of artificial intelligence in BRICS and the European Union. BRICS Law Journal, 8(1), 86–115. https://doi.org/10.21638/25005.bricslawj.2021.1.05
  14. Gerlich, M. (2024). Brace for impact: Facing the AI revolution and geopolitical shifts in a future societal scenario for 2025–2040. Societies, 14. https://doi.org/10.3390/soc14010001
  15. Gurinovich, A. G., & Lapina, M. A. (2022). Legal regulation of artificial intelligence, robots, and robotic objects in the field of social relations. Relacoes Internacionais no Mundo Atual, 1(34), 55–78. https://doi.org/10.22526/rima.v1i34.112
  16. Li, O. (2023). Artificial general intelligence and panentheism. Theology and Science, 21(2), 273–287. https://doi.org/10.1080/14746700.2023.2132583

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML


Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).