Пути минимизации рисков внедрения ИИ-агентов через механизмы государственного управления.
- Авторы: Полянина А.К.1,2
-
Учреждения:
- Нижегородский государственный университет им. Н.И. Лобачевского
- Приволжский государственный университет путей сообщения
- Выпуск: Том 14, № 3 (2025)
- Страницы: 158-171
- Раздел: Экономическая политика и государственное управление
- Статья опубликована: 31.10.2025
- URL: https://journals.rcsi.science/2070-7568/article/view/378407
- DOI: https://doi.org/10.12731/3033-5973-2025-14-3-303
- EDN: https://elibrary.ru/KKKKYJ
- ID: 378407
Цитировать
Полный текст
Аннотация
Обоснование. Повсеместное внедрение технологий искусственного интеллекта привело к осознанию рисков, обоснованность которых требует исследования механизмов работы ИИ, а также последствий в отношении всей социальной жизни, и возможностей государственного управления. Закрытость для пользователя и потребителя механики работы ИИ-агентов как автономных систем, решающих конкретную задачу, и вместе с тем комфорт, обеспечиваемый автоматизацией многих процессов, уже выходящих за пределы операционных в классическом понимании, повышает рискогенность повсеместного использования таких технологий. Проверка обоснованности этих опасений и выработка позиции государства к данным рискам осуществлена на основе анализа принципов работы ИИ-агентов с данными. В статье выделяются конкретные риски внедрения ИИ-агентов, связанные с технологией обработки информации.
Цель – поиск путей минимизации рисков внедрения ИИ-агентов в социальную жизнь общества и экономику государства через анализ механизмов работы отдельных автономных интеллектуальных систем.
Метод и методология проведения работы. В качестве основного метода применялся абстрактно-логический, также использовался вторичный анализ сторонних исследований.
Результаты. Обобщены рискогенные факторы функционирования автономных интеллектуальных систем, уточнены направления государственного регулирования в области технологий искусственного интеллекта.
Область применения результатов. Полученные результаты могут быть использованы при разработке государственных стратегий регулирования ИИ и при формулировании положений нормативно-правовых актов.
Об авторах
Алла Керимовна Полянина
Нижегородский государственный университет им. Н.И. Лобачевского; Приволжский государственный университет путей сообщения
Автор, ответственный за переписку.
Email: Alker@yandex.ru
ORCID iD: 0000-0003-2035-9849
SPIN-код: 4324-4300
профессор кафедры менеджмента и государственного управления, доктор социологических наук; доцент
Россия, пр. Гагарина, 23, г. Нижний Новгород, Нижегородская область, 603087, Российская Федерация; пл. Комсомольская, 3, г. Нижний Новгород, Нижегородская область, 603087, Российская Федерация
Список литературы
- Аксянов, Н. С. (2021). Использование современных технологий в рекрутменте персонала. Наука Красноярья, 10(5-1), 68–81.
- Володенков, С. В., Федорченко, С. Н., & Печенкин, Н. М. (2024). Риски, угрозы и вызовы современных социально-политических коммуникаций в условиях развития искусственного интеллекта и нейросетевых технологий. Политическая экспертиза: ПОЛИТЭКС, 20(3), 474–494.
- Гринин, Л. Е., Гринин, А. Л., & Гринин, И. Л. (2023). Искусственный интеллект: развитие и тревоги. Взгляд в будущее. Статья вторая. Искусственный интеллект: терра инкогнита или управляемая сила? Философия и общество, 4(109), 5–32.
- Игнатьев, В. И. (2019). И грядет «другой» актор… Становление техносубъекта в контексте движения к технологической сингулярности. Социология науки и технологий, 10(1), 64–78.
- Капелюшников, Р. И. (2025). Искусственный интеллект и проблема сингулярности в экономике. Вопросы экономики, 5, 5–45.
- Козлов, С. Д. (2019). Политическая трансформация в условиях приближения к точке технологической сингулярности. Вестник Института мировых цивилизаций, 10(1-22), 6–10.
- Курцвейл, Р. (2018). Эволюция разума, или Бесконечные возможности человеческого мозга, основанные на распознавании образов. Москва: Эксмо, Бомбора, 349 с.
- Лукьянович, Н. В., & Некрасов, С. А. (2024). Так ли новы риски развития искусственного интеллекта в экономике и обществе? Контуры глобальных трансформаций: политика, экономика, право, 17(5), 44–60.
- Намиот, Д. Е., & Ильюшин, Е. А. (2025). О кибербезопасности ИИ-агентов. International Journal of Open Information Technologies, 13(9), 13–24.
- Николаева, Е. М., Николаев, М. С., & Васильева, В. С. (2024). Человек и искусственный интеллект: перспективы и риски биолого-кремниевой коллаборации. Век глобализации, 2, 151–159.
- Ракитов, А. И. (2016). Постинформационное общество. Философские науки, 12, 7–19.
- Alqodsi, E. M., & Gura, D. (2023). High tech and legal challenges: Artificial intelligence-caused damage regulation. Cogent Social Sciences, 9(2), 2270751. https://doi.org/10.1080/2331188X.2023.2270751
- Cyman, D., Gromova, E., & Juchnevicius, E. (2021). Regulation of artificial intelligence in BRICS and the European Union. BRICS Law Journal, 8(1), 86–115. https://doi.org/10.21638/25005.bricslawj.2021.1.05
- Gerlich, M. (2024). Brace for impact: Facing the AI revolution and geopolitical shifts in a future societal scenario for 2025–2040. Societies, 14. https://doi.org/10.3390/soc14010001
- Gurinovich, A. G., & Lapina, M. A. (2022). Legal regulation of artificial intelligence, robots, and robotic objects in the field of social relations. Relacoes Internacionais no Mundo Atual, 1(34), 55–78. https://doi.org/10.22526/rima.v1i34.112
- Li, O. (2023). Artificial general intelligence and panentheism. Theology and Science, 21(2), 273–287. https://doi.org/10.1080/14746700.2023.2132583
Дополнительные файлы


