Культурологическая деконструкция социально-культурных угроз ChatGPT информационной безопасности российских граждан

Обложка

Цитировать

Полный текст

Аннотация

Предмет исследования − социально-культурные угрозы информационной безопасности российских граждан, связанные с технологиями ChatGPT (Chat Generative Pre-trained Transformer, машинный генератор текстовых ответов, имитирующий диалог). Объект исследования − оценки соотношения преимуществ и угроз генеративных языковых моделей на основе «машинного обучения» в современной (2021−2023) научной литературе (журналах ВАК К1, К2 и Scopus Q1, Q2). Научная новизна исследования заключается в культурологическом подходе к анализу угроз безопасности российских граждан, связанных с использованием ChatGPT как одной из технологий «искусственного интеллекта». Постановка задачи классического теста Тюринга «отличить человека от машины» характеризуется как схоластическая абстракция, взамен предлагается более корректный и продуктивный подход: социально-культурная оценка ценности (на основе культурологической аксиологии) новых компьютерных технологий. Исходной точкой анализа является определение социально-культурной ценности (или, наоборот, ущерба) в результате применения генеративных языковых моделей на основе машинного обучения. Далее выявляется вклад и ответственность различных социально-культурных субъектов её создания и применения − пользователя, создателя и разработчика. Результатом применения предлагаемого подхода является деконструкция дискурса «философии искусственного интеллекта» в части некритической трансляции деклараций разработчиков, предназначенных для маркетинга и привлечения финансирования. Гипертрофированное восприятие, неустойчиво балансирующее на грани утопии и антиутопии, оценивается как риск неверного определения и ранжирования угроз информационной безопасности. Предположения о гипотетическом «сверхоружии психологических войн» маскируют современные инциденты трансграничной утечки конфиденциальных данных, риски привлечения к ответственности за публикацию заведомо ложных сведений и незаконного контента в результате использования ChatGPT. Рекомендуются меры национальной безопасности, включая ограничительные и повышение общегражданской культуры информационной безопасности пользователей, а также ориентация отечественных разработок решений подобного типа на традиционные ценности, социально-культурную идентичность и интересы российских граждан.

Об авторах

Павел Геннадиевич Былевский

Федеральное государственное бюджетное образовательное учреждение высшего образования «Московский государственный лингвистический университет»

Email: pr-911@yandex.ru
ORCID iD: 0000-0002-0453-526X
доцент; кафедра информационной культуры цифровой трансформации; кафедра международной информационной безопасности;Доцент департамента информационной безопасности;

Список литературы

  1. Gill S., Kaur R. ChatGPT: Vision and challenges // Internet of Things and Cyber-Physical Systems. 2023. Vol. 3. Pp. 262-271. doi: 10.1016/j.iotcps.2023.05.004
  2. Сойфер В.А. Human factor // Онтология проектирования. 2021. Т. 11. № 1 (39). С. 8-19. doi: 10.18287/2223-9537-2021-11-1-8-19
  3. Agathokleous E., Saitanis C., Fang Ch., Yu Zh. Use of ChatGPT: What does it mean for biology and environmental science? // Science of The Total Environment. 2023. Vol. 888. doi: 10.1016/j.scitotenv.2023.164154
  4. Миронова Н.Г. Философское осмысление социальных рисков интеллектуальной автоматизации социального управления // Цифровой ученый: лаборатория философа. 2021. Т. 4. № 2. С. 125-144. doi: 10.32326/2618-9267-2021-4-2-125-144
  5. Гончаров В.С. Применение комбинированных технологий искусственного интеллекта в информационно-психологических войнах // Вопросы политологии. 2022. Т. 12. № 4 (80). С. 1118-1126. doi: 10.35775/PSI.2022.80.4.015
  6. Булычев И.И., Казаков В.Г., Кирюшин А.Н. Будущее искусственного интеллекта: скептики vs прагматики // Военный академический журнал. 2023. № 2 (38). С. 10-21. EDN: FJVPRO
  7. Груздев А.А., Самарин А.С., Илларионов Г.А. Проекты цифровой философии в контексте развития digital humanities // Журнал Сибирского федерального университета. Серия: Гуманитарные науки. 2023. Т. 16. № 7. С. 1165-1176. EDN: GBBFUA
  8. Есенин Р.А. Психологические вызовы цифровой реальности: искусственный интеллект сегодня и в перспективе // Профессиональное образование и рынок труда. 2023. Т. 11. № 2 (53). С. 121-128. doi: 10.52944/PORT.2023.53.2.009
  9. Kreps S., Jakesch M. Can AI communication tools increase legislative responsiveness and trust in democratic institutions? // Government Information Quarterly. 2023. Vol. 40. Iss. 3. doi: 10.1016/j.giq.2023.101829
  10. Плотникова А.М. Нейросеть как ключевое слово текущего момента // Филологический класс. 2023. Т. 28. №2. С. 45-54. EDN: TBIHHU
  11. Guile D. Machine learning – A new kind of cultural tool? A “recontextualisation” perspective on machine learning + interprofessional learning // Learning, Culture and Social Interaction. 2023. Vol. 42. doi: 10.1016/j.lcsi.2023.100738
  12. Миловидов С.В. Художественные особенности произведений компьютерного искусства, созданных с использованием технологий машинного обучения // Артикульт. 2022. № 4 (48). С. 36-48. doi: 10.28995/2227-6165-2022-4-36-48
  13. Брянцева О.В., Брянцев И.И. Проблема субъектности искусственного интеллекта в системе общественных отношений // Вестник Поволжского института управления. 2023. Т. 23. № 3. С. 37-50. doi: 10.22394/1682-2358-2023-3-37-50
  14. Liu J., Zheng J., Cai X., Wu D., Yin Ch. A descriptive study based on the comparison of ChatGPT and evidence-based neurosurgeons // iScience. 2023. doi: 10.1016/j.isci.2023.107590
  15. Short С., Short J. The artificially intelligent entrepreneur: ChatGPT, prompt engineering, and entrepreneurial rhetoric creation // Journal of Business Venturing Insights. 2023. Vol. 19. doi: 10.1016/j.jbvi.2023.e00388
  16. Володенков С.В., Федорченко С.Н. Особенности феномена субъектности в условиях современных технологических трансформаций // Полис. Политические исследования. 2022. № 5. С. 40-55. doi: 10.17976/jpps/2022.05.04
  17. Вершинина Ю.В., Дятлова Е.В., Ковш К.Ю. Возможности искусственного интеллекта в образовательном процессе на примере чат-бота ChatGPT // Обзор педагогических исследований. 2023. Т. 5. № 5. С. 200-205. EDN: IBMPAS
  18. Cohen S., Presil D., Katz O., Arbili O., Messica S. Rokach L. Enhancing social network hate detection using back translation and GPT-3 augmentations during training and test-time // Information Fusion. 2023. Vol. 99. doi: 10.1016/j.inffus.2023.101887
  19. Канштайнер В. Цифровой допинг для историков: можно ли сделать историю, память и историческую теорию искусственным интеллектом? // KANT: Social Sciences & Humanities. 2023. № 1 (13). С. 56-70. doi: 10.24923/2305-8757.2023-13.5
  20. Elliott Casal J., Kessler M. Can linguists distinguish between ChatGPT/AI and human writing?: A study of research ethics and academic publishing // Research Methods in Applied Linguistics. 2023. Vol. 2. 3. doi: 10.1016/j.rmal.2023.100068
  21. Currie G. Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? // Seminars in Nuclear Medicine. 2023. Vol. 53, Iss. 5. Pp. 719-730. doi: 10.1053/j.semnuclmed.2023.04.008
  22. Kahambing J. ChatGPT, ‘polypsychic’ artificial intelligence, and psychiatry in museums // Asian Journal of Psychiatry. 2023. Vol. 83. doi: 10.1016/j.ajp.2023.103548
  23. Зорин А.Р. К вопросу правового регулирования ChatGPT // International Law Journal. 2023. Т. 6. № 6. С. 35-38. EDN: UOEZHV
  24. Филюков Д.А. Применение нейронных сетей для формирования кода вредоносного программного обеспечения // Инновации и инвестиции. 2023. № 7. С. 199-204. EDN: ZBHRXM
  25. Anderson S. “Places to stand”: Multiple metaphors for framing ChatGPT's corpus // Computers and Composition. 2023. Vol. 68. doi: 10.1016/j.compcom.2023.102778
  26. Смирнов А.И., Исаева Т.В. Международная безопасность: вызовы и угрозы технологий искусственного интеллекта // Международная жизнь. 2023. № 8. С. 94-107. EDN: ALSAZ

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).