Culturological reconstruction of ChatGPT's socio-cultural threats and information security of Russian citizens

Cover Page

Cite item

Full Text

Abstract

The subject of the study is the socio-cultural threats to the information security of Russian citizens associated with ChatGPT technologies (Chat Generative Pre-trained Transformer, a machine-generated text response generator simulating a dialogue). The object of research − evaluation of the ratio of advantages and threats of generative language models based on "machine learning" in modern (2021-2023) scientific literature (journals HAC K1, K2 and Scopus Q1, Q2). The scientific novelty of the research lies in the culturological approach to the analysis of threats to the security of Russian citizens associated with the use of ChatGPT as one of the technologies of "artificial intelligence". The formulation of the problem of the classical Turing test "to distinguish a person from a machine" is characterized as a scholastic abstraction, instead a more correct and productive approach is proposed: a socio-cultural assessment of the value (based on cultural axiology) of new computer technologies. The starting point of the analysis is the determination of socio-cultural value (or, conversely, damage) as a result of the use of generative language models based on machine learning. Further, the contribution and responsibility of various socio-cultural subjects of its creation and application are revealed − user, creator and developer. The result of the application of the proposed approach is the deconstruction of the discourse of the "philosophy of artificial intelligence" in terms of uncritical translation of developer declarations intended for marketing and attracting financing. Hypertrophied perception, precariously balancing on the edge of utopia and dystopia, is assessed as a risk of incorrect identification and ranking of threats to information security. Assumptions about the hypothetical "superweapon of psychological warfare" mask modern incidents of cross-border leakage of confidential data, the risks of being held accountable for publishing deliberately false information and illegal content as a result of using ChatGPT. National security measures are recommended, including restrictive measures and increasing the general civil culture of information security of users, as well as the orientation of domestic developments of solutions of this type on traditional values, socio-cultural identity and interests of Russian citizens.

References

  1. Gill S., Kaur R. ChatGPT: Vision and challenges // Internet of Things and Cyber-Physical Systems. 2023. Vol. 3. Pp. 262-271. doi: 10.1016/j.iotcps.2023.05.004
  2. Сойфер В.А. Human factor // Онтология проектирования. 2021. Т. 11. № 1 (39). С. 8-19. doi: 10.18287/2223-9537-2021-11-1-8-19
  3. Agathokleous E., Saitanis C., Fang Ch., Yu Zh. Use of ChatGPT: What does it mean for biology and environmental science? // Science of The Total Environment. 2023. Vol. 888. doi: 10.1016/j.scitotenv.2023.164154
  4. Миронова Н.Г. Философское осмысление социальных рисков интеллектуальной автоматизации социального управления // Цифровой ученый: лаборатория философа. 2021. Т. 4. № 2. С. 125-144. doi: 10.32326/2618-9267-2021-4-2-125-144
  5. Гончаров В.С. Применение комбинированных технологий искусственного интеллекта в информационно-психологических войнах // Вопросы политологии. 2022. Т. 12. № 4 (80). С. 1118-1126. doi: 10.35775/PSI.2022.80.4.015
  6. Булычев И.И., Казаков В.Г., Кирюшин А.Н. Будущее искусственного интеллекта: скептики vs прагматики // Военный академический журнал. 2023. № 2 (38). С. 10-21. EDN: FJVPRO
  7. Груздев А.А., Самарин А.С., Илларионов Г.А. Проекты цифровой философии в контексте развития digital humanities // Журнал Сибирского федерального университета. Серия: Гуманитарные науки. 2023. Т. 16. № 7. С. 1165-1176. EDN: GBBFUA
  8. Есенин Р.А. Психологические вызовы цифровой реальности: искусственный интеллект сегодня и в перспективе // Профессиональное образование и рынок труда. 2023. Т. 11. № 2 (53). С. 121-128. doi: 10.52944/PORT.2023.53.2.009
  9. Kreps S., Jakesch M. Can AI communication tools increase legislative responsiveness and trust in democratic institutions? // Government Information Quarterly. 2023. Vol. 40. Iss. 3. doi: 10.1016/j.giq.2023.101829
  10. Плотникова А.М. Нейросеть как ключевое слово текущего момента // Филологический класс. 2023. Т. 28. №2. С. 45-54. EDN: TBIHHU
  11. Guile D. Machine learning – A new kind of cultural tool? A “recontextualisation” perspective on machine learning + interprofessional learning // Learning, Culture and Social Interaction. 2023. Vol. 42. doi: 10.1016/j.lcsi.2023.100738
  12. Миловидов С.В. Художественные особенности произведений компьютерного искусства, созданных с использованием технологий машинного обучения // Артикульт. 2022. № 4 (48). С. 36-48. doi: 10.28995/2227-6165-2022-4-36-48
  13. Брянцева О.В., Брянцев И.И. Проблема субъектности искусственного интеллекта в системе общественных отношений // Вестник Поволжского института управления. 2023. Т. 23. № 3. С. 37-50. doi: 10.22394/1682-2358-2023-3-37-50
  14. Liu J., Zheng J., Cai X., Wu D., Yin Ch. A descriptive study based on the comparison of ChatGPT and evidence-based neurosurgeons // iScience. 2023. doi: 10.1016/j.isci.2023.107590
  15. Short С., Short J. The artificially intelligent entrepreneur: ChatGPT, prompt engineering, and entrepreneurial rhetoric creation // Journal of Business Venturing Insights. 2023. Vol. 19. doi: 10.1016/j.jbvi.2023.e00388
  16. Володенков С.В., Федорченко С.Н. Особенности феномена субъектности в условиях современных технологических трансформаций // Полис. Политические исследования. 2022. № 5. С. 40-55. doi: 10.17976/jpps/2022.05.04
  17. Вершинина Ю.В., Дятлова Е.В., Ковш К.Ю. Возможности искусственного интеллекта в образовательном процессе на примере чат-бота ChatGPT // Обзор педагогических исследований. 2023. Т. 5. № 5. С. 200-205. EDN: IBMPAS
  18. Cohen S., Presil D., Katz O., Arbili O., Messica S. Rokach L. Enhancing social network hate detection using back translation and GPT-3 augmentations during training and test-time // Information Fusion. 2023. Vol. 99. doi: 10.1016/j.inffus.2023.101887
  19. Канштайнер В. Цифровой допинг для историков: можно ли сделать историю, память и историческую теорию искусственным интеллектом? // KANT: Social Sciences & Humanities. 2023. № 1 (13). С. 56-70. doi: 10.24923/2305-8757.2023-13.5
  20. Elliott Casal J., Kessler M. Can linguists distinguish between ChatGPT/AI and human writing?: A study of research ethics and academic publishing // Research Methods in Applied Linguistics. 2023. Vol. 2. 3. doi: 10.1016/j.rmal.2023.100068
  21. Currie G. Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? // Seminars in Nuclear Medicine. 2023. Vol. 53, Iss. 5. Pp. 719-730. doi: 10.1053/j.semnuclmed.2023.04.008
  22. Kahambing J. ChatGPT, ‘polypsychic’ artificial intelligence, and psychiatry in museums // Asian Journal of Psychiatry. 2023. Vol. 83. doi: 10.1016/j.ajp.2023.103548
  23. Зорин А.Р. К вопросу правового регулирования ChatGPT // International Law Journal. 2023. Т. 6. № 6. С. 35-38. EDN: UOEZHV
  24. Филюков Д.А. Применение нейронных сетей для формирования кода вредоносного программного обеспечения // Инновации и инвестиции. 2023. № 7. С. 199-204. EDN: ZBHRXM
  25. Anderson S. “Places to stand”: Multiple metaphors for framing ChatGPT's corpus // Computers and Composition. 2023. Vol. 68. doi: 10.1016/j.compcom.2023.102778
  26. Смирнов А.И., Исаева Т.В. Международная безопасность: вызовы и угрозы технологий искусственного интеллекта // Международная жизнь. 2023. № 8. С. 94-107. EDN: ALSAZ

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).