Risks and Governance Paths of Generative Artificial Intelligence in Mainstream Media Communication

Cover Page

Full Text

Abstract

The rapid development of generative artificial intelligence has allowed humanity to witness significant changes in artificial intelligence technology in terms of capabilities and functionality, and its powerful capacity for self-learning, self-control, and evolution has gradually ushered in a new era of generalized artificial intelligence. At the same time, it also indicates that people will enter into a more complex and risky intellectual system. The gradual and widespread use of generative AI in major media communications opens up great development opportunities for the media sphere, on the one hand, and risky tasks – on the other. The subject of this research is generative artificial intelligence. The object of the research is an in-depth analysis of the risks and management trajectories of generative artificial intelligence in the main media of mass communication. This study used a comprehensive methodology based on the method of literary analysis, observation, as well as the method of forecasting and data comparison. The scientific novelty of the study lies in the fact that the authors analyze the risks associated with generative AI in the mainstream media, namely: data privacy and security, the risk of manipulating public opinion through false information, and the problem of public trust in the media. The authors of the study propose a risk management path in terms of political leadership, regulation and technology, global cooperation and literacy, contributing to the safe, reliable and healthy development of generative AI in the mainstream media. As AI technologies are constantly being transformed, this research is quite promising and makes a scientific contribution to the general analysis and pool of research related to the use of AI in the field of media, risks, danger and ethical issues.

References

  1. Ли К. Преимущество искусственного интеллекта в технологической гегемонии США и изменение глобальных цепочек создания стоимости // Исследования в области международных отношений. 2020. № 1. С. 26-50, 155.
  2. Агравал А., Ганс Дж., Голдфарб А. Экономическая политика в области искусственного интеллекта // Инновационная политика и экономика. 2019. № 19 (1). С. 139-159.
  3. Ю Г.М., Су Дж.У. Коммуникационная революция и медиаэкология на волне генеративного искусственного интеллекта - от общения к будущему в эпоху тотального интеллекта // Журнал Синьцзянского педагогического университета (издание по философии и социальным наукам). 2023. № 5. С. 81-90.
  4. Яо З.В., Ли З.Л. Правовое регулирование рисков, связанных с содержанием генеративного искусственного интеллекта // Журнал Сианьского университета Цзяотун (издание по социальным наукам). 2023. № 5. С. 147-160.
  5. Куанг У.Б., Цзян З.В. Новое качество продуктивности интеллектуальных МЕДИА: теоретическая коннотация, операционная логика и пути реализации // China Editing. 2024. № 7. С. 29-35.
  6. Чен Г. Исследование изменений и развития коммуникаций, основанных на генеративном искусственном интеллекте: на примере ChatGPT // Academia. 2024. № 6. С. 62-69.
  7. Цзе К.Т., Ян Дж.Г. и Ниу Х.К. Обсуждение в условиях глубокой конвергенции МЕДИА: стирание границ, синергия и риски // Публикация в широком масштабе. 2023. № 11. С. 32-36.
  8. Чжао Г., Сунь Г. и Ван К.Ю. Риски, возможности и инновационные пути формирования новой модели господствующего общественного мнения с точки зрения генеративного искусственного интеллекта // Китайский журнал радио и телевидения. 2023. № 8. С. 37-40, 59.
  9. Ян Эйрес. Анализ больших данных и принятие решений. Гун Сянчжэнь, перевод. Пекин: People's Posts and Telecommunications Press, 2016.
  10. Фан Х.Д., Чжун Х.М. Обсуждение концепций интеллектуальных медиа и интеллектуальной коммуникации - смена парадигмы коммуникации в условиях двойной дилеммы зависимости от пути и технологического мифа // Modern Publishing. 2022. № 3. С. 42-56.
  11. Ци С.Х. Исследование по управлению информационным туманом в ЕС в контексте цифрового суверенитета // Теория и практика разведки. 2021. № 44(9). С. 74-81, 96.
  12. Пэн З.Х. О закреплении, трансформации и переосмыслении концепции дезинформации в китайском контексте // Теория и практика разведки. 2022. № 45 (1). С. 1-10.
  13. Ван Х.Н., Донг К.Х. и Сонг З.Дж. Обзор исследований по предотвращению дезинформации и борьбе с ней в социальных сетях // Журнал управления информационными ресурсами. 2022. № 12 (5). С. 102-113.
  14. Год, когда искусственный интеллект усилил дезинформацию: обзор NewsGuard за 2023 год. NewsGuard. URL: https://www.newsguardtech.com/misinformation-monitor/december-2023.
  15. Что такое ”Глубокие подделки" и чем они могут быть опасны, 14 октября 2019 года. URL: https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-dangerous.html. 16 декабря 2024 года.
  16. Сонг У. Риски и управление медиа-организациями в контексте интеллектуальной коммуникации // Медиа-форум. 2024. № 22. С. 29-31.
  17. Коултер М., Мукерджи С. За вызовом законодателей ЕС обуздать чат-боты и генеративный искусственный интеллект. 2020. URL: htps://finan-cialpost.com/pmn/busines-pmn/behind-eu-lawmakers-chalenge-to-rein-in-chatgpt-and-generative-ai.
  18. Ван Ю. Совет Безопасности ООН проводит первое заседание, посвященное рискам, связанным с искусственным интеллектом, и еще 11 другим // Мир Интернета. 2023. № 8. С. 48-53.
  19. Яо З.В., Ли З.Л. Правовое регулирование рисков, связанных с содержанием генеративного искусственного интеллекта // Журнал Сианьского университета Цзяотун (издание по социальным наукам). 2023. № 5. С. 147-160.
  20. Сонг У. Риски и управление медиа-организациями в контексте интеллектуальной коммуникации // Медиа-форум. 2024. № 22. С. 29-31.
  21. Чен Р., Цзян Ю.Х. Исследование по управлению генеративным ИИ: на примере ChatGPT. Научные исследования. 2024. № 1. С. 21-30.
  22. Яо З.В., Ли З.Л. Правовое регулирование рисков, связанных с содержанием генеративного искусственного интеллекта // Журнал Сианьского университета Цзяотун (издание по социальным наукам). 2023. № 5. С. 147-160.
  23. Гилстер П. Цифровая грамотность. John Wiley & Sons, Inc., 1. 1997.
  24. Национальное информационное бюро Китайской Народной Республики по Интернету. План действий по повышению цифровой грамотности и навыков всех людей. URL: https://www.cac.gov.cn/2021-11/05/c_1637708867754305.htm?eqid=cbf2299d0000083e00000003642c005d.
  25. Чжан Дж.К. Интеллектуальное управление СМИ: потенциальные риски и адаптация искусственного интеллекта для развития медиаиндустрии // Серия лекций Доньюэ. 2023. № 12. С. 65-72.
  26. Чжоу Ю.Ю. Проблемы судебных услуг, основанных на интеллектуальных технологиях, и ответ на них // Восточное право. 2019. № 5. С. 14-19.
  27. Тоу Х.Д. О рисках безопасности данных и гибком управлении генеративным искусственным интеллектом // Oriental Law. 2023. № 5. С. 106-116.
  28. Сонг С.Л., Янг Ю.Ю. Суверенитет, безопасность и управление ими в широком языковом моделировании. Китайские высшие общественные науки. 2023. № 6. С. 109-118, 155-156.

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).