Potential threats of unauthorized use of political deepfakes during political elections: international experience

详细

The subject of this study is new political technologies based on the use of artificial intelligence. The purpose of this study is to identify the threats and risks associated with the unauthorised use of political deepfakes in international practice. To achieve this goal, the author analyses the concepts of the influence of political deepfakes on elections, identifies types and risks of deepfakes in the political practice of different countries. The author of this study defines a political deepfake as a special campaign using artificial intelligence technology to undermine the reputation of political leaders in order to change the course of the electoral struggle or to discredit an incumbent politician. In the process of research, in addition to normative-institutional and historical conceptual and content analysis, elements of analysis of secondary statistical data were used. The article gives a characteristic of the main types of political deepfakes and provides examples of their maliciousness. On the basis of the author's analysis, the classification of types of political deepfakes, which have an impact on the cognitive functions of target audiences, is introduced into scientific circulation for the first time. Classification of types of political deepfakes, given in this study allows us to take a new look at the problem of cognitive impact of this type of disinformation on public opinion. The findings suggest that between 2017 and 2024, artificial intelligence technologies have become actively used to manipulate target audiences during political elections. One of the main difficulties in regulating political deepfakes is their veiling due to the use of mixed types of this type of manipulation.

参考

  1. Аналитический обзор. Дипфейки в цифровом пространстве: основные международные подходы к исследованию и регулированию. М.: АНО «Центр компетенций глобальной ИТ-кооперации». 2023. – 54 с.
  2. Виноградов В. А., Кузнецова Д. В. Зарубежный опыт правового регулирования технологии «дипфейк» // Журнал Высшей школы экономики. Право. 2024. Том 17. № 2. С. 215-239. doi: 10.17323/2072-8166.2024.2.215.240.
  3. Виноградова Е.А. Злонамеренное использование политических дипфейков и попытки их нейтрализации в странах Латинкой Америки // Латинская Америка. 2023, №. 5. С. 35-48. doi: 10.31857/S0044748X0025404-3.
  4. Виноградова Е.А. Технологии искусственного интеллекта в политической повестке БРИКС // Латинская Америка. 2024, № 1. С. 46-60. doi: 10.31857/S0044748X0024415-5.
  5. Виноградова Е.А. Технологии искусственного интеллекта и нарастающие киберугрозы в Латинской Америке // Латинская Америка. 2023. № 3. С. 34-48. doi: 10.31857/S0044748X0024415-5.
  6. Лукина Ю. В. Использование дипфейков в общественно-политической жизни // https://rupolitology.ru/wp-content/uploads/2024/01/RP_27_Lukina.pdf (дата обращения: 13.06.2024)
  7. Международная безопасность в эпоху искусственного интеллекта. В двух томах. Том 1. Учебник для вузов. Под редакцией М.В. Захаровой и А.И. Смирнова, М.: Издательство Аспект-пресс, 2024. – 401 с.
  8. Образ цифрового будущего России: формирование и репрезентация. Под общей редакцией В.В. Зотова, Г.Р. Консона, С.В. Володенкова М.: МФТИ, физтех, 2024 – 150 с.
  9. Пролегомены когнитивной безопасности. Коллективная монография под редакцией И.Ф. Кефели. СПб.: ИД «Петрополис», 2023 – 488 с.
  10. Ballotpedia’s Artificial Intelligence Deepfake Legislation Tracker. Annual Report. // State of Deepfake Legislation, 2024. – 13 p.
  11. Britain’s first AI politician claims he will bring trust back to politics – so I put him to the test. // https://www.deepl.com/ru/translator#en/ru/Britain%E2%80%99s%20first%20AI%20politician%20claims%20he%20will%20bring%20trust%20back%20to%20politics%20%E2%80%93%20so%20I%20put%20him%20to%20the%20test (дата обращения: 17.07.2024)
  12. Bruno Sartori: deepfakes, política e ameaças // https://revistatrip.uol.com.br/trip/bruno-sartori-deepfakes-politica-e-ameacas (дата обращения: 18.07.2024)
  13. Busch Ella, Ware Jacob. The Weaponisation of Deepfakes. Digital Deception by the Far-Right. // ICCT Policy Brief December. 2023. – 20 p. doi: 10.19165/2023.2.0720.
  14. Che cosa sappiamo del deepfake di Renzi (e di tutti gli altri) // https://pagellapolitica.it/articoli/che-cosa-sappiamo-del-deepfake-di-renzi-e-di-tutti-gli-altri (дата обращения: 20.07.2024)
  15. Deepfake Cases Surge in Countries Holding 2024 Elections, Sumsub Research Shows. URL: https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/ (дата обращения: 22.07.2024)
  16. Dobber T., Metoui N., Trilling D., Helberger N., de Vreese C. Do (Microtargeted) deepfakes have real effects on political attitudes? // International Journal of Press. Politics. 2021. Vol. № 26 (1). P. 69-91. doi: 10.1177/1940161220944364.
  17. En México 72% de las personas desconoce qué es un deepfake. URL: https://notipress.mx/tecnologia/en-mexico-72-por-ciento-personas-desconoce-que-es-deepfake-11679 (дата обращения: 24.07.2024)
  18. Es falso que en este video viral Sergio Massa recibe una bolsa con cocaína, lo que le arrojan son cartas. URL: https://chequeado.com/ultimas-noticias/es-falso-que-en-este-video-viral-sergio-massa-recibe-una-bolsa-con-cocaina-lo-que-le-arrojan-son-cartas/ (дата обращения: 23.07.2024)
  19. Ethan Bueno de Mesquita., Brandice Canes-Wrone., Andrew B. Hall., Kristian Lum., Gregory J. Martin., Yamil Ricardo Velez. Preparing for Generative AI in the 2024 Election: Recommendations and Best Practices Based on Academic Research. Stanford Graduate School of Business and the University of Chicago Harris School of Public Policy November. 2023. – 14 p.
  20. Ethical guidelines on use of artificial intelligence (AI) in Indonesia. URL: https://www.herbertsmithfreehills.com/notes/tmt/2024-02/ethical-guidelines-on-use-of-artificial-intelligence-ai-in-indonesia (дата обращения: 15.07.2024)
  21. Facing reality? Law enforcement and the challenge of deepfakes. // An Observatory Report from the Europol Innovation Lab. 2022. – 23 p.
  22. Fake Suharto video fuels debate on AI use in Indonesian election campaign. URL: https://www.benarnews.org/english/news/indonesian/suharto-deepfake-used-in-election-campaign-01122024135217.html (дата обращения: 9.07.2024)
  23. Fontão Batista Anderson Röhe., Santaella Lucia. Prognósticos das deepfakes na política eleitoral. Pronósticos del ultrafalso en la política electoral. // Organicom. 2024. № 21(44). P. 187-196. doi: 10.11606/issn.2238-2593.organicom.2024.221294.
  24. Hàn Quốc: Chuyên gia lo ngại nội dung deepfake ảnh hưởng kết quả bầu cử. URL: https://hanoimoi.vn/han-quoc-chuyen-gia-lo-ngai-noi-dung-deepfake-anh-huong-ket-qua-bau-cu-658823.html
  25. Helmus T. C. Artificial Intelligence, Deepfakes, and Disinformation. 2022, 24 p. // https://www.rand.org/pubs/perspectives/PEA1043-1.html (дата обращения: 2.04.2024)
  26. Imran Khan–Pakistan’s Jailed Ex-Leader–Uses AI Deepfake To Address Online Election Rally. // https://www.forbes.com/sites/siladityaray/2023/12/18/imran-khan-pakistans-jailed-ex-leader-uses-ai-deepfake-to-address-online-election-rally/ (дата обращения: 13.07.2024)
  27. India urges political parties to avoid using deepfakes in election campaigns. // https://techcrunch.com/2024/05/07/india-elections-deepfakes/ (дата обращения: 16.07.2024)
  28. Karaboga M. Die Regulierung von Deepfakes auf EU-Ebene: Überblick eines Flickenteppichs und Einordnung des Digital Services Act- und KI-Regulierungsvorschlags. // Digitale Hate Speech. 2023. P.197-220 doi: 10.1007/978-3-662-65964-9_10.
  29. Lavanda Oliva Matías. Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia. // Revista de Derechoy Tecnología. 2022. № 2. P. 84-95.
  30. Leliana Intan., Irhamdhika Gema., Haikal Achmad., Septian Rio., Kusnadi Eddy. Etika Dalam Era Deepfake: Bagaimana Menjaga Integritas Komunikasi' // Jurnal Visi Komunikasi. 2023. № 22(02). P. 234-243. DOI: https://doi.org/10.32699/device.v14i1.6984
  31. Pawelec Maria. Deepfakes als Chance für die Demokratie? // The Nomos eLibrary. 2024. P.89-101. DOI: https://doi.org/10.5771/9783748928928-89
  32. Presidential candidates' computer-generated avatars heat up debate. URL: https://www.koreatimes.co.kr/www/nation/2024/07/113_320192.html (дата обращения: 6.07.2024)
  33. Rini Regina., Cohen Leah. Deepfakes, Deep Harms. // Journal of Ethics and Social Philosophy. 2022. № 22(2). Pp. 143-161. York University, Toronto. doi: 10.26556/jesp.v22i2.1628.
  34. Robichaud-Durand S. L’hypertrucage: analyse du phénomène des «deepfakes» et recommandations. // Lex Electronica. 2023. Volume 28. № 4. Pp. 78-98. DOI: https://doi.org/10.7202/1108807aradresse copiéeune.
  35. Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy. // https://www.wired.com/story/slovakias-election-deepfakes-show-ai-is-a-danger-to-democracy/ (дата обращения: 6.07.2024)
  36. Tackling deepfakes in European policy. STUDY. Panel for the Future of Science and Technology. // EPRS. European Parliamentary Research Service Scientific Foresight Unit (STOA). 2021 – 116 p.
  37. The spread of true and false news online. // https://www.science.org/doi/10.1126/science.aap9559 (дата обращения: 19.02.2023).
  38. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. // https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes (дата обращения: 21.08.2024).
  39. Tvesha Sippya., Florence E. Enocka., Jonathan Brighta., Helen Z. Margettsa. Behind the Deepfake: 8% Create; 90% Concerned Surveying public exposure to and perceptions of deepfakes in the UK. // arXiv:2407.05529v1 [cs.CY]. 8 Jul 2024. DOI: https://doi.org/10.48550/arXiv.2407.05529.
  40. Video circulating of Claudia Sheinbaum is apparently a ‘deepfake’. // https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/ (дата обращения: 23.07.2024).
  41. Ziobroń Agata. Political deepfake. Remarks de lege lata and postulates de lege ferenda. Rozprawy i Materiały. 2024. № 1 (34). Pp. 79-95. doi: 10.48269/2451-0807-sp-2024-1-04.
  42. На ТВ показали «обращение Путина» о военном положении в ряде областей России. Это был взлом, а ролик оказался дипфейком. // https://rusnewshub.ru/2023/06/05/ (дата обращения: 20.09.2023)
  43. per cent Indians believe misinformation and harmful deepfakes will affect future elections. // https://indianexpress.com/article/technology/tech-news-technology/misinformation-and-harmful-deepfakes-will-affect-future-elections-in-india-adobe-9357027/ (дата обращения: 22.07.2024)
  44. 聊天機器人能改善心理健康?研究:可有效協助憂鬱症患者緩解症狀. // https://heho.com.tw/archives/256168# (дата обращения: 11.03.2023)
  45. 오일석 연구위원. 딥페이크(Deep Fake)에 의한 민주적 정당성의 왜곡과 대응 방안. 2024. – 27 p.
  46. 元宇宙中虚拟人相关的心理问题探讨 心理技术与应用. Psychology:Techniques and Applications. 2023. Vol. 11. No. 7. Pp. 414-420.

补充文件

附件文件
动作
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».