Multi-Agent Approach to Political Discourse Translation: From Large Language Models to MAGIC-PTF System

Cover Page

Cite item

Full Text

Abstract

This research addresses the automated translation of Chinese political discourse into Russian utilizing Large Language Model (LLM) optimization technologies and a multi-agent approach. The study focuses on developing the MAGIC-PTF system, which implements multi-stage text processing through the interaction of four specialized agents. The system's key component is the Style Agent, which ensures stylistic uniformity and terminological accuracy based on a specifically trained LLM. The Translator Agent performs the primary translation work and is responsible for the final text formatting. The Editor Agent conducts multi-level verification and correction of translations, considering linguistic, semantic, and cultural aspects. The Reader Agent analyzes the text from the target audience's perspective, evaluating its reception by native Russian speakers. The methodology integrates LLM optimization technologies and a multi-agent approach, with experimental testing conducted on the fourth volume of "Xi Jinping: The Governance of China" and its official Russian translation. The study includes a comprehensive analysis of system effectiveness using the COMET metric and comparative testing with existing machine translation platforms. The research's scientific novelty lies in developing a methodology for applying LLMs to specialized translation tasks and creating an effective coordination mechanism for intelligent agents in the translation process. Experimental research demonstrated MAGIC-PTF's superiority over traditional machine translation systems in key parameters: terminological accuracy, stylistic consistency, and preservation of culture-specific elements in political discourse. The developed system opens new possibilities for automated translation of political discourse and can be adapted for translating other specialized text types, confirming its significance for modern translation technology development. Of particular value is the system's scalability and adaptability to various language pairs and discourse types, creating prospects for further development in automated specialized text translation. The research findings also contribute to advancing the theory and practice of LLM application in professional translation.

References

  1. Brown T., Mann B., Ryder N. et al. Language models are few-shot learners // Advances in neural information processing systems. 2020. No. 33. P. 1877-1901.
  2. OpenAI. Gpt-4 technical report // arXiv preprint arXiv:2303.08774. 2023.
  3. Zhou J., Ke P., Qiu X., Huang M., Zhang J. ChatGPT: potential, prospects, and limitations // Frontiers of Information Technology & Electronic Engineering. 2023. P. 1-6.
  4. Ху Кайбао, Гао Ли. Развитие иностранных языков в контексте больших языковых моделей: проблемы и перспективы // Внешний мир иностранных языков. 2024. № 2. С. 7-12.
  5. Цинь Хунъу, Чжоу Ся. Большие языковые модели и сопоставительное изучение языков // Обучение и исследование иностранных языков. 2024. № 2. С. 163-176, 318.
  6. Ху Кайбао, Ли Сяоцянь. Развитие переводческих исследований в контексте больших языковых моделей: проблемы и перспективы // Китайский перевод. 2023. № 6. С. 64-73, 192.
  7. Фэн Цинхуа, Чжан Кайи. Анализ возможностей искусственного интеллекта в преподавании иностранных языков и исследованиях на примере ChatGPT-4o и языковой модели Wenxin 4.0 // Преподавание иностранных языков с помощью электронных технологий. 2024. № 3. С. 3-12, 109.
  8. Ван Хуашу, Се Фэй. Инновационное исследование практической модели переводческого образования под влиянием технологии больших языковых моделей // Китайский перевод. 2024. № 2. С. 70-78.
  9. Су Ци. Анализ эффективности применения больших языковых моделей в преподавании второго языка // Внешний мир иностранных языков. 2024. № 3. С. 35-42.
  10. Zhang B., Haddow B., Birch A. Prompting large language model for machine translation: A case study // International Conference on Machine Learning, PMLR. 2023. P. 41092-41110.
  11. Zhang X., Rajabi N., Duh K., Koehn P. Machine translation with large language models: Prompting, few-shot learning, and fine-tuning with QLoRA // Proceedings of the Eighth Conference on Machine Translation. 2023. P. 468-481.
  12. Moslem Y., Haque R., Kelleher J.D., Way A. Adaptive machine translation with large language models // arXiv preprint arXiv:2301.13294. 2023.
  13. Li J., Zhou H., Huang S., Cheng S., Chen J. Eliciting the translation ability of large language models via multilingual finetuning with translation instructions // Transactions of the Association for Computational Linguistics. 2024. No. 12. P. 576-592.
  14. Du Y., Li S., Torralba A., Tenenbaum J., Mordatch I. Improving Factuality and Reasoning in Language Models through Multiagent Debate // arXiv preprint arXiv:2305.14325. 2023.
  15. Wu Q., Bansal G., Zhang J. et al. Autogen: Enabling next-gen LLM applications via multi-agent conversation framework // arXiv preprint arXiv:2308.08155. 2023.
  16. OpenAI. ChatGPT (версия от 20 июня) [Электронный ресурс]. 2024. URL: https://chat.openai.com/chat
  17. Andreas J. Language Models as Agent Models // Findings of the Association for Computational Linguistics: EMNLP 2022. 2022. P. 5769-5779.
  18. Базовые нормы перевода китайского политического дискурса на английский язык / Под ред. редакционной группы. Пекин: Издательство литературы на иностранных языках, 2023. C. 4.
  19. Си Цзиньпин. О государственном управлении. Т. 4 (на китайском языке). Пекин: Издательство литературы на иностранных языках, 2022. 575 c.
  20. Си Цзиньпин. О государственном управлении IV [Перевод с китайского]. Пекин: Издательство литературы на иностранных языках, 2023. 836 c.
  21. DeepL Translator [Электронный ресурс]. URL: https://www.deepl.com/zh/translator#zh/ru/ (дата обращения: 08.08.2024).
  22. Guerreiro N.M., Rei R., Stigt D. et al. xComet: Transparent machine translation evaluation through fine-grained error detection // Transactions of the Association for Computational Linguistics. 2024. № 12. P. 979-995.

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).