Архитектуры современных средств нейронного машинного перевода и разрешение полисемии: сравнительный анализ отечественных и зарубежных систем

Обложка

Цитировать

Полный текст

Аннотация

средства нейронного машинного перевода постоянно изменяются и трансформируются, демонстрируя не только технологический, но и методологический прогресс. В статье представлен сравнительный анализ актуальных архитектур ведущих переводческих систем зарубежных и отечественных разработчиков с акцентом на разрешение лексической полисемии. В статье рассмотрено устройство современных нейронных моделей, их структурные компоненты и методы повышения точности перевода на сложных примерах с многозначной лексикой. Отдельное внимание уделяется различиям в подходах к обработке контекста и способам повышения качества интерпретации исходного текста при минимизации числа ошибок. В результате анализа выявляются ключевые преимущества и недостатки каждого типа архитектуры, что позволяет сформулировать рекомендации для последующего развития автоматических переводчиков. Статья предназначена для исследователей, инженеров и специалистов, занимающихся вопросами машинного перевода и обработки естественного языка.

Об авторах

С. Ю Коев

Московский государственный лингвистический университет

Email: sergej_koev@mail.ru

Список литературы

  1. Исламов Р.С. Анализ современного системного машинного перевода типа RBMT и SMT // Филологические науки. Вопросы теории и практики. 2013. № 3. С. 69.
  2. Елисеева В.В. Лексикология английского языка. Санкт-Петербург, 2003. 44 c.
  3. Юсупова Л.Г. Роль контекста в разрешениях на полисемию // Казанская наука. 2022. № 3. С. 141 – 143.
  4. Воркачев С.Г., Воркачева Е.А. Полисемия, контекст и трансляция смыслов // Современные исследования социальных проблем. 2012. С. 121.
  5. Суцкевер И., Виньялс О., Ле К.В. Обучение последовательностям с помощью нейронных сетей // Успехи в области нейронных систем обработки информации. 2014. Т. 27.
  6. Багданау Д., Чо К., Бенжио Й. Нейронный машинный перевод путем совместного обучения выравниванию и переводу // Препринт arXiv arXiv:1409.0473. 2014.
  7. Васвани А., Шазир Н., Пармар Н., Внимание – это всё, что вам нужно. 2017. С. 18.
  8. Сак Х., Сениор А., Бофейс Ф. Рекуррентные архитектуры нейронных сетей на основе долговременной краткосрочной памяти для распознавания речи с большим словарным запасом // Препринт arXiv arXiv:1402.1128. 2014.
  9. Чжан М., Торал А. Влияние языка перевода на тестовые наборы для машинного перевода // Препринт arXiv arXiv:1906.08069. 2019.
  10. Робинсон Н. [и др.]. ChatGPT MT: конкурентоспособность для языков с высоким (но не низким) ресурсом // Труды Восьмой конференции по машинному переводу. 2023. С. 392 – 418.
  11. Эйнсли Дж. [и др.]. Gqa: Обучение обобщенных моделей преобразователей с несколькими запросами на основе многоголовочных контрольных точек // Препринт arXiv arXiv:2305.13245. 2023.
  12. Команда Джеммы. Джемма 2: Улучшение моделей открытого языка в практическом масштабе // Препринт arXiv arXiv:2408.00118. 2024.
  13. Эльшин Д. [и др.]. От общего LLM к переводу: Как мы значительно улучшаем качество перевода, используя данные человеческой оценки для тонкой настройки LLM // Материалы девятой конференции по машинному переводу. 2024. С. 247 – 252.
  14. Кошелев А.Д. Почему полисемия является языковой универсалией? // Слово и язык: сборник статей конференции. 2011. С. 695 – 735.
  15. How Google Translate Turns 134 Languages Into Math | WSJ Tech Behind // YouTube, 2024. URL: https://www.youtube.com/watch?v=OPTKlycwIkM (дата обращения: 18.11.2025).
  16. Recent advances in Google Translate // Google Research Blog, 2024. URL: https://research.google/blog/recent-advances-in-google-translate (дата обращения: 18.11.2025). 17.Gemma Explained: Overview of Gemma Model Family Architectures // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-overview-gemma-model-family-architectures/ (дата обращения: 18.11.2025).
  17. Gemma Explained: What’s New in Gemma 2 // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-new-in-gemma-2/ (дата обращения: 18.11.2025).
  18. Что стоит знать о Google GEMMA: блог-инженеры Яндекса о новой модели // Habr, 2024. URL: https://habr.com/ru/companies/yandex/articles/884416/ (дата обращения: 18.11.2025).

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML


Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-ShareAlike 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).