Архитектуры современных средств нейронного машинного перевода и разрешение полисемии: сравнительный анализ отечественных и зарубежных систем
- Авторы: Коев С.Ю1
-
Учреждения:
- Московский государственный лингвистический университет
- Выпуск: Том 5, № 12 (2025)
- Страницы: 150-156
- Раздел: Статьи
- URL: https://journals.rcsi.science/2782-5329/article/view/374557
- ID: 374557
Цитировать
Аннотация
средства нейронного машинного перевода постоянно изменяются и трансформируются, демонстрируя не только технологический, но и методологический прогресс. В статье представлен сравнительный анализ актуальных архитектур ведущих переводческих систем зарубежных и отечественных разработчиков с акцентом на разрешение лексической полисемии. В статье рассмотрено устройство современных нейронных моделей, их структурные компоненты и методы повышения точности перевода на сложных примерах с многозначной лексикой. Отдельное внимание уделяется различиям в подходах к обработке контекста и способам повышения качества интерпретации исходного текста при минимизации числа ошибок. В результате анализа выявляются ключевые преимущества и недостатки каждого типа архитектуры, что позволяет сформулировать рекомендации для последующего развития автоматических переводчиков. Статья предназначена для исследователей, инженеров и специалистов, занимающихся вопросами машинного перевода и обработки естественного языка.
Об авторах
С. Ю Коев
Московский государственный лингвистический университет
Email: sergej_koev@mail.ru
Список литературы
- Исламов Р.С. Анализ современного системного машинного перевода типа RBMT и SMT // Филологические науки. Вопросы теории и практики. 2013. № 3. С. 69.
- Елисеева В.В. Лексикология английского языка. Санкт-Петербург, 2003. 44 c.
- Юсупова Л.Г. Роль контекста в разрешениях на полисемию // Казанская наука. 2022. № 3. С. 141 – 143.
- Воркачев С.Г., Воркачева Е.А. Полисемия, контекст и трансляция смыслов // Современные исследования социальных проблем. 2012. С. 121.
- Суцкевер И., Виньялс О., Ле К.В. Обучение последовательностям с помощью нейронных сетей // Успехи в области нейронных систем обработки информации. 2014. Т. 27.
- Багданау Д., Чо К., Бенжио Й. Нейронный машинный перевод путем совместного обучения выравниванию и переводу // Препринт arXiv arXiv:1409.0473. 2014.
- Васвани А., Шазир Н., Пармар Н., Внимание – это всё, что вам нужно. 2017. С. 18.
- Сак Х., Сениор А., Бофейс Ф. Рекуррентные архитектуры нейронных сетей на основе долговременной краткосрочной памяти для распознавания речи с большим словарным запасом // Препринт arXiv arXiv:1402.1128. 2014.
- Чжан М., Торал А. Влияние языка перевода на тестовые наборы для машинного перевода // Препринт arXiv arXiv:1906.08069. 2019.
- Робинсон Н. [и др.]. ChatGPT MT: конкурентоспособность для языков с высоким (но не низким) ресурсом // Труды Восьмой конференции по машинному переводу. 2023. С. 392 – 418.
- Эйнсли Дж. [и др.]. Gqa: Обучение обобщенных моделей преобразователей с несколькими запросами на основе многоголовочных контрольных точек // Препринт arXiv arXiv:2305.13245. 2023.
- Команда Джеммы. Джемма 2: Улучшение моделей открытого языка в практическом масштабе // Препринт arXiv arXiv:2408.00118. 2024.
- Эльшин Д. [и др.]. От общего LLM к переводу: Как мы значительно улучшаем качество перевода, используя данные человеческой оценки для тонкой настройки LLM // Материалы девятой конференции по машинному переводу. 2024. С. 247 – 252.
- Кошелев А.Д. Почему полисемия является языковой универсалией? // Слово и язык: сборник статей конференции. 2011. С. 695 – 735.
- How Google Translate Turns 134 Languages Into Math | WSJ Tech Behind // YouTube, 2024. URL: https://www.youtube.com/watch?v=OPTKlycwIkM (дата обращения: 18.11.2025).
- Recent advances in Google Translate // Google Research Blog, 2024. URL: https://research.google/blog/recent-advances-in-google-translate (дата обращения: 18.11.2025). 17.Gemma Explained: Overview of Gemma Model Family Architectures // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-overview-gemma-model-family-architectures/ (дата обращения: 18.11.2025).
- Gemma Explained: What’s New in Gemma 2 // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-new-in-gemma-2/ (дата обращения: 18.11.2025).
- Что стоит знать о Google GEMMA: блог-инженеры Яндекса о новой модели // Habr, 2024. URL: https://habr.com/ru/companies/yandex/articles/884416/ (дата обращения: 18.11.2025).
Дополнительные файлы

