Том 10, № 4 (2024)

От редактора

Использование лингвистических инструментов на основе генеративного искусственного интеллекта в академическом письме: обзор предметного поля

Raitskaya L., Тихонова Е.

Аннотация

Введение: Академическое письмо переживает трансформационные изменения с появлением в 2022 году генеративных инструментов на базе ИИ. Это подстегнуло исследования в развивающейся области, которые сосредоточены на применении инструментов, основанных на ИИ, в академическом письме. Поскольку технологии ИИ быстро меняются, регулярное обобщение новых знаний требует пересмотра. Цель: Несмотря на то, что существуют обзоры предметного поля и систематические обзоры некоторых подобластей, настоящий обзор ставит своей целью определить границы поля, посвященного изучению инструментов на базе генеративного искусственного интеллекта в академическом письме. Метод: Обзор соответствует алгоритму PRISMA для исследований предметного поля и рамочной конструкции PPC. Критерии приемлемости включают РРС - проблему, концепцию, контекст; язык, предметную область, типы источников, базу данных (Scopus) и период (2023-2024 гг.). Результаты: Три кластера, установленные для 44 публикаций обзора, включают: (1) ИИ в совершенствовании академического письма; (2) вызовы ИИ в академическом письме; (3) авторство и этика. Потенциал языковых инструментов ИИ охватывает множество функций (генерация текста, корректура, редактирование, аннотирование текста, перефразирование и перевод) и обеспечивает помощь в исследованиях и академическом письме, предлагает стратегии для гибридного написания текстов с помощью ИИ в рамках различных заданий и жанров и улучшения качества письма. Инструменты на базе ИИ также изучаются в качестве инструмента обратной связи. Проблемы и опасения, связанные с использованием таких инструментов, варьируются от авторства до чрезмерного доверия к таким инструментам, введения в заблуждение или фальсификации, неточное указание источников, неспособность сформировать в тексте авторский голос. Результаты обзора соответствуют тенденциям, обозначенным в предыдущих публикациях, хотя все больше исследований посвящено механизмам интеграции инструментов гибридного написания текстов с использованием ИИ в различных контекстах. Дискурс в этой области переходит к пересмотру понятий авторства и оригинальности генерируемого ИИ контента. Заключение: Направления исследований претерпели некоторую переориентацию, появились новые эмпирические данные и новые фокусы в этой области. Трансформация академического письма ускоряется, в академических кругах вырабатываются новые стратегии для решения проблем и переосмысления основных концепций в соответствии с изменениями. Необходимы дальнейшие регулярные обобщения нового знания, включая дополнительные обзоры всех существующих и возникающих подобластей предметного поля.
Journal of Language and Education. 2024;10(4):5-30
pages 5-30 views

Оригинальное исследование

Обнаружение поддерживающих высказываний (Hope Speech) с использованием дискурса социальных сетей (Posi-Vox-2024): Подход на основе трансферного обучения

Ахмад М., Усман С., Фарид Х., Амир И., Музамил М., Амир Х., Сидоров Г., Батыршин И.

Аннотация

Введение: Понятие надежды определяется как оптимистичное ожидание или предвкушение положительных результатов. В эпоху активного использования социальных сетей исследования в основном сосредоточены на монолингвальных подходах, при этом языки урду и арабский остаются недостаточно изученными. Цель: Данное исследование посвящено совместному многоязычному обнаружению поддерживающих высказываний на урду, английском и арабском языках с использованием парадигмы трансферного обучения. Мы создали новый многоязычный набор данных под названием Posi-Vox-2024 и применили совместную многоязычную технику для разработки универсального классификатора, подходящего для многоязычных данных. Мы протестировали тонко настроенную модель BERT, которая продемонстрировала высокую эффективность в распознавании семантической и контекстной информации. Метод: Структура включает (1) предварительную обработку, (2) представление данных с использованием BERT, (3) тонкую настройку и (4) классификацию поддерживающих высказываний в бинарные («надежда» и «не надежда») и многоклассовые (реалистичные, нереалистичные и обобщенные надежды) категории. Результаты: Предложенная нами модель (BERT) показала наивысшую производительность на нашем наборе данных, достигнув точности 0,78 в двоичной классификации и 0,66 в многоклассовой классификации. Это улучшило результаты на 0,04 и 0,08 соответственно по сравнению с базовыми показателями (логистическая регрессия: 0,75 для двоичной и 0,61 для многоклассовой классификации). Заключение: Наши результаты могут быть использованы для улучшения автоматизированных систем обнаружения и продвижения поддерживающего контента на английском, арабском и урду на платформах социальных сетей, способствуя формированию позитивного онлайн-дискурса. Это исследование устанавливает новые стандарты для обнаружения многоязычных поддерживающих высказываний, расширяя существующие знания и открывая возможности для будущих исследований на недостаточно изученных языках.
Journal of Language and Education. 2024;10(4):31-43
pages 31-43 views

Синхронические и диахронические предикторы рейтингов социальной значимости слов

Бочкарев В.В., Шевлякова А.В., Ачкеев А.А.

Аннотация

Введение: В недавних исследованиях было введено и изучено новое психолингвистическое понятие — социальность слова. Рейтинг социальности отражает степень социальной значимости слова, и словари с такими рейтингами были составлены с использованием либо опросных методов, либо машинного обучения. Однако размер словарей с рейтингами социальности, созданных на основе опросов, остается относительно небольшим. Цель данного исследования — создание крупного словаря с рейтингами социальности английских слов с использованием машинной экстраполяции, перенос этих оценок на другие языки, а также разработка диахронических моделей рейтингов социальности. Метод: Рейтинги социальности слов оцениваются с использованием многослойных нейронных сетей прямого распространения. Для получения синхронных оценок в качестве входных данных использовались предварительно обученные векторы fastText. Для получения диахронических оценок применялась статистика совместной встречаемости слов из большого диахронического корпуса. Результаты: Коэффициент корреляции Спирмена между человеческими и машинными рейтингами социальности составил 0,869. Обученные модели позволили получить рейтинги социальности для 2 миллионов английских слов, а также для широкого спектра слов на 43 других языках. Неожиданным результатом стало то, что линейная модель обеспечивает высокоточную оценку рейтингов социальности, которую вряд ли можно улучшить. Вероятно, это связано с тем, что в пространстве векторных представлений слов существует выделенное направление, отвечающее за значения, связанные с социальностью, обусловленные социальными факторами, влияющими на репрезентацию и использование слов. В статье также представлен диахронический нейросетевой предиктор рейтингов конкретности, использующий векторы совместной встречаемости слов в качестве входных данных. Показано, что с использованием годовых данных из большого диахронического корпуса Google Books Ngram можно достичь точности, сопоставимой с точностью синхронных оценок. Заключение: Созданный крупный машинный словарь рейтингов социальности может быть использован в психолингвистических и культурологических исследованиях. Изменения рейтингов социальности могут служить маркером изменения значения слова и применяться для выявления лексико-семантических изменений.
Journal of Language and Education. 2024;10(4):44-55
pages 44-55 views

Только неправильные ответы: Генерация отвлекающих факторов для вопросов на понимание прочитанного на русском языке с использованием переведенного набора данных

Логин Н.В.

Аннотация

Введение: Вопросы на понимание прочитанного играют ключевую роль в изучении языка. Вопросы с множественным выбором представляют собой удобный формат оценки понимания текста, так как их можно легко оценивать автоматически. Наличие крупных наборов данных для понимания прочитанного также позволяет автоматически генерировать такие вопросы, снижая затраты на разработку банков тестовых заданий путем тонкой настройки языковых моделей. Хотя наборы данных для понимания прочитанного на английском языке широко распространены, для других языков, включая русский, ситуация иная. Генерация отвлекающих элементов (дистракторов) представляет собой сложную задачу, так как требует создания нескольких правдоподобных, но неправильных вариантов ответа. Цель данной работы — разработать эффективное решение для генерации отвлекающих элементов для вопросов на понимание прочитанного в стиле экзамена по русскому языку и выяснить, может ли переведенный набор данных с английского языка предоставить основу для такого решения. Метод: В данной статье мы настроили две предварительно обученные модели русского языка, RuT5 и RuGPT3 (Змитрович и др., 2024), для задачи генерации дистракторов для двух типов вопросов, извлеченных из большого набора данных с множественным выбором, автоматически переведенного с английского на русский. Первый тип вопросов включал выбор лучшего заголовка для заданного текста, а второй — выбор истинных/ложных утверждений. Модели оценивались автоматически на тестовых и валидационных подмножествах, а модели для генерации дистракторов истинных утверждений дополнительно тестировались на независимом наборе вопросов из российского государственного экзамена ЕГЭ. Результаты: Было установлено, что модели превзошли нетонко настроенный базовый уровень, при этом производительность модели RuT5 оказалась выше, чем у RuGPT3. Модели лучше справлялись с вопросами на выбор истинных утверждений, чем с вопросами на выбор заголовков. Модели, обученные на переведенном наборе данных, показали более высокое качество по сравнению с моделями, обученными на существующем наборе дистракторов на русском языке. Модель на основе T5 также превзошла базовый уровень, установленный с использованием переведенных дистракторов, сгенерированных существующей моделью для английского языка. Заключение: Полученные результаты демонстрируют возможность использования переведенного набора данных для генерации дистракторов и подчеркивают важность соответствия домена (языковой экзамен) и типа вопроса во входных данных.
Journal of Language and Education. 2024;10(4):56-70
pages 56-70 views

Автоматическая сегментация морфем для русского языка: Может ли алгоритм заменить экспертов?

Морозов Д.А., Гарипов Т.А., Ляшевская О.Н., Савчук С.О., Иомдин Б.Л., Глазкова А.В.

Аннотация

Введение: Было предложено множество алгоритмов для задачи автоматической сегментации морфем русских слов. Однако из-за различий в формулировке задачи и используемых наборах данных сравнение их качества остается сложной задачей. Неясно, являются ли ошибки в моделях следствием неэффективности самих алгоритмов или результатом неточностей и несоответствий в словарях морфем. Таким образом, остается открытым вопрос, можно ли использовать какой-либо алгоритм для автоматического расширения существующих словарей морфем. Цель: Сравнить различные существующие алгоритмы сегментации морфем для русского языка и проанализировать их применимость для автоматического дополнения существующих словарей морфем. Результаты: В данном исследовании мы сравнили несколько современных алгоритмов машинного обучения, используя три набора данных, основанных на различных парадигмах сегментации. Было проведено два эксперимента, каждый из которых включал пятикратную перекрестную проверку. В первом эксперименте мы случайным образом разделили набор данных на пять подмножеств. Во втором эксперименте все слова с одним корнем были сгруппированы в одно подмножество, при этом слова с несколькими корнями были исключены. В ходе перекрестной проверки модели обучались на четырех подмножествах и тестировались на оставшемся. В обоих экспериментах алгоритмы, основанные на ансамблях сверточных нейронных сетей, неизменно демонстрировали наивысшую производительность. Однако мы наблюдали значительное снижение точности при тестировании на словах, содержащих неизвестные корни. Также было обнаружено, что на случайно выбранном наборе слов производительность этих алгоритмов была сопоставима с результатами экспертов-людей. Вывод: Наши результаты показывают, что, хотя автоматические методы в среднем достигли качества, близкого к экспертному уровню, отсутствие семантического анализа делает невозможным их использование для автоматического расширения словаря без участия экспертов. Проведенное исследование выявило ключевые проблемы, требующие дальнейшего изучения: низкая производительность на неизвестных корнях и аббревиатурах. В то же время, если в тестовом наборе данных предполагается небольшое количество неизвестных корней, рекомендуется использовать ансамбль сверточных нейронных сетей. Полученные результаты могут быть применены при разработке морфемно-ориентированных токенизаторов и систем анализа сложности текстов.
Journal of Language and Education. 2024;10(4):71-84
pages 71-84 views

Исследование ограничений: Понимание недостатков SVD в сжатии языковых моделей

Плетенев С.А.

Аннотация

Введение: Современная вычислительная лингвистика в значительной степени опирается на крупные языковые модели, которые демонстрируют высокую производительность в различных задачах формирования рассуждений на естественном языке (NLI). Однако эти модели требуют значительных вычислительных ресурсов как для обучения, так и для развертывания. Для решения этой проблемы был разработан ряд методов сжатия и ускорения, включая квантование, обрезку и факторизацию. Каждый из этих подходов работает по-разному, может применяться на разных уровнях архитектуры модели и подходит для различных сценариев развертывания. Цель данного исследования — анализ и оценка метода сжатия на основе факторизации, который уменьшает вычислительные затраты крупных языковых моделей, сохраняя при этом их точность в задачах NLI, особенно для приложений с ограниченными ресурсами или чувствительных к задержкам. Метод: Для оценки влияния сжатия на основе факторизации мы провели серию экспериментов. Сначала мы выбрали широко используемую предварительно обученную модель (Bert-base и Llama 2) в качестве базовой линии. Затем мы применили низкоранговую факторизацию к ее слоям трансформера, используя различные алгоритмы сингулярного разложения при разных степенях сжатия. После этого мы использовали задачи зондирования для анализа изменений во внутренних представлениях и лингвистических знаниях сжатых моделей. Мы сравнили изменения во внутренних представлениях модели с ее способностью решать задачи формирования рассуждений на естественном языке (NLI) и скоростью сжатия, достигнутой с помощью факторизации. Результаты: Наивная равномерная факторизация часто приводила к значительному снижению точности даже при небольших степенях сжатия, что отражало заметное ухудшение способности модели понимать текстовые импликации. Задачи зондирования показали, что равномерно сжатые модели теряли важную синтаксическую и семантическую информацию, что соответствовало наблюдаемому снижению производительности. Однако целевые подходы к сжатию, такие как выборочное сжатие наиболее избыточных частей модели или использование взвешенных алгоритмов, смягчали эти негативные эффекты. Вывод: Результаты показывают, что факторизация при правильном использовании может значительно снизить вычислительные требования, сохраняя при этом ключевые лингвистические возможности крупных языковых моделей. Наши исследования могут послужить основой для разработки будущих методов сжатия, которые адаптируют стратегии факторизации к внутренней структуре моделей и их задачам. Эти идеи могут помочь в развертывании LLM в сценариях с ограниченными вычислительными ресурсами.
Journal of Language and Education. 2024;10(4):85-97
pages 85-97 views

Модель классификации на основе BERT: пример применения к русским сказкам

Соловьев В.Д., Солнышкина М.И., Ten A., Прокопьев Н.А.

Аннотация

Введение: Автоматическое профилирование и жанровая классификация текстов играют ключевую роль в оценке их пригодности и уже более десяти лет широко используются в образовании, поиске информации, анализе тональности текста и машинном переводе. Среди всех жанров сказки представляют собой один из самых сложных и ценных объектов исследования из-за своей неоднородности и множества неявных особенностей. Однако традиционные методы классификации, включая стилометрические и параметрические алгоритмы, не только трудоемки и требуют значительных временных затрат, но и сталкиваются с трудностями при определении подходящих классифицирующих признаков. Исследования в этой области немногочисленны, а их результаты остаются противоречивыми и спорными. Цель: Наше исследование направлено на заполнение этого важного пробела и предлагает алгоритм для классификации русских сказок на основе предварительно заданных параметров. Мы представляем современную модель классификации на основе BERT для русских сказок, проверяем гипотезу о потенциале BERT для классификации русских текстов и тестируем ее на репрезентативном корпусе из 743 русских сказок. Метод: Мы предварительно обучаем BERT на наборе данных, состоящем из трех классов документов, и настраиваем его для решения конкретной прикладной задачи. Акцентируя внимание на механизме токенизации и создании векторных представлений как ключевых компонентах обработки текста в BERT, исследование также оценивает стандартные метрики, используемые для обучения моделей классификации, анализирует сложные случаи, возможные ошибки и алгоритмы улучшения, тем самым повышая точность моделей. Оценка производительности моделей проводится на основе функции потерь, точности прогнозирования, полноты и отклика. Результаты: Мы подтвердили потенциал BERT для классификации русских текстов и его способность повышать производительность и качество существующих моделей NLP. Наши эксперименты с моделями cointegrated/rubert-tiny, ai-forever/ruBert-base и DeepPavlov/rubert-base-cased-sentence на различных задачах классификации показали, что наши модели достигают самых современных результатов, при этом наивысшая точность (95,9%) была достигнута с использованием модели cointegrated/rubert-tiny, что значительно превосходит результаты двух других моделей. Точность классификации, достигаемая с помощью ИИ, настолько высока, что может конкурировать с экспертной оценкой человека. Заключение: Результаты подчеркивают важность тонкой настройки для моделей классификации. BERT демонстрирует значительный потенциал для улучшения технологий обработки естественного языка, внося вклад в качество автоматического анализа текста и открывая новые возможности для исследований и применения в различных областях, включая идентификацию и упорядочивание текстов по содержанию, что способствует принятию решений. Разработанный и проверенный алгоритм можно масштабировать для классификации как сложного и неоднозначного дискурса, так и художественной литературы, улучшая наше понимание текстовых категорий. Для дальнейшего развития этих подходов необходимы значительно большие наборы данных.
Journal of Language and Education. 2024;10(4):98-111
pages 98-111 views

Борьба с инфляцией оценок: концентрированные наборы данных для исправления грамматических ошибок

Старченко В., Харламова Д., Клыкова Е., Шаврина А., Старченко А., Виноградова О., Ляшевская О.

Аннотация

Введение: Системы исправления грамматических ошибок (GEC) значительно развились за последнее десятилетие. Согласно общепринятым показателям, они часто достигают уровня экспертов-людей или превосходят его. Тем не менее, они плохо справляются с несколькими видами ошибок, которые легко исправляются людьми. Таким образом, достигнув предела разрешения, алгоритмы оценки и наборы данных не позволяют дальнейшего улучшения систем GEC. Цель: Решить проблему предела разрешения в GEC. Предлагаемый подход заключается в использовании для оценки концентрированных наборов данных с более высокой плотностью ошибок, с которыми современным системам GEC трудно справиться. Метод: Чтобы проверить предлагаемое решение, мы рассмотрим ошибки, чувствительные к удаленному контексту, которые были признаны сложными для систем GEC. Мы создаем концентрированный набор данных для английского языка с более высокой плотностью ошибок различных типов, наполовину вручную объединяя предварительно аннотированные примеры из четырех существующих наборов данных и дополнительно расширяя аннотацию ошибок, чувствительных к удаленному контексту. Две системы GEC оцениваются с использованием этого набора данных, включая традиционные алгоритмы оценки и новый подход, модифицированный для более длинных контекстов. Результаты: концентрированный набор данных включает 1014 примеров, отобранных вручную из FCE, CoNLL-2014, BEA-2019 и REALEC. Он аннотирован для типов контекстно-зависимых ошибок, таких как местоимения, время глагола, пунктуация, референтные связки и слова-связки. Системы GEC показывают более низкие баллы при оценке на наборе данных с более высокой плотностью сложных ошибок по сравнению со случайным набором данных с другими теми же параметрами. Вывод: Более низкие баллы, зарегистрированные на концентрированных наборах данных, подтверждают, что они предоставляют возможность для будущего улучшения моделей GEC. Набор данных можно использовать для дальнейших исследований, сосредоточенных на GEC, чувствительном к удаленному контексту.
Journal of Language and Education. 2024;10(4):112-129
pages 112-129 views

Содействие адаптации большой языковой модели к русскому языку с помощью распространения изученного векторного представления

Тихомиров М., Чернышев Д.

Аннотация

Введение: Недавние достижения в области технологий крупных языковых моделей (LLM) представили мощные LLM с открытым исходным кодом, настроенные на выполнение инструкций, которые по качеству генерации текста сопоставимы с ведущими моделями, такими как GPT-4. Несмотря на ускорение внедрения LLM в средах с конфиденциальной информацией, отсутствие раскрытых данных обучения затрудняет воспроизводимость и делает эти достижения эксклюзивными для определенных моделей. Цель: Учитывая многоязычный характер последних версий LLM с открытым исходным кодом, преимущества обучения моделей, ориентированных на конкретный язык, уменьшаются, оставляя вычислительную эффективность единственным гарантированным преимуществом этой ресурсоемкой процедуры. Цель данной работы — устранить ограничения адаптации языковых моделей, вызванные ограниченным доступом к высококачественным данным для настройки на инструкции, предложив более экономически эффективный подход. Метод: Для решения проблем адаптации языковых моделей мы представляем Learned Embedding Propagation (LEP) — новый метод, требующий меньшего объема данных для обучения и минимально нарушающий существующие знания LLM. LEP использует инновационную технику распространения векторных представлений, устраняя необходимость в настройке на инструкции и напрямую интегрируя новые языковые знания в любую версию LLM, настроенную на выполнение инструкций. Кроме того, мы разработали Darumeru — новый эталон для оценки надежности генерации текста в процессе обучения, специально настроенный для адаптации к русскому языку. Результаты: Мы применили метод LEP для адаптации моделей LLaMa-3-8B и Mistral-7B к русскому языку, протестировав четыре различных сценария адаптации словаря. Оценка показала, что LEP достигает конкурентоспособных уровней производительности, сопоставимых с OpenChat 3.5 и LLaMa-3-8B-Instruct. Дальнейшие улучшения были достигнуты за счет самокалибровки и дополнительных шагов настройки на инструкции, что расширило возможности моделей в решении задач по сравнению с исходными версиями. Вывод: LEP предлагает жизнеспособную и эффективную альтернативу традиционной настройке на инструкции для конкретного языка, значительно сокращая затраты на адаптацию языковых моделей, при этом сохраняя или превосходя эталонные показатели производительности, установленные современными LLM.
Journal of Language and Education. 2024;10(4):130-145
pages 130-145 views

Predictions of Multilevel Linguistic Features to Readability of Hong Kong Primary School Textbooks: A Machine Learning Based Exploration

Сюй Ч., Ли И., Лю Д.

Аннотация

Introduction: Readability formulas are crucial for identifying suitable texts for children's reading development. Traditional formulas, however, are linear models designed for alphabetic languages and struggle with numerous predictors. Purpose: To develop advanced readability formulas for Chinese texts using machine-learning algorithms that can handle hundreds of predictors. It is also the first readability formula developed in Hong Kong. Method: The corpus comprised 723 texts from 72 Chinese language arts textbooks used in public primary schools. The study considered 274 linguistic features at the character, word, syntax, and discourse levels as predictor variables. The outcome variables were the publisher-assigned semester scale and the teacher-rated readability level. Fifteen combinations of linguistic features were trained using Support Vector Machine (SVM) and Random Forest (RF) algorithms. Model performance was evaluated by prediction accuracy and the mean absolute error between predicted and actual readability. For both publisher-assigned and teacher-rated readability, the all-level-feature-RF and character-level-feature-RF models performed the best. The top 10 predictive features of the two optimal models were analyzed. Results: Among the publisher-assigned and subjective readability measures, the all-RF and character-RF models performed the best. The feature importance analyses of these two optimal models highlight the significance of character learning sequences, character frequency, and word frequency in estimating text readability in the Chinese context of Hong Kong. In addition, the findings suggest that publishers might rely on diverse information sources to assign semesters, whereas teachers likely prefer to utilize indices that can be directly derived from the texts themselves to gauge readability levels. Conclusion: The findings highlight the importance of character-level features, particularly the timing of a character's introduction in the textbook, in predicting text readability in the Hong Kong Chinese context.
Journal of Language and Education. 2024;10(4):146-158
pages 146-158 views

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».