Active Learning and Crowdsourcing: A Survey of Optimization Methods for Data Labeling


Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

High-quality annotated collections are a key element in constructing systems that use machine learning. In most cases, these collections are created through manual labeling, which is expensive and tedious for annotators. To optimize data labeling, a number of methods using active learning and crowdsourcing were proposed. This paper provides a survey of currently available approaches, discusses their combined use, and describes existing software systems designed to facilitate the data labeling process.

Об авторах

R. Gilyazev

Ivannikov Institute for System Programming, Russian Academy of Sciences; Moscow Institute of Physics and Technology

Автор, ответственный за переписку.
Email: gilyazev@ispras.ru
Россия, ul. Solzhenitsyna 25, Moscow, 109004; Institutskii per. 9, Dolgoprudnyi, Moscow oblast, 141701

D. Turdakov

Ivannikov Institute for System Programming, Russian Academy of Sciences; Moscow State University; National Research University Higher School of Economics

Автор, ответственный за переписку.
Email: turdakov@ispras.ru
Россия, ul. Solzhenitsyna 25, Moscow, 109004; Moscow, 119991; ul. Myasnitskaya 20, Moscow, 101000

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Pleiades Publishing, Ltd., 2018

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).