Empirical Study of Extreme Overfitting Points of Neural Networks


Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

In this paper we propose a method of obtaining points of extreme overfitting—parameters of modern neural networks, at which they demonstrate close to 100% training accuracy, simultaneously with almost zero accuracy on the test sample. Despite the widespread opinion that the overwhelming majority of critical points of the loss function of a neural network have equally good generalizing ability, such points have a huge generalization error. The paper studies the properties of such points and their location on the surface of the loss function of modern neural networks.

Об авторах

D. Merkulov

Skolkovo Institute of Science and Technology, Center for Computational and Data-Intensive Science and Engineering; Moscow Institute of Physics and Technology

Автор, ответственный за переписку.
Email: daniil.merkulov@skolkovotech.ru
Россия, Moscow; Moscow

I. Oseledets

Skolkovo Institute of Science and Technology, Center for Computational and Data-Intensive Science and Engineering; Institute of Numerical Mathematics, Russian Academy of Sciences

Автор, ответственный за переписку.
Email: i.oseledets@skoltech.ru
Россия, Moscow; Moscow

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Pleiades Publishing, Inc., 2019

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).