Automatic Image Style Transfer Using an Augmented Style Set

Cover Page

Cite item

Full Text

Abstract

Image style transfer is an applied task for automatic rendering of the original image (content) in the style of another image (specifying the target style). Traditional image stylization methods provide only a single stylization result. If the user is not satisfied with it due to stylization artifacts, he has to choose a different style. The work proposes a modified stylization algorithm, giving a variety of stylization results, and achieves improved stylization quality by using additional style information from similar styles.

Full Text

ВВЕДЕНИЕ

Алгоритму нейросетевой стилизации изображений (neural style transfer) подаются на вход два изображения – конетное изображение (контент), и стилевое изображение (стиль). Алгоритм решает задачу автоматической перерисовки контентного изображения в стиле стилевого изображения. Под стилем понимается цветовая гамма и характерные паттерны рендеринга, такие как мазки кисти художника. Указанная задача актуальна для создания ярких иллюстраций в книгах, на сайтах, в рекламе, дизайне, а также в индустрии развлечений.

Изначально указанная задача была известна под названием non-photorealistic rendering [1–3] и решалась эвристическими методами обработки изображений, подбираемыми под каждый стиль. Нейросетевой перенос стиля, предложенный в работе [4], позволил переносить стиль с произвольного стилевого изображения-образца, как показано на примере стилизации контентного изображения двумя стилями на рис. 1.

 

Рис. 1. Применение переноса стиля методом [4]. Первый стиль наложился хуже, чем второй, из-за сильной несочетаемости с контентным изображением (по четкости)

 

На рис. 1 видно, что качество стилизации существенно зависит от сочетаемости стилей контентного и стилевого изображений. Если они сочетаемы (стиль 2), то результат стилизации получается приемлемым. Если же стили контентного и стилевого изображений существенно различаются, например, по четкости, как при стилизации первым стилем (см. рис. 1), который более размыт, чем контент, то и стилизация получается неудовлетворительная. Получается, что для создания эффектных стилизаций пользователь вынужден долго перебирать вручную различные стили, пока не найдет стиль, который хорошо сочетается с контентом.

Чтобы упростить процедуру создания качественных стилизаций в работе предлагается производить стилизацию не одним пользовательским стилем, а совокупностью изображений, похожих по стилю на входное пользовательское стилевой изображение. Для расчета стилевой похожести предлагается специальная процедура расчета стилевых характеристик. За счет агрегации стилевой информации с нескольких изображений повышается устойчивость алгоритма к возможным индивидуальным несоотвествиям контентного и стилевого изображений. Проведенные опросы респондентов показывают, что получаемые стилизации действительно получаются более качественными.

Другим преимуществом предлагаемой модификации является возможность более широко смотреть на стиль. Теперь он не задается одним лишь исходным стилевым изображением, а задан целой совокупностью изображений, имеющих стиль, похожий на целевой. Тем самым, беря разные подмножества из этих изображений, можно получать различные варианты стилизации. Это удобно, если пользователю хотелось бы получить иной вариант стилизации исходным стилем.

Стоит отметить, что базовый подход к стилизации [4], над котором предлагается надстройка, производит оптимизацию в исходном цветовом пространстве стилизуемого изображения, что занимает несколько десятков секунд на видеокарте и неприменимо, например, к стилизации видеопотоков в реальном времени. Много последующих работ, например [5, 6], было посвящено ускорению стилизации за счет преобразования контентного изображения через специальную нейронную сеть. Поскольку предлагаемый метод представляет собой надстройку над алгоритмом стилизации, то он применим и к ним, а также к другим методам стилизации.

БАЗОВЫЙ АЛГОРИТМ СТИЛИЗАЦИИ ИЗОБРАЖЕНИЙ

Рассмотрим оригинальный подход, указанный в статье [4]. Процесс переноса стиля оперирует со следующими входными данными:

  • S – изображение, содержащее желаемый художественный стиль;
  • Y – изображение, содержимое которого требуется отобразить в нужном стиле (контент).

Задача алгоритма стилизации – сгенерировать изображение X (стилизацию), на котором объекты контента Y будут изображены в стиле стилевого изображения S. Стиль задает цветовую гамму и характерные паттерны стилевого изображения – углы, переливы между цветами, характерные паттерны, такие как мазки кисти художника.

Для переноса стиля решается оптимизационная задача в пространстве пикселов результирующего стилизованного изображения X:

cont(X,Y)+αstyle(X,S)minX, (1)

где потери cont(X,Y) штрафуют расхождение контентного изображения и стилизации по смыслу (что именно изображено), а style(X,S) штрафуют расхождение стилевого изображения и стилизации по стилю (как изображено). Гиперпараметр α > 0 управляет противоречием между более точной передачей контента (смысла) и более полной передачей стиля.

Расчет контентных и стилевых потерь производится по представлениям изображений X, Y, S на промежуточных слоях сети VGG [7], обученной классифицировать изображения, на выборке ImageNet [8]. Причем для расчета контентных потерь используется один промежуточный слой k, а для расчета стилевых потерь – совокупность более ранних и более поздних слоев, как показано на рис. 2.

 

Рис. 2. Используемые при стилизации слои сети VGG

 

Функция потерь для контента:

cont(X,Y)=1HkWkCkc=1Cki=1Hkj=1WkXcijk-Ycijk2,

где Xk, YkCk×Hk×Wk – тензоры промежуточных представлений на некотором слое k (гиперпараметр) изображений X и Y после того, как их пропустили через классификационную нейросеть; Ck – число каналов; Hk × Wk – пространственное разрешение карты признаков. Суть функции заключается в том, что если по смыслу на изображениях X и Y изображены разные объекты, то и их промежуточные представления в сети VGG будут различаться. Штрафуются расхождения именно в промежуточных признаковых представлениях (отвечающих за семантику), а не в исходных RGB-представлениях, поскольку иначе это служило бы слишком сильной привязкой стилизации к исходному контентному изображению и стилизации бы не получилось.

Стилевые потери представляют собой сумму стилевых потерь по отдельным слоям сети VGG:

style=kstylek,

где

style(X,S)=1Ck2Hk2Wk2i=1Hkj=1WkGijXk-GijYk2. (2)

Здесь GZkCk×Ck обозначает матрицу Грама, состоящую из скалярных произведений между всевозможными каналами промежуточного представления Z k в сети VGG на слое k для изображения Z (равного либо стилевому изображению S либо результату стилизации X):

GijZk=i=1Wkj=1HkGcijk-Gcijk. (3)

Контент определяет пространственное расположение объектов на изображении, поэтому при расчете контентной функции потерь производится сравнение промежуточных представлений в привязке к пространственным координатам (i и j).

Стиль же задает общее распределение цветов и более общих паттернов (границ, углов, переливов, мазков кисти и т. д.). Поэтому сначала извлекается это распределение в виде скалярных произведений между каналами (при расчете скалярных произведений пространственная информация теряется, так как происходит агрегация по всевозможных пространственным координатам i, j), а затем штрафуется уже расхождение распределений признаков между стилизацией и стилем. Такая структура стилевых потерь приближает стиль, но не приводит к переносу контентной (смысловой) информации со стилевого изображения.

ПРЕДЛАГАЕМЫЙ ПОДХОД РАСШИРЕННОЙ СТИЛИЗАЦИИ

Поскольку привяка к определенному пользовательскому изображению стиля может быть слишком жестким ограничением, приводящем к артефактам стилизации, вызванной слабым исходным соответствием контента и стиля (см. рис. 1), предлагается трехэтапный алгоритм стилизации, более устойчивый к индивидуальной несовместимости исходного контентного и стилевого изображений:

  1. Найти для исходного стилевого изображения наиболее близкие по стилю изображения в широкой базе художественных изображений, таких как Wikiart [9] или Pandora [10] (которая использовалась в работе). Опционально: перекрасить похожие стилевые изображения в цветовую гамму стиля.
  2. Усреднить матрицы Грама по похожим изображениям.
  3. Применить алгоритм стилизации (1), заменив в стилевых потерях (2) матрицы Грамма стилевого изображения на усредненные матрицы Грама по набору изображений, задающих похожий стиль на заданный.

Для поиска похожих изображений по стилю извлекаются вектора поканальных средних для промежуточных представлений в сети VGG. Например, для изображения Z и его промежуточного представления Z k на слое k получим компоненты Ck-мерного вектора средних следующим образом:

vck(Z)=1HkWki=1Wkj=1HkZcijk, c=1, Ck¯. (4)

Далее указанные векторы конкатенируются по более ранним и более поздним слоям VGG, чтобы выравнивать соответствие по разным слям сети. Сравнение изображений по стилю производится сравнением результирующих векторов по Евклидовой норме. Указанное векторное представление содержит информацию о стиле, а не о контенте, поскольку при поканальном усреднении стирается информация о пространственном расположении объектов, а сохраняется только статистика присутствия тех или иных признаков (цветов и более общих локальных паттернов), которые и характеризуют стиль.

Чтобы повысить соответствие исходному стилю, рекомендуется перекраска наиболее похожих стилевых изображений на исходный стиль в цвета исходного стиля, используя алгоритм гистограммной перекраски (histogram matching) [11].

Несмотря на то, что в следующей секции приводятся результаты запусков для стилизационной модели [4], предлагаемый подход достаточно общий, чтобы быть применимым и для других методов стилизации. Код предложенного подхода доступен на github1.

СРАВНИТЕЛЬНЫЕ ЭКСПЕРИМЕНТЫ

Определим параметры, при которых будет производиться стилизация. Максимальное количество предлагаемых изображений взято равным 3, в качестве метрики близости будем использовать Евклидову метрику, порог близости объектов, при которой будут добавляться похожие изображения, возьмем равным threshold = 500. Стилизацию будем проводить по агрегированному (с помощью усреднения матриц Грама) стилю. Сопоставим результаты полученной стилизации со стилизацией с добавленным перекрашиванием найденных стилей в цвет исходного пользовательского стиля.

На рис. 3, 4 показаны некоторые примеры стилизаций с перекрашиванием и без. В обоих случаях видно, что результирующая стилизация немного отлична от исходной, хотя и повторяет ее общие черты. Отстутствие перекрашивания снижает соответствие исходному стилю, но может добавлять яркости результату, что особенно заметно на рис. 3.

 

Рис. 3. Пример работы алгоритма стилизации по группе найденных стилей с перекрашиванием исходного стиля: a) контент; б) стандартная стилизация контента a) по стилю д); в) предложенная стилизация по группе найденных стилей е) и з); г) предложенная стилизация по группе стилей с перекрашиванием ж) и и); д) исходный стиль; е) 1-й найденный стиль; ж) стиль е) перекрашенный в д); з) 2-й найденный стиль; и) стиль з) перекрашенный в д)

 

Рис. 4. Пример работы алгоритма стилизации по группе найденных стилей с переносом цветовой схемы исходного стиля: a) контент; (б) стандартная стилизация контента a) по стилю д); в) предложенная стилизация по группе найденных стилей е), ж); г) предложенная стилизация по группе стилей с перекрашиванием е), ж); д) пользовательский стиль; е), ж) похожие на (e) стили

 

Количество стилей в группе является настраиваемым параметром. Используя группы разных размеров, можно получать отличные друг от друга стилизации. Обозначим за k число стилей в группе. На рис. 5, 6 изображены стилизации по группам стилей при разных k. Большее количество изображений позволяет выразительнее передавать детали стилей и контента, но существует условный предел на k, после которого групповая стилизация начинает размываться и терять преимущества относительно стилизации по исходному изображению. Чем больше k, тем менее похожие стили добавляются в группу. Это также зависит от размера всей коллекции изображений. При небольшом объеме уже третий стиль может сильно отличаться от первого. Результаты экспериментов показывают достаточность использования двух-трех дополнительных стилей для повышения качества стилизации.

 

Рис. 5. Работа предложенным алгоритмом стилизации по группе найденных стилей при различном размере группы k: a) стилизация по д), k = 1; б) стилизация по д) и е), k = 2; в) стилизация по д) – ж), k = 3; г) стилизация по д) – з), k = 4

 

Рис. 6. Работа предложенным алгоритмом стилизации по группе найденных стилей при различном размере группы k: а) стилизация по д), k = 1; б) стилизация по д) и е), k = 2; в) стилизация по д) – ж), k = 3; г) стилизация по д) – з), k = 4

 

Для численного сравнения стилизаций (см. табл. 1), выполненных разными моделями, были рассмотрены метрики: Average Gradient Magnitude [12] – средняя магнитуд градиентов изображения с окном 3 × 3 пикселов (оператор Собеля); Average 0.90 Quantile FFT [13] – стилизация делится на 8 × 8 частей, для каждого блока вычисляются преобразование Фурье и среднее амплитуд, лежащих выше квантили 90%; Deception rate [14] – на основе сети VGG строится классификатор художественных стилей (600 классов), каждый из алгоритмов стилизации тестируется на способность сохранять исходный стиль с помощью построенного классификатора; если он правильно определяет художественный стиль у стилизации, то она считается корректной; оценивается доля корректных стилизаций классификатором на наборе из 1000 пар контент–стиль для каждого алгоритма. По всем мерам качества достигается улучшение предложенного метода по сравнению с базовым [4], использующим лишь один исходный стиль.

 

Таблица 1. Сравнение метрик существующих популярных моделей с предложенным. Значения подсчитывались на тестовом наборе из 1000 пар контент-стиль

Мера качества

Gatys et al. [4]

AdaIN [15]

WCT [16]

Предложенный

Deception rate [14]

0.213

0.117

0.082

0.323

Avg. Gradient Magnitude [12]

160.3

153.9

165.1

177.8

Avg. 90% Quantile FFT [13]

0.488

0.467

0.508

0.541

 

Также был проведен опрос среди респондентов, которым для всевозможных пар контент-стиль предлагались на выбор два варианта стилизаций – базовым методом [4] и предложенным (группой похожих стилей с их перекраской под исходный стиль). Респонеднтам предлагалось выбрать, на их взгляд, более удачный вариант стилизации. Варианты стилизаций каждый раз предлагались в случайном порядке, а респонденты не были ознакомлены с деталями алгоритмов стилизации. Всего участвовало 58 респондентов, каждый из которых сравнивал 25 пар стилизаций. Результаты опросов представлены в табл. 2.

 

Таблица 2. Результаты опроса пользователей по сравнению оригинального способа стилизации [4] и предложенного способа стилизации

число вопросов

число респондентов

число ответов

% голосов за новый метод

25

58

1450

71%

 

Результат опроса пользователей показал, что пользователи в 71% случаев выбирали новый метод стилизации, что показывает его преимущество по отношению к базовому методу стилизации [4].

ЗАКЛЮЧЕНИЕ

В работе исследовалась задача автоматической стилизации изображений. Было предложено расширить исходное стилевое изображение выборкой похожих по стилю изображений. Для стилевого сопоставления использовались вектора поканальных средних в представлениии VGG, которые хорошо себя показали на практике. Стилизация группой похожих стилей, а не только исходным, дает более устойчивый и качественный результат, что показали формальные меры качества и опросы респондентов, чаще предпочитавшие стилизации предложенным методом. Дополнительным преимуществом метода является возможность изменять группу похожих стилевых изображений, что позволит пользователю получать различные варианты стилизаций, если первоначальная стилизация пользователя не устраивает.

БЛАГОДАРНОСТЬ

Работа выполнена в рамках государственного задания в сфере научной деятельности Министерства науки и высшего образования РФ на тему “Модели, методы и алгоритмы искусственного интеллекта в задачах экономики для анализа и стилизации многомерных данных, прогнозирования временных рядов и проектирования рекомендательных систем”, номер проекта FSSW-2023-0004.

1 httpps://github.com/valerapon/Style-transfer-UESC

×

About the authors

V. V. Ponamaryov

Lomonosov Moscow State University

Author for correspondence.
Email: valera.pon.vp@gmail.com
Russian Federation, Moscow

V. V. Kitov

Lomonosov Moscow State University; Plekhanov Russian University of Economics

Email: v.v.kitov@yandex.ru
Russian Federation, Moscow; Moscow

References

  1. Gooch B., Gooch A. Non-photorealistic rendering. CRC Press, 2001.
  2. Strothotte T., Schlechtweg S. Non-photorealistic computer graphics: modeling, rendering, and animation. Morgan Kaufmann, 2002.
  3. Rosin P., Collomosse J. Image and video-based artistic stylisation. Springer Science & Business Media, 2012. V. 42.
  4. Gatys L.A., Ecker A.S., Bethge M. A neural algorithm of artistic style // arXiv preprint arXiv:1508.06576, 2015.
  5. Huang X., Belongie S. Arbitrary style transfer in real-time with adaptive instance normalization // Proceedings of the IEEE international conference on computer vision. 2017. P. 1501–1510.
  6. Li Y. et al. Universal style transfer via feature transforms // Advances in neural information processing systems. 2017. V. 30.
  7. Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // arXiv preprint arXiv:1409.1556, 2014.
  8. Deng J. et al. Imagenet: A large-scale hierarchical image database // 2009 IEEE conference on computer vision and pattern recognition. IEEE. 2009. P. 248–255.
  9. Phillips F., Mackintosh B. Wiki Art Gallery, Inc.: A case for critical thinking // Issues in Accounting Education. 2011. V. 26. № 3. P. 593–608.
  10. Florea C. et al. Pandora: Description of a painting database for art movement recognition with baselines and perspectives // 2016 24th European Signal Processing Conference (EUSIPCO). IEEE. 2016. P. 918–922.
  11. Buzuloiu V. et al. Adaptive-neighborhood histogram equalization of color images // Journal of Electronic Imaging. 2001. V. 10. № 2. P. 445–459.
  12. de Villiers J.P. A comparison of image sharpness metrics and real-time sharpening methods with GPU implementations // Proceedings of the 7th International Conference on Computer Graphics, Virtual Reality, Visualisation and Interaction in Africa. 2010. P. 53–62.
  13. Hassen R., Wang Z., Salama M.M.A. Image sharpness assessment based on local phase coherence // IEEE Transactions on Image Processing. 2013. V. 22. № 7. P. 2798–2810.
  14. Sanakoyeu A. et al. A style-aware content loss for real-time hd style transfer // Proceedings of the European conference on computer vision (ECCV). 2018. P. 698–714.
  15. Huang X., Belongie S. Arbitrary style transfer in real-time with adaptive instance normalization // Proceedings of the IEEE international conference on computer vision. 2017. P. 1501–1510.
  16. Li Y. et al. Universal style transfer via feature transforms // Advances in neural information processing systems. 2017. V. 30.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Fig. 1. Application of style transfer using the method [4]. The first style overlapped worse than the second one because of strong incongruity with the content image (in terms of clarity)

Download (392KB)
3. Fig. 2. VGG network layers used for stylisation

Download (115KB)
4. Fig. 3. Example of work of the algorithm of styling by a group of found styles with recolouring of the initial style: a) content; b) standard styling of content a) by style e); c) proposed styling by a group of found styles e) and h); d) proposed styling by a group of styles with recolouring g) and i); e) initial style; f) 1st found style; g) style e) recoloured in e); h) 2nd found style; i) style h) recoloured in e)

Download (391KB)
5. Fig. 4. Example of work of the algorithm of styling by a group of found styles with transfer of the colour scheme of the original style: a) content; (b) standard styling of content a) by style e); c) suggested styling by a group of found styles e), g); d) suggested styling by a group of styles with recolouring e), g); e) custom style; f), g) similar to (e) styles

Download (376KB)
6. Fig. 5. Operation of the proposed styling algorithm on the group of found styles at different group size k: a) styling by e), k = 1; b) styling by e) and f), k = 2; c) styling by e) - g), k = 3; d) styling by e) - h), k = 4

Download (566KB)
7. Fig. 6. Operation of the proposed styling algorithm on the group of found styles at different group size k: a) styling by e), k = 1; b) styling by e) and f), k = 2; c) styling by e) - g), k = 3; d) styling by e) - h), k = 4

Download (576KB)

Copyright (c) 2024 Russian Academy of Sciences

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».