Separation of Reverberant Speech Based on Computational Auditory Scene Analysis


Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

This paper proposes a computational auditory scene analysis approach to separation of room reverberant speech, which performs multi-pitch tracking and supervised classification. The algorithm trains speech and non-speech model separately, which learns to map from harmonic features to grouping cue encoding the posterior probability of time-frequency unit being dominated by the target and periodic interference. Then, a likelihood ratio test selects the correct model for labeling time-frequency unit. Experimental results show that the proposed approach produces strong pitch tracking results and leads to significant improvements of predicted speech intelligibility and quality. Compared with the classical Jin-Wang algorithm, the average SNR of this algorithm is improved by 1.22 dB.

Об авторах

Li Hongyan

College of Information Engineering, Taiyuan University of Technology Taiyuan

Автор, ответственный за переписку.
Email: tylihy@163.com
Китай, Taiyuan, 030024

Cao Meng

College of Information Engineering, Taiyuan University of Technology Taiyuan

Email: tylihy@163.com
Китай, Taiyuan, 030024

Wang Yue

College of Information Engineering, Taiyuan University of Technology Taiyuan

Email: tylihy@163.com
Китай, Taiyuan, 030024

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Allerton Press, Inc., 2018

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).