PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Czasopismo
2015 | nr 4, CD 3 | 9702--9711
Tytuł artykułu

Test wydajności współczynników percepcyjnych w kontekście rozpoznawania emocji

Warianty tytułu
Perceptual Features Efficiency for Automatic Identification of Emotional States
Języki publikacji
PL
Abstrakty
W artykule przedstawiono wyniki doświadczeń rozpoznawania emocji na podstawie sygnału mowy z wykorzystaniem współczynników percepcyjnych. Badania rozpoczęła analiza współczynników MFCC, następnie pulę tę poszerzono o współczynniki, takie jak BFCC, HFCC, PLP, RPLP oraz RASTA PLP, szeroko stosowane w badaniach nad rozpoznawaniem mowy, natomiast pomijane w rozpoznawaniu emocji. Analizę przeprowadzono dla dwóch różnych korpusów: bazy mowy spontanicznej i odegranej. Przy użyciu klasyfikatora k-NN, wybrano grupę współczynników najlepiej reprezentujących stany emocjonalne. (abstrakt oryginalny)
EN
The following paper presents parameterization of emotional speech using perceptual coefficients as well as a comparison of Mel Frequency Cepstral Coefficients (MFCC), Bark Frequency Cepstral Coefficients (BFCC), Perceptual Linear Prediction Coefficients (PLP) and Revised Perceptual Linear Prediction Coefficients (RPLP). Analysis was performed on two different Polish databases: acted out and spontaneous speech corpora. Emotion classification was performed using k-NN algorithm(original abstract)
Czasopismo
Rocznik
Numer
Strony
9702--9711
Opis fizyczny
Twórcy
  • Politechnika Łódzka
  • Politechnika Łódzka
Bibliografia
  • [1] Kamińska D. , Pelikant A.: Recognition of Human Emotion from a Speech Signal Based on Plutchik's Model, " International Journal of Electronics and Telecommunications", 58(2)/2012, s.165-171.
  • [2] Kaliouby R., Robinson P.: Mind Reading Machines Automated Inference of Cognitive Mental States from Video, IEEE International Conference on Systems, Man and Cybernetics, 2004, s. 682-688.
  • [3] Silva P.R., Madurapperuma A.P., Marasinghe A., Osano M.: A multi-agent based interactive system towards childs emotion performances quantified through affective body gestures, International Conference on Pattern Recognition, 2006, s. 1236-1239.
  • [4] Garay N., Cearreta I., López J.M., Fajardo I.: Assistive Technology and Affective Mediation, "An Interdisciplinary Journal on Humans in ICT Environments", 2(1)/ 2006 s. 55-83.
  • [5] Plutchik R.: Emotion A Psychoevolutionary Synthesis, New York Harper and Row, 1980.
  • [6] Kaminska D., Sapiński T., Niewiadomy D., Pelikant A.: Porównanie wydajnosci współczynników perceptualnych na potrzeby automatycznego rozpoznawania emocji w sygnale mowy, "Studia Informatica", 34/2013, s.59-66.
  • [7] Zielinski T.: Cyfrowe przetwarzanie sygnałów, Wydawnictwa Komunikacji i Łączności WKŁ, 2013.
  • [8] Skowronski M., Harris J.: Increased MFCC filter bandwidth for noise robust phoneme recognition, IEEE International Conference on Acoustics, Speech, and Signal Processing, 2002, s. 801-804.
  • [9] Niewiadomy D.: Detekcja izolowanych słów w nagraniach dla potrzeb wdrożenia mechanizmu automatycznych wyzwalaczy audio w systemach baz danych, Politechnika Łódzka, 2012.
  • [10] Hermansky H. Perceptual Linear Predictive (PLP) Analysis of Speech Journal Acoustical Society of America, 87(4):1738-1752, 1989.
  • [11] Schroeder M.R.: Recognition of Complex Acoustic Signals, "Life Sciences Research Report", 5/1977.
  • [12] Hermansky H., Morgan N.: RASTA processing of speech, "IEEE Transactions on Speech and Audio Processing", 2(4)/ 1990, s.578-589.
  • [13] Kumar P., Biswas A., Mishra A .N., Chandra M.: Spoken Language Identification Using Hybrid Feature Extraction Methods, "Journal of Telecommunications", 1(2)/2010, s. 11-15.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171564397

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.