Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "mel-frequency cepstral coefficient" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
Automatic Genre Classification Using Fractional Fourier Transform Based Mel Frequency Cepstral Coefficient and Timbral Features
Autorzy:
Bhalke, D. G.
Rajesh, B.
Bormane, D. S.
Powiązania:
https://bibliotekanauki.pl/articles/177599.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
feature extraction
Timbral features
MFCC
Mel Frequency Cepstral Coefficient
FrFT
fractional Fourier transform
Fractional MFCC
Tamil Carnatic music
Opis:
This paper presents the Automatic Genre Classification of Indian Tamil Music and Western Music using Timbral and Fractional Fourier Transform (FrFT) based Mel Frequency Cepstral Coefficient (MFCC) features. The classifier model for the proposed system has been built using K-NN (K-Nearest Neighbours) and Support Vector Machine (SVM). In this work, the performance of various features extracted from music excerpts has been analysed, to identify the appropriate feature descriptors for the two major genres of Indian Tamil music, namely Classical music (Carnatic based devotional hymn compositions) & Folk music and for western genres of Rock and Classical music from the GTZAN dataset. The results for Tamil music have shown that the feature combination of Spectral Roll off, Spectral Flux, Spectral Skewness and Spectral Kurtosis, combined with Fractional MFCC features, outperforms all other feature combinations, to yield a higher classification accuracy of 96.05%, as compared to the accuracy of 84.21% with conventional MFCC. It has also been observed that the FrFT based MFCC effieciently classifies the two western genres of Rock and Classical music from the GTZAN dataset with a higher classification accuracy of 96.25% as compared to the classification accuracy of 80% with MFCC.
Źródło:
Archives of Acoustics; 2017, 42, 2; 213-222
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A novel feature biometric fusion approach for iris, speech and signature
Nowatorskie połączenie cech biometrycznych dla tęczówki, mowy i podpisu
Autorzy:
Garg, Mamta
Arora, Ajat Shatru
Gupta, Savita
Powiązania:
https://bibliotekanauki.pl/articles/29520274.pdf
Data publikacji:
2020
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
biometric fusion
scale invariant feature transform
2-dimensional principle component analysis
mel-frequency cepstral coefficient
genetic algorithms
artificial neural networks
Opis:
With an ever-increasing emphasis on security and the new dimensions in security challenges facing the world today, the need for automated personal identification/verification system based on multimodal biometrics has increased. This paper addresses the issue of multiple biometric fusion to enhance the security of recognition. The paper utilizes iris, speech,and signature for the novel fusion. A segregated classification mechanism for each biometric is also presented. The fusion is done on the base of features extracted at the time of individual classification of biometrics. Different feature extraction algorithms are applied for different biometrics. The paper has utilized 2-Dimensional Principle Component Analysis (2DPCA) for Iris, Scale Invariant Feature Transform (SIFT) for signature and Mel-frequency cepstral coefficients for speech biometric. This paper utilizes Genetic Algorithm for the optimization of the evaluated features. The classification is done using Artificial Neural Network (ANN).
W związku z ciągłym wzrostem wymagań dotyczących bezpieczeństwa i nowymi wyzwaniami stojącymi dzisiaj w tym zakresie przed światem istnieje potrzeba tworzenia ststremów wykorzystujących biometrię multimodalną do automatycznej identyfikacji/weryfikacji osób. Artykuł opisuje problem zastosowania multimodalnej fuzji biometrycznej do poprawy bezpieczeństwa rozpoznawania osób. Do nowej fuzji wykorzystano tęczówkę, mowę i podpis. Zaprezentowano oddzielny mechanism dla każdego czynnika biometrycznego. Fuzję przeprowadzono wykorzystując cechy wybrane w danej chwili czasu indywidualnie dla każdego czynnika. Dla różnych czynników zastosowano różny algorytm wyboru cech biometrycznych. Zastosowano 2- wymiarową analizę podstawowych składników (ang. 2-Dimensional Principle Component Analysis - 2DPCA) dla tęczówki, skaloniezmiennicze przekształcenie cech (ang. Scale Invariant Feature Transform - SIFT) dla podpisu oraz parametry melcepstralne (ang. Mel-Frequency Cepstral Coefficients) dla mowy. W artykule wykorzystano metodę Algorytmów Genetycznych do optymalizacji oceny poszczególnych cech. Klasyfikację przeprowadzono wykorzystując sztuczne sieci neuronowe.
Źródło:
Computer Methods in Materials Science; 2020, 20, 2; 63-71
2720-4081
2720-3948
Pojawia się w:
Computer Methods in Materials Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza parametrów sygnału mowy w kontekście ich przydatności w automatycznej ocenie jakości ekspresji śpiewu
Analysis of the speech signal parameters in the context of their suitability in the automatic quality of singing expression assessment
Autorzy:
Zaporowski, Szymon
Kostek, Bożena
Powiązania:
https://bibliotekanauki.pl/articles/267012.pdf
Data publikacji:
2019
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
niskopoziomowe deskryptory sygnału
analiza śpiewu
ekstrakcja parametrów
śpiew
emocje
Mel Frequency Cepstral Coefficient
Low-Level MPEG 7 Audio Descriptor
singing analysis
feature selection
Opis:
Praca dotyczy podejścia do parametryzacji w przypadku klasyfikacji emocji w śpiewie oraz porównania z klasyfikacją emocji w mowie. Do tego celu wykorzystano bazę mowy i śpiewu nacechowanego emocjonalnie RAVDESS (Ryerson Audio-Visual Database of Emotional Speech and Song), zawierającą nagrania profesjonalnych aktorów prezentujących sześć różnych emocji. Następnie obliczono współczynniki mel-cepstralne (MFCC) oraz wybrane deskryptory niskopoziomowe MPEG 7. W celu selekcji cech, posiadających najlepsze wyniki rankingowe, wykorzystano las drzew. Następnie dokonano klasyfikacji emocji z za pomocą maszyny wektorów nośnych (SVM, Support Vector Machine). Stwierdzono, że parametryzacja skuteczna dla mowy nie jest skuteczna dla śpiewu. Wyznaczono podstawowe parametry, które zgodnie z otrzymanymi wynikami pozwalają na znaczną redukcję wymiarowości wektorów cech, jednocześnie podnosząc skuteczność klasyfikacji.
This paper concerns the approach to parameterization for the classification of emotions in singing and comparison with the classification of emotions in speech. For this purpose, the RAVDESS database containing emotional speech and song was used. This database contains recordings of professional actors presenting six different emotions. Next, Mel Frequency Cepstral Coefficients and selected Low-Level MPEG 7 descriptors were calculated. Using the algorithm of Feature Selection based on a Forest of Trees, coefficients, and descriptors with the best ranking results were determined. Then, the emotions were classified using the Support Vector Machine. The classification was repeated several times, and the results were averaged. It was found that descriptors used for emotion detection in speech are not as useful for singing. Basic parameters for singing were determined which, according to the obtained results, allow for a significant reduction in the dimensionality of feature vectors while increasing the classification efficiency of emotion detection.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2019, 68; 61-64
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies