Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "emotion recognition" wg kryterium: Temat


Tytuł:
Когнитивно-культурные, индивидуально-психологические и возрастные особенности способности к распознаванию эмоций
Kulturoznawcze, indywidualne psychologiczne i związane z wiekiem cechy zdolności rozpoznawania emocji
Cognitive-cultural, individual-psychological and age particularities of the ability to recognize emotions
Autorzy:
Hvorova, Ekaterina
Powiązania:
https://bibliotekanauki.pl/articles/1388051.pdf
Data publikacji:
2016-03-31
Wydawca:
Uniwersytet Gdański. Wydawnictwo Uniwersytetu Gdańskiego
Tematy:
emotion recognition
development of emotional intelligence components
age particularities of the ability to recognize emotions
cognitive and cultural particularities of the ability to recognize emotions
Opis:
This article describes the features of the development of the emotional sphere. It emphasizes the importance of the primary school age in the development of certain components of emotional intelligence, one of which is the ability to recognize emotions. In the early school years, children are able to understand emotions, but mostly with the help of their own emotional experience and/ or according to the situations they are used to experiencing, they mostly rely on the context of the situation, and, as we know, it does not always work correctly: different people in the same situations may experience completely different emotions. Few children are able to establish the reasons that caused other people emotions. Besides, one of the components of emotional intelligence is the ability to control one’s own emotions. Emotion regulation becomes available for children after the socialization associated with the first years at school. Child development is partly determined by the process of socialization, which determines specific cognitive representations of emotions, so called emotional prototypes. Also the culture in which the child grows up has effects on the process of emotion recognition and expression, so, for example, in the individualistic culture emotional expression and recognition is encouraged, and in collectivist cultures, there are certain rules of emotional expression fixing in which situations and to what extent the expression of emotions is permissible.
Źródło:
Problemy Wczesnej Edukacji; 2016, 32, 1; 126-129
1734-1582
2451-2230
Pojawia się w:
Problemy Wczesnej Edukacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie multimodalnej klasyfikacji w rozpoznawaniu stanów emocjonalnych na podstawie mowy spontanicznej
Spontaneus emotion redognition from speech signal using multimodal classification
Autorzy:
Kamińska, D.
Pelikant, A.
Powiązania:
https://bibliotekanauki.pl/articles/408014.pdf
Data publikacji:
2012
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
sygnał mowy
algorytm kNN
emotion recognition
speech signal
k-NN algorithm
Opis:
Artykuł prezentuje zagadnienie związane z rozpoznawaniem stanów emocjonalnych na podstawie analizy sygnału mowy. Na potrzeby badań stworzona została polska baza mowy spontanicznej, zawierająca wypowiedzi kilkudziesięciu osób, w różnym wieku i różnej płci. Na podstawie analizy sygnału mowy stworzono przestrzeń cech. Klasyfikację stanowi multimodalny mechanizm rozpoznawania, oparty na algorytmie kNN. Średnia poprawność: rozpoznawania wynosi 83%.
The article presents the issue of emotion recognition from a speech signal. For this study, a Polish spontaneous database, containing speech from people of different age and gender, was created. Features were determined from the speech signal. The process of recognition was based on multimodal classification, related to kNN algorithm. The average of accuracy performance was up to 83%.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2012, 3; 36-39
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using BCI and EEG to process and analyze driver’s brain activity signals during VR simulation
Autorzy:
Nader, Mirosław
Jacyna-Gołda, Ilona
Nader, Stanisław
Nehring, Karol
Powiązania:
https://bibliotekanauki.pl/articles/2067410.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
signal processing
EEG
BCI
emotion recognition
driver
virtual reality
przetwarzanie sygnałów
rozpoznawanie emocji
kierowca
symulacja wirtualna
Opis:
The use of popular brain–computer interfaces (BCI) to analyze signals and the behavior of brain activity is a very current problem that is often undertaken in various aspects by many researchers. This comparison turns out to be particularly useful when studying the flows of information and signals in the human-machine-environment system, especially in the field of transportation sciences. This article presents the results of a pilot study of driver behavior with the use of a pro-prietary simulator based on Virtual Reality technology. The study uses the technology of studying signals emitted by the human mind and its specific zones in response to given environmental factors. A solution based on virtual reality with the limitation of external stimuli emitted by the real world was proposed, and computational analysis of the obtained data was performed. The research focused on traffic situations and how they affect the subject. The test was attended by representatives of various age groups, both with and without a driving license. This study presents an original functional model of a research stand in VR technology that we designed and built. Testing in VR conditions allows to limit the influence of undesirable external stimuli that may distort the results of readings. At the same time, it increases the range of road events that can be simulated without generating any risk for the participant. In the presented studies, the BCI was used to assess the driver's behavior, which allows for the activity of selected brain waves of the examined person to be registered. Electro-encephalogram (EEG) was used to study the activity of brain and its response to stimuli coming from the Virtual Reality created environment. Electrical activity detection is possible thanks to the use of electrodes placed on the skin in selected areas of the skull. The structure of the proprietary test-stand for signal and information flow simulation tests, which allows for the selection of measured signals and the method of parameter recording, is presented. An important part of this study is the presentation of the results of pilot studies obtained in the course of real research on the behavior of a car driver.
Źródło:
Archives of Transport; 2021, 60, 4; 137--153
0866-9546
2300-8830
Pojawia się w:
Archives of Transport
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The relationship between Trait Emotional Intelligence and emotion recognition in the context of COVID-19 pandemic
Autorzy:
Cannavò, Marco
Barberis, Nadia
Larcan, Rosalba
Cuzzocrea, Francesca
Powiązania:
https://bibliotekanauki.pl/articles/2121465.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
COVID-19
Trait EI
emotion recognition
Opis:
Covid-19 pandemic is severely impacting worldwide. A line of research warned that facial occlusion may impair facial emotion recognition, whilst prior research highlighted the role of Trait Emotional Intelligence in the recognition of non-verbal social stimuli. The sample consisted of 102 emerging adults, aged 18-24 (M = 20.76; SD = 2.10; 84% females, 16% males) and were asked to recognize four different emotions (happiness, fear, anger, and sadness) in fully visible faces and in faces wearing a mask and to complete a questionnaire assessing Trait Emotional Intelligence. Results highlighted that individuals displayed lower accuracy in detecting happiness and fear in covered faces, while also being more inaccurate in reporting correct answers. The results show that subjects provide more correct answers when the photos show people without a mask than when they are wearing it. In addition, participants give more wrong answers when there are subjects wearing masks in the photos than when they are not wearing it. In addition, participants provide more correct answers regarding happiness and sadness when in the photos the subjects are not wearing the mask, compared to when they are wearing it. Implications are discussed.
Źródło:
Polish Psychological Bulletin; 2022, 53, 1; 15-22
0079-2993
Pojawia się w:
Polish Psychological Bulletin
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Acoustic Cues of Fear : Investigation of Acoustic Parameters of Speech Containing Fear
Autorzy:
Özseven, T.
Powiązania:
https://bibliotekanauki.pl/articles/178133.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
emotion recognition
acoustic analysis
fear
speech processing
Opis:
Speech emotion recognition is an important part of human-machine interaction studies. The acoustic analysis method is used for emotion recognition through speech. An emotion does not cause changes on all acoustic parameters. Rather, the acoustic parameters affected by emotion vary depending on the emotion type. In this context, the emotion-based variability of acoustic parameters is still a current field of study. The purpose of this study is to investigate the acoustic parameters that fear affects and the extent of their influence. For this purpose, various acoustic parameters were obtained from speech records containing fear and neutral emotions. The change according to the emotional states of these parameters was analyzed using statistical methods, and the parameters and the degree of influence that the fear emotion affected were determined. According to the results obtained, the majority of acoustic parameters that fear affects vary according to the used data. However, it has been demonstrated that formant frequencies, mel-frequency cepstral coefficients, and jitter parameters can define the fear emotion independent of the data used.
Źródło:
Archives of Acoustics; 2018, 43, 2; 245-251
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech emotion recognition using wavelet packet reconstruction with attention-based deep recurrent neutral networks
Autorzy:
Meng, Hao
Yan, Tianhao
Wei, Hongwei
Ji, Xun
Powiązania:
https://bibliotekanauki.pl/articles/2173587.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
speech emotion recognition
voice activity detection
wavelet packet reconstruction
feature extraction
LSTM networks
attention mechanism
rozpoznawanie emocji mowy
wykrywanie aktywności głosowej
rekonstrukcja pakietu falkowego
wyodrębnianie cech
mechanizm uwagi
sieć LSTM
Opis:
Speech emotion recognition (SER) is a complicated and challenging task in the human-computer interaction because it is difficult to find the best feature set to discriminate the emotional state entirely. We always used the FFT to handle the raw signal in the process of extracting the low-level description features, such as short-time energy, fundamental frequency, formant, MFCC (mel frequency cepstral coefficient) and so on. However, these features are built on the domain of frequency and ignore the information from temporal domain. In this paper, we propose a novel framework that utilizes multi-layers wavelet sequence set from wavelet packet reconstruction (WPR) and conventional feature set to constitute mixed feature set for achieving the emotional recognition with recurrent neural networks (RNN) based on the attention mechanism. In addition, the silent frames have a disadvantageous effect on SER, so we adopt voice activity detection of autocorrelation function to eliminate the emotional irrelevant frames. We show that the application of proposed algorithm significantly outperforms traditional features set in the prediction of spontaneous emotional states on the IEMOCAP corpus and EMODB database respectively, and we achieve better classification for both speaker-independent and speaker-dependent experiment. It is noteworthy that we acquire 62.52% and 77.57% accuracy results with speaker-independent (SI) performance, 66.90% and 82.26% accuracy results with speaker-dependent (SD) experiment in final.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 1; art. no. e136300
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech emotion recognition using wavelet packet reconstruction with attention-based deep recurrent neutral networks
Autorzy:
Meng, Hao
Yan, Tianhao
Wei, Hongwei
Ji, Xun
Powiązania:
https://bibliotekanauki.pl/articles/2090711.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
speech emotion recognition
voice activity detection
wavelet packet reconstruction
feature extraction
LSTM networks
attention mechanism
rozpoznawanie emocji mowy
wykrywanie aktywności głosowej
rekonstrukcja pakietu falkowego
wyodrębnianie cech
mechanizm uwagi
sieć LSTM
Opis:
Speech emotion recognition (SER) is a complicated and challenging task in the human-computer interaction because it is difficult to find the best feature set to discriminate the emotional state entirely. We always used the FFT to handle the raw signal in the process of extracting the low-level description features, such as short-time energy, fundamental frequency, formant, MFCC (mel frequency cepstral coefficient) and so on. However, these features are built on the domain of frequency and ignore the information from temporal domain. In this paper, we propose a novel framework that utilizes multi-layers wavelet sequence set from wavelet packet reconstruction (WPR) and conventional feature set to constitute mixed feature set for achieving the emotional recognition with recurrent neural networks (RNN) based on the attention mechanism. In addition, the silent frames have a disadvantageous effect on SER, so we adopt voice activity detection of autocorrelation function to eliminate the emotional irrelevant frames. We show that the application of proposed algorithm significantly outperforms traditional features set in the prediction of spontaneous emotional states on the IEMOCAP corpus and EMODB database respectively, and we achieve better classification for both speaker-independent and speaker-dependent experiment. It is noteworthy that we acquire 62.52% and 77.57% accuracy results with speaker-independent (SI) performance, 66.90% and 82.26% accuracy results with speaker-dependent (SD) experiment in final.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 1; e136300, 1--12
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech emotion recognition under white noise
Autorzy:
Huang, C.
Chen, G.
Yu, H.
Bao, Y.
Zhao, L.
Powiązania:
https://bibliotekanauki.pl/articles/177301.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
speech emotion recognition
speech enhancement
emotion model
Gaussian mixture model
Opis:
Speaker‘s emotional states are recognized from speech signal with Additive white Gaussian noise (AWGN). The influence of white noise on a typical emotion recogniztion system is studied. The emotion classifier is implemented with Gaussian mixture model (GMM). A Chinese speech emotion database is used for training and testing, which includes nine emotion classes (e.g. happiness, sadness, anger, surprise, fear, anxiety, hesitation, confidence and neutral state). Two speech enhancement algorithms are introduced for improved emotion classification. In the experiments, the Gaussian mixture model is trained on the clean speech data, while tested under AWGN with various signal to noise ratios (SNRs). The emotion class model and the dimension space model are both adopted for the evaluation of the emotion recognition system. Regarding the emotion class model, the nine emotion classes are classified. Considering the dimension space model, the arousal dimension and the valence dimension are classified into positive regions or negative regions. The experimental results show that the speech enhancement algorithms constantly improve the performance of our emotion recognition system under various SNRs, and the positive emotions are more likely to be miss-classified as negative emotions under white noise environment.
Źródło:
Archives of Acoustics; 2013, 38, 4; 457-463
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech emotion recognition system for social robots
Autorzy:
Juszkiewicz, Ł.
Powiązania:
https://bibliotekanauki.pl/articles/384511.pdf
Data publikacji:
2013
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
speech emotion recognition
prosody
machine learning
Emo-DB
intonation
social robot
Opis:
The paper presents a speech emotion recognition system for social robots. Emotions are recognised using global acoustic features of the speech. The system implements the speech parameters calculation, features extraction, features selection and classification. All these phases are described. The system was verified using the two emotional speech databases: Polish and German. Perspectives for using such system in the social robots are presented.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2013, 7, 4; 59-65
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech Emotion Recognition Based on Voice Fundamental Frequency
Autorzy:
Dimitrova-Grekow, Teodora
Klis, Aneta
Igras-Cybulska, Magdalena
Powiązania:
https://bibliotekanauki.pl/articles/177227.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
emotion recognition
speech signal analysis
voice analysis
fundamental frequency
speech corpora
Opis:
The human voice is one of the basic means of communication, thanks to which one also can easily convey the emotional state. This paper presents experiments on emotion recognition in human speech based on the fundamental frequency. AGH Emotional Speech Corpus was used. This database consists of audio samples of seven emotions acted by 12 different speakers (6 female and 6 male). We explored phrases of all the emotions – all together and in various combinations. Fast Fourier Transformation and magnitude spectrum analysis were applied to extract the fundamental tone out of the speech audio samples. After extraction of several statistical features of the fundamental frequency, we studied if they carry information on the emotional state of the speaker applying different AI methods. Analysis of the outcome data was conducted with classifiers: K-Nearest Neighbours with local induction, Random Forest, Bagging, JRip, and Random Subspace Method from algorithms collection for data mining WEKA. The results prove that the fundamental frequency is a prospective choice for further experiments.
Źródło:
Archives of Acoustics; 2019, 44, 2; 277-286
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Speech emotion recognition based on sparse representation
Autorzy:
Yan, J.
Wang, X.
Gu, W.
Ma, L.
Powiązania:
https://bibliotekanauki.pl/articles/177778.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
speech emotion recognition
sparse partial least squares regression SPLSR
SPLSR
feature selection and dimensionality reduction
Opis:
Speech emotion recognition is deemed to be a meaningful and intractable issue among a number of do- mains comprising sentiment analysis, computer science, pedagogy, and so on. In this study, we investigate speech emotion recognition based on sparse partial least squares regression (SPLSR) approach in depth. We make use of the sparse partial least squares regression method to implement the feature selection and dimensionality reduction on the whole acquired speech emotion features. By the means of exploiting the SPLSR method, the component parts of those redundant and meaningless speech emotion features are lessened to zero while those serviceable and informative speech emotion features are maintained and selected to the following classification step. A number of tests on Berlin database reveal that the recogni- tion rate of the SPLSR method can reach up to 79.23% and is superior to other compared dimensionality reduction methods.
Źródło:
Archives of Acoustics; 2013, 38, 4; 465-470
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozumienie mowy jako moderator związku rozpoznawania emocji z nasileniem symptomów zaburzeń ze spektrum autyzmu (ASD)
Autorzy:
Krzysztofik, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/2054372.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
autism spectrum disorder
ASD
emotion recognition
speech comprehension
zaburzenia ze spektrum autyzmu
rozpoznawanie emocji
rozumienie mowy
Opis:
Współcześni badacze podkreślają konsekwencje trudności osób z zaburzeniami ze spektrum autyzmu (Autism Spectrum Disorder, ASD) w rozpoznawaniu emocji dla nasilenia symptomów tego zaburzenia. Jednocześnie wiele z osób z ASD potrafi rozpoznawać emocje innych osób dzięki strategiom kompensacyjnym opartym na relatywnie dobrze rozwiniętych kompetencjach poznawczych i językowych. Wydaje się zatem, że umiejętności językowe osób z ASD mogą moderować związek rozpoznawania emocji z nasileniem symptomów ASD. Celem prezentowanych badań było ustalenie, czy poziom rozumienia mowy osób z ASD moderuje związek rozpoznawania emocji z nasileniem symptomów ASD. Przebadano grupę 63 dzieci z ASD w wieku od 3 lat i 7 miesięcy do 9 lat i 3 miesiący, wykorzystując następujące narzędzia: Skalę Nasilenia Symptomów ASD, podskalę Rozpoznawanie Emocji ze Skali Mechanizmu Teorii Umysłu oraz podskalę Rozumienie Mowy ze skali Iloraz Inteligencji i Rozwoju dla Dzieci w Wieku Przedszkolnym (IDS-P). Uzyskane wyniki wskazują, że poziom rozumienia mowy moderuje związek poziomu rozwoju rozpoznawania emocji z nasileniem symptomów ASD w zakresie deficytów w komunikowaniu i interakcjach. Wyniki te znajdują swoje implikacje dla włączenia terapii rozumienia mowy w proces rehabilitacji osób z ASD, a także dla teoretycznej refleksji nad uwarunkowaniami nasilenia symptomów ASD.
Contemporary researchers underline consequences of difficulties in emotion recognition experienced by persons with autism spectrum disorder (ASD) for severity of symptoms of this disorder. Individuals with ASD, when trying to recognize the emotional states of others, often use compensatory strategies based on relatively well-developed cognitive and linguistic competences. Thus, the relationship between the recognition of emotions and the severity of ASD symptoms may be moderated by linguistic competencies. Own research was aimed at determining if the level of speech comprehension moderates the relationship between emotion recognition and ASD symptom severity. Participants were 63 children with ASD aged from 3 years and 7 months to 9 years and 3 months. The following tools were used: ASD Symptom Severity Scale, the Emotion Recognition subscale of the Theory of Mind Scale and the Speech Comprehension subscale from the Intelligence and Development Scales – Preschool (IDS-P). The results indicate that the level of speech comprehension moderates the relationship between the level of emotion recognition and ASD symptom severity in the range of deficits in communication and interaction. These results have implications for integrating speech comprehension therapy into the process of the rehabilitation of individuals with ASD, as well as for theoretical reflection concerning the determinants of ASD symptom severity.
Źródło:
Annales Universitatis Mariae Curie-Skłodowska, sectio J – Paedagogia-Psychologia; 2021, 34, 3; 199-219
0867-2040
Pojawia się w:
Annales Universitatis Mariae Curie-Skłodowska, sectio J – Paedagogia-Psychologia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie i pomiar emocji w badaniach doświadczeń klienta
Recognition and Measurement of Emotions in Customer Experience Research
Autorzy:
Budzanowska-Drzewiecka, Małgorzata
Lubowiecki-Vikuk, Adrian
Powiązania:
https://bibliotekanauki.pl/articles/27839578.pdf
Data publikacji:
2023
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
doświadczenie klienta
rozpoznawanie emocji
automatyczna analiza ekspresji twarzy
FaceReader
pomiar emocji
customer experience
emotion recognition
automatic facial expression analysis
measuring emotions
Opis:
Badanie doświadczeń klienta wymaga rozwijania metodyki ich pomiaru pozwalającej na uwzględnienie ich złożoności. Jedną z ważnych składowych doświadczeń są emocje, których rozpoznawanie i pomiar stanowi wciąż wyzwanie dla badaczy. Celem artykułu jest dyskusja na temat metod i technik wykorzystywanych do rozpoznawania i pomiaru emocji w badaniach doświadczeń klienta. Szczególną uwagę poświęcono wykorzystaniu technik wywodzących się z neuronauki konsumenckiej, w tym dylematom związanym z sięganiem po automatyczną analizę ekspresji mimicznej. Studia literaturowe pozwoliły na dyskusję dotyczącą korzyści i ograniczeń stosowania automatycznej analizy ekspresji mimicznej w pomiarze doświadczeń klientów. Mimo ograniczeń, mogą one być traktowane jako atrakcyjne uzupełnienie metod i technik pozwalających na uchwycenie emocjonalnych komponentów doświadczenia klienta na różnych etapach (przed zakupem, w jego czasie i po nim).
The study of customer experience requires the development of methodologies which measure such experience and account for its complexity. One important component of customer experience is emotion, the recognition and measurement of which is still a challenge for researchers. The purpose of this article is to discuss methods and techniques used to recognise and measure emotions in customer experience research. Particular attention is paid to the use of techniques derived from consumer neuroscience, including the dilemmas associated with reaching for automatic analysis of facial expressions. The literature review is indicative of the ongoing discussion on the benefits and limitations of using the automatic analysis of facial expressions technique in measuring customer experience. Despite its limitations, such a technique can be an attractive complement to methods and techniques used to capture the emotional components of customer experience at different stages (before, during, and after purchase).
Źródło:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu; 2023, 67, 5; 67-77
1899-3192
Pojawia się w:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie emocji w tekstach polskojęzycznych z wykorzystaniem metody słów kluczowych
Emotion recognition in polish texts based on keywords detection method
Autorzy:
Nowaczyk, A.
Jackowska-Strumiłło, L.
Powiązania:
https://bibliotekanauki.pl/articles/408760.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
interakcja człowiek-komputer
przetwarzanie języka naturalnego
przetwarzanie tekstów
emotion recognition
human-computer interaction
natural language processing
text processing
Opis:
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 2; 102-105
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pomiary parametrów akustycznych mowy emocjonalnej - krok ku modelowaniu wokalnej ekspresji emocji
Measurements of emotional speech acoustic parameters - a step towards vocal emotion expression modelling
Autorzy:
Igras, M.
Wszołek, W.
Powiązania:
https://bibliotekanauki.pl/articles/154905.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
rozpoznawanie emocji
wokalne korelaty emocji
przetwarzanie sygnału mowy
emotion recognition
vocal correlates of emotions
Opis:
Niniejsza praca podejmuje próbę pomiaru cech sygnału mowy skorelownych z jego zawartością emocjonalną (na przykładzie emocji podstawowych). Zaprezentowano korpus mowy zaprojektowany tak, by umożliwić różnicową analizę niezależną od mówcy i treści oraz przeprowadzono testy mające na celu ocenę jego przydatności do automatyzacji wykrywania emocji w mowie. Zaproponowano robocze profile wokalne emocji. Artykuł prezentuje również propozycje aplikacji medycznych opartych na pomiarach emocji w głosie.
The paper presents an approach to creating new measures of emotional content of speech signals. The results of this project constitute the basis or further research in this field. For analysis of differences of the basic emotional states independently of a speaker and semantic content, a corpus of acted emotional speech was designed and recorded. The alternative methods for emotional speech signal acquisition are presented and discussed (Section 2). Preliminary tests were performed to evaluate the corpus applicability to automatic emotion recognition. On the stage of recording labeling, human perceptual tests were applied (using recordings with and without semantic content). The results are presented in the form of the confusion table (Tabs. 1 and 2). The further signal processing: parametrisation and feature extraction techniques (Section 3) allowed extracting a set of features characteristic for each emotion, and led to developing preliminary vocal emotion profiles (sets of acoustic features characteristic for each of basic emotions) - an example is presented in Tab. 3. Using selected feature vectors, the methods for automatic classification (k nearest neighbours and self organizing neural network) were tested. Section 4 contains the conclusions: analysis of variables associated with vocal expression of emotions and challenges in further development. The paper also discusses use of the results of this kind of research for medical applications (Section 5).
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 4, 4; 335-338
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies