Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "class imbalance" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
A new hybrid approach for data level balancing classes in classification problems
Nowe hybrydowe podejście równoważenienia liczności klas w problemie klasyfikacji
Autorzy:
Szeszko, P.
Topczewska, M.
Powiązania:
https://bibliotekanauki.pl/articles/404015.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Symulacji Komputerowej
Tematy:
class imbalance
oversampling
classification
niezbalansowanie liczności klas
nadpróbkowanie
klasyfikacja
Opis:
The article concerns the problem of imbalanced data classification. A new algorithm is presented and tested. The HImbA technique is a hybrid method that uses well-known SMOTE algorithm and modified k-nearest neighbours method. 28 datasets have been preprocessed using the HImbA and 10 variants of existing techniques, classified using two algorithms (C4.5 and SMO) and the results have been compared. The new algorithm occurred to give the best results for some datasets.
Praca dotyczy braku zrównoważenia liczności klas w problemie klasyfikacji. Zaprezentowany oraz przetestowany został nowy algorytm. Technika HImbA jest metodą hybrydową, która łączy znany algorytm SMOTE oraz zmodyfikowaną wersję metody k najbliższych sąsiadów. Została ona zastosowana wraz z dziesięcioma wariantami istniejących technik w celu przetwarzania wstępnego 28 zbiorów danych, które zostały następnie poddane klasyfikacji (użyto dwóch algorytmów – C4.5 oraz SMO), a wyniki zostały porównane. Dla wybranych zbiorów przy użyciu nowego algorytmu uzyskano najlepsze rezultaty.
Źródło:
Symulacja w Badaniach i Rozwoju; 2017, 8, 3-4; 145-155
2081-6154
Pojawia się w:
Symulacja w Badaniach i Rozwoju
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data preprocessing in the classification of the imbalanced data
Przetwarzanie wstępne w problemie klasyfikacji danych niezrównoważonych
Autorzy:
Borowska, K.
Topczewska, M.
Powiązania:
https://bibliotekanauki.pl/articles/88428.pdf
Data publikacji:
2014
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
klasy niezrównoważone
klasyfikacja
nowy obiekt
tworzenie
class imbalance
oversampling
classification
Opis:
The article concerns the problem of imbalanced data classification. Two algorithms improving the standard SMOTE method have been created and tested. To measure the distance between objects the Euclidean or the HVDM metric was applied, depending on the number of nominal attributes in a dataset.
Artykuł dotyczy problemu klasyfikacji w przypadku, gdy mamy do czynienia z klasami niezrównoważonymi. W tym celu stworzone zostały dwa algorytmy poprawiające wyniki uzyskiwane za pomocą standardowego algorytmu SMOTE. Do pomiaru odległości między obiektami zastosowano metrykę euklidesową lub metrykę HVDM, w zależności od liczby cech nominalnych w zbiorze.
Źródło:
Advances in Computer Science Research; 2014, 11; 31-46
2300-715X
Pojawia się w:
Advances in Computer Science Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptation of domain-specific transformer models with text oversampling for sentiment analysis of social media posts on Covid-19 vaccine
Autorzy:
Bansal, Anmol
Choudhry, Arjun
Sharma, Anubhav
Susan, Seba
Powiązania:
https://bibliotekanauki.pl/articles/27312860.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
Covid-19
vaccine
transformer
Twitter
BERTweet
CT-BERT
BERT
XLNet
RoBERTa
text oversampling
LMOTE
class imbalance
small sample data set
Opis:
Covid-19 has spread across the world and many different vaccines have been developed to counter its surge. To identify the correct sentiments associated with the vaccines from social media posts, we fine-tune various state-of-the-art pretrained transformer models on tweets associated with Covid-19 vaccines. Specifically, we use the recently introduced state-of-the-art RoBERTa, XLNet, and BERT pre-trained transformer models, and the domain-specific CT-BER and BERTweet transformer models that have been pre-trained on Covid-19 tweets. We further explore the option of text augmentation by oversampling using the language model-based oversampling technique (LMOTE) to improve the accuracies of these models - specifically, for small sample data sets where there is an imbalanced class distribution among the positive, negative and neutral sentiment classes. Our results summarize our findings on the suitability of text oversampling for imbalanced, small-sample data sets that are used to fine-tune state-of-the-art pre-trained transformer models as well as the utility of domain-specific transformer models for the classification task.
Źródło:
Computer Science; 2023, 24 (2); 163--182
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies