Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "clustering of variables" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
On the clustering of correlated random variables
Autorzy:
Gniazdowski, Z.
Kaliszewski, D.
Powiązania:
https://bibliotekanauki.pl/articles/91254.pdf
Data publikacji:
2018
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
similarity of variables
clustering of variables
vertical clustering
Opis:
In this work, the possibility of clustering correlated random variables was examined, both because of their mutual similarity and because of their similarity to the principal components. The k-means algorithm and spectral algorithms were used for clustering. For spectral methods, the similarity matrix was both the matrix of relation established on the level of correlation and the matrix of coefficients of determination. For four different sets of data, different ways of measuring the disimilarity of variables were analyzed, and the impact of the diversity of initial points on the efficiency of the k-means algorithm was analyzed.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2018, 12, 18; 45-114
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
New Interpretation of Principal Components Analysis
Autorzy:
Gniazdowski, Z.
Powiązania:
https://bibliotekanauki.pl/articles/91310.pdf
Data publikacji:
2017
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
determination coefficient
geometric interpretation of PCA
selection of principal components
clustering of variables
tensor data mining
anisotropy of data
współczynnik determinacji
interpretacja geometryczna
PCA
wybór głównych składników
klastrowanie zmiennych
dane tensorowe
anizotropia danych
Opis:
A new look on the principal component analysis has been presented. Firstly,ageometric interpretation of determination coefficient was shown. In turn, the ability to represent the analyzed data and their interdependencies in the form of easy-tounderstand basic geometric structures was shown. As a result of the analysis of these structures it was proposed to enrich the classical PCA. In particular, it was proposed a new criterion for the selection of important principal components and a new algorithm for clustering primary variables by their level of similarity to the principal components. Virtual and real data spaces, as well as tensor operations on data, have also been identified.The anisotropy of the data was identified too.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2017, 11, 16; 43-65
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja spektralna a skale pomiaru zmiennych
Spectral clustering and measurement scales of variables
Autorzy:
Walesiak, Marek
Powiązania:
https://bibliotekanauki.pl/articles/422850.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
klasyfikacja spektralna
miary odległości
skale pomiaru
spectral clustering
distance measures
scales of variables
Opis:
W artykule zaproponowano modyfikację metody klasyfikacji spektralnej (zob. Ng, Jordan, Weiss, 2002) umożliwiającą jej zastosowanie w klasyfikacji danych nominalnych, porządko-wych, przedziałowych oraz ilorazowych. W tym celu w procedurze tej metody przy wyzna-czaniu macierzy podobieństwa (affinity matrix) zastosowano funkcję z miarami odległości właściwymi dla danych mierzonych na różnych skalach pomiaru. Takie podejście umożliwia ponadto pośrednie wzmocnienie skali pomiaru zmiennych dla danych niemetrycznych. Zaproponowana metoda klasyfikacji spektralnej może być z powodzeniem stosowana we wszystkich zagadnieniach klasyfikacyjnych, w tym dotyczących pomiaru, analizy i wizualiza-cji preferencji.
In article the proposal of modification of spectral clustering method for nominal, ordinal, interval and ratio data, based on procedure of Ng, Jordan, Weiss (2002), is presented. In con-struction of affinity matrix we implement function with distance measures appropriate for dif-ferent scales of measurement. This approach gives possibility of conversion nonmetric data (nominal, ordinal) into interval data. The proposed method of spectral clustering can be successfully used in all classification problems, including the measurement, analysis and visualization of preferences.
Źródło:
Przegląd Statystyczny; 2012, 59, 1; 13-31
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Problem of Redundant Variables in Random Forests
Problem zmiennych redundantnych w metodzie lasów losowych
Autorzy:
Kubus, Mariusz
Powiązania:
https://bibliotekanauki.pl/articles/656761.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
lasy losowe
zmienne redundantne
dobór zmiennych
taksonomia cech
random forests
redundant variables
feature selection
clustering of features
Opis:
Lasy losowe są obecnie jedną z najchętniej stosowanych przez praktyków metod klasyfikacji wzorcowej. Na jej popularność wpływ ma możliwość jej stosowania bez czasochłonnego, wstępnego przygotowywania danych do analizy. Las losowy można stosować dla różnego typu zmiennych, niezależnie od ich rozkładów. Metoda ta jest odporna na obserwacje nietypowe oraz ma wbudowany mechanizm doboru zmiennych. Można jednak zauważyć spadek dokładności klasyfikacji w przypadku występowania zmiennych redundantnych. W artykule omawiane są dwa podejścia do problemu zmiennych redundantnych. Rozważane są dwa sposoby przeszukiwania w podejściu polegającym na doborze zmiennych oraz dwa sposoby konstruowania zmiennych syntetycznych w podejściu wykorzystującym grupowanie zmiennych. W eksperymencie generowane są liniowo zależne predyktory i włączane do zbiorów danych rzeczywistych. Metody redukcji wymiarowości zwykle poprawiają dokładność lasów losowych, ale żadna z nich nie wykazuje wyraźnej przewagi.
Random forests are currently one of the most preferable methods of supervised learning among practitioners. Their popularity is influenced by the possibility of applying this method without a time consuming pre‑processing step. Random forests can be used for mixed types of features, irrespectively of their distributions. The method is robust to outliers, and feature selection is built into the learning algorithm. However, a decrease of classification accuracy can be observed in the presence of redundant variables. In this paper, we discuss two approaches to the problem of redundant variables. We consider two strategies of searching for best feature subset as well as two formulas of aggregating the features in the clusters. In the empirical experiment, we generate collinear predictors and include them in the real datasets. Dimensionality reduction methods usually improve the accuracy of random forests, but none of them clearly outperforms the others.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2018, 6, 339; 7-16
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies