Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "repróbkowanie" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
Nieklasyczne procedury testowań wielokrotnych
Non-Classical Multiple Testing Procedures
Autorzy:
Denkowska, Sabina
Powiązania:
https://bibliotekanauki.pl/articles/422773.pdf
Data publikacji:
2013
Wydawca:
Główny Urząd Statystyczny
Tematy:
testowanie wielokrotne
FWER
FDR
repróbkowanie
MTP
multiple testing
resampling
Opis:
Zakres zastosowań klasycznych procedur testowań wielokrotnych jest ograniczony z powodu założeń modelowych, a w wielu sytuacjach badawczych rozwiązań klasycznych po prostu brak. Kontrolę efektu testowania wielokrotnego umożliwiają wówczas nieklasyczne procedury testowań wielokrotnych. Proste obliczeniowo, o szerokim zakresie zastosowań, brzegowe procedury testowań wielokrotnych nie uwzględniają jednak łącznego rozkładu statystyk testowych, przez co są bardziej konserwatywne od procedur łącznych. Zakres zastosowań procedur łącznych Westfalla i Younga (1993) jest natomiast ograniczony ze względu na wymóg obrotowości podzbioru. Ciekawą alternatywę stanowią dedykowane badaniom genetycznym procedury łączne, zaproponowane przez Dudoit oraz van der Laana (2008). Szeroki zakres zastosowań, możliwość wyboru miary błędu I rodzaju oraz powszechnie dostępne, oprogramowanie (procedura MTP jest zaimplementowana w pakiecie multtest w R), to ich istotne zalety. Niestety, badania nad procedurą MTP przeprowadzone przez Werfta i Bennera (2009) pokazały problemy z kontrolą miary FDR w przypadku bardzo dużej liczby testowanych hipotez i małej liczebności prób. Z kolei zaprezentowany w artykule eksperyment symulacyjny pokazał, że procedura MTP nie zapewnia również kontroli FWER na z góry zadanym poziomie.
The range of applications of classical multiple testing procedures is limited due to model assumptions, and in many cases classic solutions are non-existent. In such situations non-classical multiple testing procedures allow to control the effect of multiple testing. Although they are popular for computational simplicity and a wide range of applications, marginal multiple testing procedures do not take into account joint distribution of test statistics, which make them more conservative than joint multiple testing procedures. The range of applications of joint procedures introduced by Westfall and Young (1993) is limited due to the subset pivotality requirement. Thus, joint multiple testing procedures suggested by Dudoit and van der Laan (2008) seem very promising. A wide range of applications, the possibility of choosing the Type I error rate and easily accessible software (MTP procedure is implemented in R multtest package) are their obvious advantages. Unfortunately, the results of the analysis of MPT procedure obtained by Werft and Benner (2009) revealed that it does not control FDR in case of numerous sets of hypotheses and small samples. Furthermore, the simulation experiment presented in the article showed that MTP procedure does not control FWER, either.
Źródło:
Przegląd Statystyczny; 2013, 60, 4; 461-476
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data Visualization in the Resampling Methods
Wizualizacja danych w metodach wykorzystujących repróbkowanie
Autorzy:
Kończak, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/592623.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Bootstrap
Prezentacje graficzne
Repróbkowanie
Testy permutacyjne
Wykresy
Charts
Graphical presentations
Permutation tests
Resampling
Opis:
Charts and graphical presentations are the examples of statistical tools. These tools are usually considered with the area of the descriptive statistics. However, many of graphics data visualizations can be successfully applied in the area related to inferential statistics. The paper presents a brief overview of the selected methods of the data presentation. The particular attention was paid to the new opportunities for graphic presentations that can be used in the method of statistical inference. Graphical methods for a long time have been successfully used in monitoring processes in statistical quality control. Due to the nature of the signals for determining the process deregulations it would be difficult, in this regard, to make a decision without the corresponding charts, and the decisions based solely on the results of numerical analyzes. The study also recalled the opportunities associated with the graphical presentation of the results of the statistical inference using resampling methods.
Statystyka należy do bardzo wyjątkowych specjalności naukowych. Narzędzia i metody wykorzystywane przez statystyków są niezbędne w pracy fizyka, architekta, inżyniera, medyka, psychologa, ekonomisty, a także dla specjalistów wielu innych zawodów. Powszechnie stosowany podział prowadzi do wyróżnienia statystyki opisowej i statystyki matematycznej. Nieodłącznie z badaniami statystycznymi jest związana graficzna prezentacja danych i wyników analiz. Wizualizacja danych jest zwykle kojarzona z zagadnieniami statystyki opisowej. Wiele rozwiązań graficznych można jednak z powodzeniem zastosować w obszarze związanym z zagadnieniami wnioskowania statystycznego. W artykule przedstawiono zwięzłą charakterystykę wybranych metod graficznej prezentacji danych. Szczególną uwagę zwrócono na nowe możliwości w zakresie graficznych prezentacji, które mogą być wykorzystane we wnioskowaniu statystycznym. Metody takie od bardzo dawna są z powodzeniem wykorzystywane w sterowaniu jakością produkcji. Ze względu na specyfikę określania sygnałów rozregulowania procesów trudno w tym zakresie byłoby zrezygnować z odpowiednich wykresów, a decyzje oprzeć wyłącznie na wynikach liczbowych analiz. W opracowaniu odwołano się również do możliwości związanych z graficzną prezentacją wyników wnioskowania statystycznego z wykorzystaniem metod repróbkowania.
Źródło:
Studia Ekonomiczne; 2015, 247; 43-56
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluation of resampling methods in the class unbalance problem
Ocena metod repróbkowania w problemie zbiorów niezbilansowanych
Autorzy:
Kubus, Mariusz
Powiązania:
https://bibliotekanauki.pl/articles/424935.pdf
Data publikacji:
2020
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
class unbalance
resampling
regularized logistic regression
random forests
klasy niezbilansowane
repróbkowanie
regularyzowana regresja logistyczna
lasy losowe
Opis:
The purpose of many real world applications is the prediction of rare events, and the training sets are then highly unbalanced. In this case, the classifiers are biased towards the correct prediction of the majority class and they misclassify a minority class, whereas rare events are of the greater interest. To handle this problem, numerous techniques were proposed that balance the data or modify the learning algorithms. The goal of this paper is a comparison of simple random balancing methods with more sophisticated resampling methods that appeared in the literature and are available in R program. Additionally, the authors ask whether learning on the original dataset and using a shifted threshold for classification is not more competitive. The authors provide a survey from the perspective of regularized logistic regression and random forests. The results show that combining random under-sampling with random forests has an advantage over other techniques while logistic regression can be competitive in the case of highly unbalanced data.
Celem wielu praktycznych zastosowań modeli dyskryminacyjnych jest przewidywanie zdarzeń rzadkich. Zbiory uczące są wówczas niezbilansowane. W tym przypadku klasyfikatory mają tendencję do poprawnego klasyfikowania obiektów klasy większościowej i jednocześnie błędnie klasyfikują wiele obiektów klasy mniejszościowej, która jest przedmiotem szczególnego zainteresowania. W celu rozwiązania tego problemu zaproponowano wiele technik, które bilansują dane lub modyfikują algorytmy uczące. Celem artykułu jest porównanie prostych, losowych metod bilansowania z bardziej wyrafinowanymi, które pojawiły się w literaturze. Dodatkowo postawiono pytanie, czy konkurencyjnym podejściem nie jest budowa modelu na oryginalnym zbiorze danych i przesunięcie progu klasyfikacji. Badanie przedstawiono z perspektywy regularyzowanej regresji logistycznej i lasów losowych. Wyniki pokazują, że kombinacja metody under-sampling z lasami losowymi wykazuje przewagę nad innymi technikami, podczas gdy regresja logistyczna może być konkurencyjna w przypadku silnego niezbilansowania.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2020, 24, 1; 39-50
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza porównawcza wybranych metod szacowania błędu predykcji klasyfikatora
Comparative Analysis of Selected Methods for Estimating the Prediction Error of Classifier
Autorzy:
Herman, Sergiusz
Powiązania:
https://bibliotekanauki.pl/articles/1050557.pdf
Data publikacji:
2016-12-31
Wydawca:
Główny Urząd Statystyczny
Tematy:
błąd predykcji
walidacja krzyżowa
prosta metoda podziału
wielokrotne repróbkowanie
upadłość przedsiębiorstw
klasyfikacja
prediction error
cross-validation
holdout method
bootstrapping
corporate bankruptcy
classification
Opis:
Klasyfikacją nazywamy algorytm postępowania, który przydziela badane obserwacje/obiekty, bazując na ich cechach do określonych populacji. W tym celu konstruowany jest odpowiedni model – klasyfikator. Miarą jego jakości jest przede wszystkim zdolność predykcyjna, mierzona m.in. za pomocą prawdziwego błędu predykcji. Wartość tego błędu, ze względu na brak odpowiednio dużej, niezależnej próby testowej, musi być często szacowana na podstawie dostępnej próby uczącej. Celem artykułu jest dokonanie przeglądu oraz empirycznej analizy porównawczej wybranych metod szacowania błędu predykcji klasyfikatora, skonstruowanego z wykorzystaniem liniowej analizy dyskryminacyjnej. Zbadano, czy wyniki analizy uzależnione są od wielkości próby oraz metody wyboru zmiennych do modelu. Badanie empiryczne zostało przeprowadzone na przykładzie problemu prognozowania upadłości spółek akcyjnych w Polsce.
Classification is an algorithm, which assigns studied companies, taking into consideration their attributes, to specific population. An essential part of it is classifier. Its measure of quality is especially predictability, measured by true error rate. The value of this error, due to lack of sufficiently large and independent test set, must be estimated on the basis of available learning set. The aim of this article is to make a review and compare selected methods for estimating the prediction error of classifier, constructed with linear discriminant analysis. It was examined if the results of the analysis depends on the sample size and the method of selecting variables for a model. Empirical research was made on example of problem of bankruptcy prediction of join-stock companies in Poland.
Źródło:
Przegląd Statystyczny; 2016, 63, 4; 449-463
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies