Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Ensemble methods" wg kryterium: Temat


Wyświetlanie 1-6 z 6
Tytuł:
A local model and calibration set ensemble strategy for open-path FTIR gas measurement with varying temperature
Autorzy:
Cięszczyk, S.
Powiązania:
https://bibliotekanauki.pl/articles/220752.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
ensemble methods
FTIR
open path
temperature variation
Opis:
Open-Path Fourier Transform Infrared OP-FTIR spectrometers are commonly used for the measurement of atmospheric pollutants and of gases in industrial processes. Spectral interpretation for the determination of gas concentrations is based on the HITRAN database line-by-line modeling method. This article describes algorithms used to model gas spectra and to determine gas concentration under variable temperatures. Integration of individual rotational lines has been used to reduce the impact of spectrometer functions on the comparison of both measured and synthetic modeled spectra. Carbon monoxide was used as an example. A new algorithm for gas concentration retrieval consisting of two ensemble methods is proposed. The first method uses an ensemble of local models based on linear and non-linear PLS (partial least square) regression algorithms, while the second is an ensemble of a calibration set built for different temperatures. It is possible to combine these methods to decrease the number of regression models in the first ensemble. These individual models are appropriate for specific measurement conditions specified by the ensemble of the calibration set. Model selection is based on comparison of gas spectra with values determined from each local model.
Źródło:
Metrology and Measurement Systems; 2013, 20, 3; 513-524
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Szacowanie parametrów ryzyka kredytowego przy użyciu rodzin klasyfikatorów
Families of Classifiers Application in Credit Risk Parameters Estimation
Autorzy:
Grzybowska, Urszula
Karwański, Marek
Powiązania:
https://bibliotekanauki.pl/articles/585589.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Ryzyko kredytowe
LGD
Metody ensemble
Regresja
Credit risk
Ensemble methods
Regression
Opis:
Banki stosujące zalecenia Umowy Bazylejskiej II/III zobowiązane są do wyznaczania ryzyka na podstawie szeregu parametrów. Jednym z nich jest procent straty – Loss Given Default (LGD). W literaturze LGD traktowany jest jako zmienna losowa, o rozkładzie dwumodalnym. Do szacowania wielkości LGD stosuje się zaawansowane regresyjne modele statystyczne. Alternatywny sposób to wykorzystanie metod data miningowych. Szczególnie atrakcyjne wydają się estymatory typu rodzin klasyfikatorów, które pozwalają na uśrednienie rezultatów wielu „słabych klasyfikatorów” i uzyskanie bardziej precyzyjnych wyników. Rodziny klasyfikatorów operują tzw. informacją. Problemem jest interpretacja informacji w kategoriach biznesowych. Celem artykułu jest uzgodnienie obu podejść i interpretacji. Przedstawione zostaną wyniki szacowania przy użyciu modeli: ułamkowej regresji logistycznej, beta-regresji, boostingu gradientowego oraz lasów losowych. Porównane zostaną właściwości estymatorów. Obliczenia wykonane zostały na danych rzeczywistych.
According to the Capital Requirements Directive banks applying the internal rating based approach are obliged to estimate risk based on a set of risk parameters. One of the risk parameters is Loss Given Default (LGD). LGD is treated as a random variable with a bimodal distribution. One can apply advanced statistical models in LGD estimation. An alternative approach is to use data mining methods. The most promising seem to be families of classifiers, that allow for averaging results of many weak classifiers and for obtaining more precise results. Families of classifiers are built based on information criterion. The problem encountered is interpretation of obtained results in terms of business applications. The aim of the paper is to compare both approaches. We present results of LGD estimation with help of two regression models: fractional and beta regression and two ensemble methods: gradient boosting and random forests. Calculations were done on real life data.
Źródło:
Studia Ekonomiczne; 2015, 248; 107-120
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ensembles of instance selection methods: A comparative study
Autorzy:
Blachnik, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/330413.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
machine learning
instance selection
ensemble methods
uczenie maszynowe
selekcja przypadków
metoda zespołowa
Opis:
Instance selection is often performed as one of the preprocessing methods which, along with feature selection, allows a significant reduction in computational complexity and an increase in prediction accuracy. So far, only few authors have considered ensembles of instance selection methods, while the ensembles of final predictive models attract many researchers. To bridge that gap, in this paper we compare four ensembles adapted to instance selection: Bagging, Feature Bagging, AdaBoost and Additive Noise. The last one is introduced for the first time in this paper. The study is based on empirical comparison performed on 43 datasets and 9 base instance selection methods. The experiments are divided into three scenarios. In the first one, evaluated on a single dataset, we demonstrate the influence of the ensembles on the compression–accuracy relation, in the second scenario the goal is to achieve the highest prediction accuracy, and in the third one both accuracy and the level of dataset compression constitute a multi-objective criterion. The obtained results indicate that ensembles of instance selection improve the base instance selection algorithms except for unstable methods such as CNN and IB3, which is achieved at the expense of compression. In the comparison, Bagging and AdaBoost lead in most of the scenarios. In the experiments we evaluate three classifiers: 1NN, kNN and SVM. We also note a deterioration in prediction accuracy for robust classifiers (kNN and SVM) trained on data filtered by any instance selection methods (including the ensembles) when compared with the results obtained when the entire training set was used to train these classifiers.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2019, 29, 1; 151-168
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
IDENTYFIKACJA KOMPONENTÓW DESTRUKCYJNYCH W MODELACH PREDYKCYJNYCH W PODEJŚCIU WIELOMODELOWYM
IDENTYFIKACJA KOMPONENTÓW DESTRUKCYJNYCH W MODELACH PREDYKCYJNYCH W PODEJŚCIU WIELOMODELOWYM IDENTIFICATION OF DESTRUCTIVE COMPONENTS IN PREDICTIVE MODELS WITH A MULTI-MODEL APPROACH
Autorzy:
Szupiluk, Ryszard
Rubach, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/453339.pdf
Data publikacji:
2017
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
predykcja
agregacja modeli
ślepa separacja
identyfikacja szumów
prediction
blind separation
ensemble methods
Theta noise measure
Opis:
W niniejszym artykule przedstawimy metodę identyfikacji komponentów destrukcyjnych występujących w podejściu wielomodelowym wykorzystującym algorytmy ślepej separacji sygnałów. Ocena charakterystyki poszczególnych komponentów dokonana zostanie na podstawie autorskich mierników zmienności/gładkości sygnałów. W celu potwierdzenia skuteczności prezentowanej metody przedstawimy praktyczny eksperyment poprawy wyników prognozy zużycia energii elektrycznej.
In this paper we present a method of identification of destructive components in predictive models. This method may be applied in case of a multi-model approach and uses algorithms of blind signal separation. The evaluation of the characteristics of individual components will be based on the proposed metrics for evaluating the variation or smoothness of signals. In order to confirm the effectiveness of the presented method, we will present a practical experiment in which the results of the forecast of short-term electricity consumption are improved. Keywords: prediction, blind separation, ensemble methods, Theta noise measure
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2017, 18, 4; 679-688
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multi-label classification using error correcting output codes
Autorzy:
Kajdanowicz, T.
Kazienko, P.
Powiązania:
https://bibliotekanauki.pl/articles/331286.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
maszyna ucząca się
uczenie nadzorowane
metoda agregacji
struktura ramowa
machine learning
supervised learning
multilabel classification
error correcting output codes
ECOC
ensemble methods
binary relevance
framework
Opis:
A framework for multi-label classification extended by Error Correcting Output Codes (ECOCs) is introduced and empirically examined in the article. The solution assumes the base multi-label classifiers to be a noisy channel and applies ECOCs in order to recover the classification errors made by individual classifiers. The framework was examined through exhaustive studies over combinations of three distinct classification algorithms and four ECOC methods employed in the multi-label classification problem. The experimental results revealed that (i) the Bode-Chaudhuri-Hocquenghem (BCH) code matched with any multi-label classifier results in better classification quality; (ii) the accuracy of the binary relevance classification method strongly depends on the coding scheme; (iii) the label power-set and the RAkEL classifier consume the same time for computation irrespective of the coding utilized; (iv) in general, they are not suitable for ECOCs because they are not capable to benefit from ECOC correcting abilities; (v) the all-pairs code combined with binary relevance is not suitable for datasets with larger label sets.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2012, 22, 4; 829-840
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badania nad nowymi algorytmami zespołowych skal czasu w Bazie Danych TA(PL)
Research on new timescale ensemble algorithms in Database for TA(PL)
Autorzy:
Marszalec, M.
Lusawa, M.
Czubla, A.
Nerkowski, D.
Lewandowski, W.
Nawrocki, J.
Kossek, T.
Powiązania:
https://bibliotekanauki.pl/articles/151309.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
zespołowa skala czasu
wzorzec czasu
baza danych
metody porównań wzorców czasu
timescale ensemble
time standard
database
time standards comparison methods
Opis:
Baza danych dla Polskiej Atomowej skali czasu TA(PL), w skrócie Baza Danych TA(PL), rozwijana jest dzięki ponad 15 letniej współpracy polskich laboratoriów badawczych zajmujących się tematyką metrologii czasu. Baza powstała w 2004 roku w celu automatyzacji procesu porównań atomowych wzorców czasu oraz wyliczania zaimplementowanych algorytmów zespołowych skal czasu. Zespołowe skale czasu, jako potencjalnie znacznie stabilniejsze od każdego wzorca w grupie, mają zastosowanie do kontroli poszczególnych wzorców, mogą także być wykorzystane do sterowania realizacją państwowego czasu urzędowego UTC(PL). W Bazie zaimplementowano podstawowy algorytm TA(PL) oraz zestaw algorytmów eksperymentalnych. W okresie ostatnich 2 lat zaktualizowano wiele funkcji obsługowych Bazy oraz zaimplementowano nowe algorytmy zespołowych skal czasu. Artykuł prezentuje wyniki badań nowych algorytmów oraz porównanie stabilności uzyskanych za ich pomocą zespołowych skal czasu w stosunku do wyników poprzednio zaimplementowanych algorytmów.
The Database for Polish Atomic Timescale TA(PL) is a result of 15 years of cooperation of Polish Time Laboratories. The work on the Database started in 2004. The purpose was to automate the process of time-standards comparison and calculate implemented group timescale ensembles algorithms. The group timescales ensemble algorithms are much more stable than any of the standards within the group. Therefore they can be used as a stable reference to control and supervise each standard. In the future, they can steer the Polish official realization of international Universal Coordinated Time (UTC) the UTC(PL) maintained by the Central Office of Measures (GUM). The Database was prepared with an original algorithm of TA(PL) based on ALGOS (the algorithm developed by International Bureau of Measurements –BIPM). During the time a set of experimental algorithms has been implemented (one day-shifted ALGOS and AT1). The last implemented algorithm is AT2 developed by the Time-team of National Institute of Telecommunications (NIT) on the basis of the theorem published by NIST (National Institute of Standard and Technology - USA) which seems to be the most stable even according to preliminary results. The final version of this paper presents the analysis of the results of new implemented algorithms and the comparison with former implementations. The last part of this paper deals with the future plans for development of the Database for TA(PL).
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 10, 10; 798-802
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-6 z 6

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies