Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Outliers" wg kryterium: Temat


Tytuł:
A review of robust estimation methods applied in surveying
Przegląd metod estymacji odpornej stosowanych w geodezji
Autorzy:
Banaś, M.
Powiązania:
https://bibliotekanauki.pl/articles/386118.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
outliers
robust estimation
adjustment of observations
obserwacje odstające
estymacja odporna
wyrównanie obserwacji
Opis:
This paper provides a review of popular outlier-robust methods used in surveying. The presented methods have been divided into two groups i.e. active and passive methods. The first group comprises the following methods: the Huber Method, the Hampel Method, the Danish Method, the Gaździcki Method, the Least Absolute Deviation and a Choice Rule of Alternative. The second group of methods is represented by the so called iterative data snooping (IDS) and τ-test. There are M-estimation rules presented in the introduction to the review of active methods.
Praca zawiera przegląd popularnych metod odpornych na błędy grube stosowanych w geodezji. Metody te podzielono na dwie grupy, tj. aktywne oraz pasywne. W pierwszej z nich znalazła się metoda Hubera, Hampela, duńska, Gaździckiego, liniowa, najmniejszych odchyleń absolutnych oraz zasada wyboru alternatywy. Druga grupa zawiera metodę Iterative Data Snooping (IDS) oraz τ-test. Wstęp do metod aktywnych stanowi przedstawienie zasad M-estymacji.
Źródło:
Geomatics and Environmental Engineering; 2012, 6, 4; 13-22
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A robust fixed-lag smoothing algorithm for dynamic systems with correlated sensor malfunctions
Autorzy:
Grishin, Y. P.
Janczak, D.
Powiązania:
https://bibliotekanauki.pl/articles/199833.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
outliers
robust signal processing
nonlinear filtering
fault detection
systems with changing structures
Opis:
A new robust fixed-lag smoothing algorithm for fault-tolerant signal processing in stochastic dynamic systems in the presence of correlated sensor malfunctions has been developed. The algorithm is developed using a state vector augmentation method and the Gaussian approximation of the current estimate probability density function. The algorithm can be used in the real-time fault-tolerant control systems as well as in radar tracking systems working in the complex interference environment. The performance of the developed algorithm are evaluated by simulations and compared with smoothing and nonlinear filtering algorithms.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2014, 62, 3; 517-523
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Two-Component Normal Mixture Alternative to the Fay-Herriot Model
Autorzy:
Chakraborty, Adrijo
Datta, Gauri Sankar
Mandal, Abhyuday
Powiązania:
https://bibliotekanauki.pl/articles/465632.pdf
Data publikacji:
2016
Wydawca:
Główny Urząd Statystyczny
Tematy:
Hierarchical Bayes
heavy-tail distribution
non-informative priors
robustness to outliers
small area estimation
Opis:
This article considers a robust hierarchical Bayesian approach to deal with random effects of small area means when some of these effects assume extreme values, resulting in outliers. In the presence of outliers, the standard Fay-Herriot model, used for modeling area-level data, under normality assumptions of random effects may overestimate the random effects variance, thus providing less than ideal shrinkage towards the synthetic regression predictions and inhibiting the borrowing of information. Even a small number of substantive outliers of random effects results in a large estimate of the random effects variance in the Fay-Herriot model, thereby achieving little shrinkage to the synthetic part of the model or little reduction in the posterior variance associated with the regular Bayes estimator for any of the small areas. While the scale mixture of normal distributions with a known mixing distribution for the random effects has been found to be effective in the presence of outliers, the solution depends on the mixing distribution. As a possible alternative solution to the problem, a two-component normal mixture model has been proposed, based on non-informative priors on the model variance parameters, regression coefficients and the mixing probability. Data analysis and simulation studies based on real, simulated and synthetic data show an advantage of the proposed method over the standard Bayesian Fay-Herriot solution derived under normality of random effects.
Źródło:
Statistics in Transition new series; 2016, 17, 1; 67-90
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An outlier-robust neuro-fuzzy system for classification and regression
Autorzy:
Siminski, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1838201.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
outliers
neuro-fuzzy system
clustering algorithm
regression
wyjątki
system neurorozmyty
algorytm grupowania
Opis:
Real life data often suffer from non-informative objects—outliers. These are objects that are not typical in a dataset and can significantly decline the efficacy of fuzzy models. In the paper we analyse neuro-fuzzy systems robust to outliers in classification and regression tasks. We use the fuzzy c-ordered means (FCOM) clustering algorithm for scatter domain partition to identify premises of fuzzy rules. The clustering algorithm elaborates typicality of each object. Data items with low typicalities are removed from further analysis. The paper is accompanied by experiments that show the efficacy of our modified neuro-fuzzy system to identify fuzzy models robust to high ratios of outliers.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2021, 31, 2; 303-319
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of the Huber and Hampel M-estimation in Real Estate Value Modeling
Zastosowanie metod Hubera i Hampela M-estymacji w modelowaniu wartości nieruchomości
Autorzy:
Adamczyk, T.
Powiązania:
https://bibliotekanauki.pl/articles/385803.pdf
Data publikacji:
2017
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
M-estymacja
obserwacje odstające
modelowanie wartości nieruchomości
M-estimation
outliers
property value modeling
Opis:
Statystyka matematyczna jest potężnym narzędziem w analizie rynku nieruchomości i wyceny nieruchomości w przypadku dużych zbiorów danych. W literaturze często przytaczane są modele regresji dwuwymiarowej oraz wielowymiarowej. Estymacja parametrów modeli jest przeważnie oparta na metodzie najmniejszych kwadratów, mało odpornej na przypadki odstające. Nawet pojedyncza obserwacja odstająca może mieć negatywny wpływ na wyniki estymacji uzyskiwane w modelach opartych na klasycznej metodzie najmniejszych kwadratów. Autor analizuje możliwość zastosowania do modelowania wartości nieruchomości wybranych metod estymacji odpornej – metody Hubera oraz Hampela. Metody estymacji odpornej w porównaniu z klasycznymi metodami estymacji pozwalają uzyskać najmniejsze wartości wariancji estymowanych parametrów, co przekłada się na minimalizację wariancji szacowanych wartości nieruchomości z wykorzystaniem założonego modelu. W celu weryfikacji tezy o możliwości zastosowania metod odpornych w wycenie nieruchomości przeprowadzono analizę na przykładowej bazie nieruchomości. Wnioski sformułowano na podstawie porównania wyników estymacji za pomocą klasycznej metody najmniejszych kwadratów z wynikami wybranych metod estymacji odpornej (Hubera i Hampela). Podstawą wnioskowania była również analiza wariancji.
Mathematical statistics is a powerful tool in real estate analysing and its valuation, when large databases are to be considered. The professional literature very often cites two or multidimensional variables methods of regression. Typically the model parameters estimation is based on the smallest squares method, however, such a method could not be resilient to the outlier cases. Even a single outlier could potentially have a negative impact on estimating results obtained by using the standard smallest squares method. The author analyzes the possibility of application of the chosen robust estimation method in property value modeling – the Huber and Hampel method. Comparing to the most commonly used classic estimation method, the robust estimation method enables us to obtain the smallest variation values for the estimated parameters, that results in property value estimated parameters variance minimizing, based on a given model. To verify the rationale of using the resilience methods in property valuation assumption, a sample of real property database analysis was conducted. The findings were concluded based on result comparison of the classic smallest squares method and the robust estimation method (Huber and Hampel) with variance analysis being also taken as a basis for conclusion.
Źródło:
Geomatics and Environmental Engineering; 2017, 11, 1; 15-23
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Attenuation matrix in robust, free adjustment
Autorzy:
Duchnowski, R.
Wiśniewski, Z.
Powiązania:
https://bibliotekanauki.pl/articles/225859.pdf
Data publikacji:
2006
Wydawca:
Politechnika Warszawska. Wydział Geodezji i Kartografii
Tematy:
free adjustment
robustness
outliers
Opis:
Equivalent weight matrix Px plays a major role in robust, free adjustment. It is contained in the optimization criterion P(dx) = dtxPxdx where dx is an increment vector to approximate coordinates of all network points. Assuming, that Px = px T(dx ), where Px is a priori weight matrix, the paper presents the way how to calculate an attenuation matrix T(dx)( dx is a standardized increment vector). Special attention is paid to the way of increment standardization and to computation of an increment variance matrix.
Źródło:
Reports on Geodesy; 2006, z. 2/77; 299-305
0867-3179
Pojawia się w:
Reports on Geodesy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of robust estimators for leveling networks in Monte Carlo simulations
Autorzy:
Pokarowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/106789.pdf
Data publikacji:
2016
Wydawca:
Politechnika Warszawska. Wydział Geodezji i Kartografii
Tematy:
leveling network
robust estimation
outliers
gross error
internal reliability index
sieć niwelacyjna
estymacja
elementy odstające
błąd całkowity
wewnętrzny wskaźnik niezawodności
Opis:
We compared the method of least squares (LS), Pope’s iterative data snooping (IDS) and Huber’s M-estimator (HU) in realistic leveling networks, for which the heights or the vertical displacements of points are known. The study was conducted using the Monte Carlo simulation, in which one repeatedly generates sets of observations related to the measurement data, then calculates values of the estimators and, finally, assesses it with respect to the real coordinates. To simulate outliers we used popular mixture models with two or more normal distributions. It is shown that for small, strong networks robust methods IDS and HU are more accurate than LS, but for large, weak networks occurring in practice there is no significant difference between the considered methods in the accuracy of the solution.
Źródło:
Reports on Geodesy and Geoinformatics; 2016, 101; 70-81
2391-8365
2391-8152
Pojawia się w:
Reports on Geodesy and Geoinformatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Critical values of driver response time and its impact on reducing reliability and safety in road traffic
Krytyczne wartości czasu reakc ji kierowcy i ich wpływ na obniżenie niezawodności i bezpieczeństwa ruchu drogowego
Autorzy:
Kornacki, A.
Wawrzosek, J.
Bochniak, A.
Szymanek, A.
Pawlak, H.
Powiązania:
https://bibliotekanauki.pl/articles/1365618.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
driver response time
reliability of road traffic
outliers
Akaike information criterion
log-normal
distribution
czas reakcji kierowcy
niezawodność ruchu drogowego
obserwacje odstające
kryterium
informacyjne Akaike
rozkład logarytmiczno-normalny
Opis:
Road traffic is among the most dangerous types of human activity. The main causes of road accidents are driver fatigue, poor physical and mental condition of drivers and overestimating one’s skills while driving. This study focuses on the estimation of driver response time, as the basis of a hypothetical system that uses short and long-range radars, which determines the physical and mental condition of a driver, based on the analysis of „acceleration noise” of the vehicle following its predecessor. This work highlights serious consequences of the fact that driver response time is described by means of a distribution with heavy tails, and thus may be a source of hazard in the driver-vehicle system. Extremes of driver response time were treated as outliers in this study. Their detection was attained by using the Akaike information criterion [1, 2], which is an alternative to conventional methods of testing hypotheses. Untypical, on account of their outlying nature, values are interpreted as critical driver response time values which potentially endanger the reliability of driving.
Ruch drogowy należy do najbardziej niebezpiecznych rodzajów działalności człowieka. Główne przyczyny wypadków drogowych to zmęczenie kierowców, zły stan psychofizyczny kierujących oraz przecenianie swoich umiejętności podczas prowadzenia pojazdu. W niniejszej pracy skupiono uwagę na estymacji czasu reakcji kierowców, jako podstawie hipotetycznego systemu wykorzystującego radary dalekiego i krótkiego zasięgu a określającego stan psychofizyczny kierowcy w oparciu o analizę „szumu przyspieszeń” pojazdu podążającego za poprzednikiem. Wskazuje się na groźne konsekwencje faktu, że czas reakcji kierowcy jest opisywany rozkładem z ciężkimi ogonami, gdyż z tego powodu może być źródłem zagrożenia w układzie kierowca-pojazd. Skrajne wartości czasu reakcji kierowców potraktowano w pracy, jako wartości odstające. Do ich wykrycia zastosowano kryterium informacyjne Akaike [1, 2] co stanowi alternatywę w stosunku do klasycznych metod testowania hipotez. Nietypowe, bo odstające wartości interpretuje się, jako krytyczne czasy reakcji kierowców potencjalnie zagrażające niezawodności jazdy.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 1; 142-148
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data mining system for air quality monitoring networks
Autorzy:
Czechowski, P.
Badyda, A.
Majewski, G.
Powiązania:
https://bibliotekanauki.pl/articles/204820.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
air pollutants
data quality analysis
data mining
estimation
exploratory methods
harmonic
principal component analysis
statistical tests outliers
influential
leverage observations
analytical software system
programming
Eco Data Miner
EDM
Winsorized mean
Cook
Mahalanobis distance
DFITS
COVRATIO
Opis:
The use of quantitative methods, including stochastic and exploratory techniques in environmental studies does not seem to be sufficient in practical aspects. There is no comprehensive analytical system dedicated to this issue, as well as research regarding this subject. The aim of this study is to present the Eco Data Miner system, its idea, construction and implementation possibility to the existing environmental information systems. The methodological emphasis was placed on the one-dimensional data quality assessment issue in terms of using the proposed QAAH1 method - using harmonic model and robust estimators beside the classical tests of outlier values with their iterative expansions. The results received demonstrate both the complementarity of proposed classical methods solution as well as the fact that they allow for extending the range of applications significantly. The practical usefulness is also highly significant due to the high effectiveness and numerical efficiency as well as simplicity of using this new tool.
Źródło:
Archives of Environmental Protection; 2013, 39, 4; 123-147
2083-4772
2083-4810
Pojawia się w:
Archives of Environmental Protection
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Detecting rows and columns of contingency table, which outlie from a total positivity pattern
Autorzy:
Szczęsny, W.
Powiązania:
https://bibliotekanauki.pl/articles/205844.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
monitor graficzny
tablica wielodzielcza
wartość oddalona
computer-intensive methods
contingency table
graphical display
occupational mobility
outliers
scatterplot
total positive dependence
Opis:
It is known that the procedure called Grade Correspondence Analysis (GCA) transforms any bivariate contingency table into an approximation of table with a very regular positive dependence, called total positivity of order two (TP2). This fact is reminded in Sections 2 and 3, illustrated there by the GCA transformation of an artificial contingency table [T_8x6]. A search for rows and/or columns of table [T_8x6], which most strongly outlie from the TP2 pattern, is described in Section 4. Section 5 presents the outliers found in three large contingency tables, containing the occupational mobility data from Britain and Poland and the parliamentary election data from Poland.
Źródło:
Control and Cybernetics; 2000, 29, 4; 1059-1073
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Detection of Outliers in Univariate Circular Data by Means of the Outlier Local Factor (LOF)
Autorzy:
Abuzaid, Ali H.
Powiązania:
https://bibliotekanauki.pl/articles/1058939.pdf
Data publikacji:
2020-09-04
Wydawca:
Główny Urząd Statystyczny
Tematy:
discordancy
distance
multiple outliers
neighbours
spacing theory
Opis:
The problem of outlier detection in univariate circular data was the object of increased interest over the last decade. New numerical and graphical methods were developed for samples from different circular probability distributions. The main drawback of the existing methods is, however, that they are distribution-based and ignore the problem of multiple outliers. The local outlier factor (LOF) is a density-based method for detecting outliers in multivariate data and it depends on the local density of every k nearest neighbours. The aim of this paper is to extend the application of the LOF to the detection of possible outliers in circular samples, where the angles of circular data are represented in two Cartesian coordinates and treated as bivariate data. The performance of the LOF is compared against other existing numerical methods by means of a simulation based on the power of a test and the proportion of correct detection. The LOF performance is compatible with the best existing discordancy tests, while outperforming other tests. The level of the LOF performance is directly related to the contamination and concentration parameters, while having an inverse relationship with the sample size. In order to illustrate the process, the LOF and other existing discordancy tests are applied to detect possible outliers in two common real circular datasets.
Źródło:
Statistics in Transition new series; 2020, 21, 3; 39-51
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Developing calibration estimators for population mean using robust measures of dispersion under stratified random sampling
Autorzy:
Audu, Ahmed
Singh, Rajesh
Khare, Supriya
Powiązania:
https://bibliotekanauki.pl/articles/1054567.pdf
Data publikacji:
2021-06-04
Wydawca:
Główny Urząd Statystyczny
Tematy:
calibration
outliers
percentage relative efficiency (PRE)
stratified sampling
Opis:
In this paper, two modified, design-based calibration ratio-type estimators are presented. The suggested estimators were developed under stratified random sampling using information on an auxiliary variable in the form of robust statistical measures, including Gini’s mean difference, Downton’s method and probability weighted moments. The properties (biases and MSEs) of the proposed estimators are studied up to the terms of firstorder approximation by means of Taylor’s Series approximation. The theoretical results were supported by a simulation study conducted on four bivariate populations and generated using normal, chi-square, exponential and gamma populations. The results of the study indicate that the proposed calibration scheme is more precise than any of the others considered in this paper.
Źródło:
Statistics in Transition new series; 2021, 22, 2; 125-142
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dispersion of estimates of linear regression parameters in case of the deepest regression method
Zróżnicowanie ocen parametrów regresji liniowej uzyskanych metodą najgłębszej regresji
Autorzy:
Pruska, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/907023.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
the deepest regression method
outliers
dispersion
breakdown value
Opis:
The deepest regression method is such a method of estimation of regression parameters that the maximal regression depth characterises the obtained model. In this paper the deeepest regression method is presented and the simulation analysis (Monte Carlo experiments) of dispersion of linear regression parameter estimates is conducted in case of data sets with different numbers of outliers. On the basis of the results of Monte Carlo experiments the characteristics of distribution of regression parameter estimates are determined and compared with the results of analogous experiments conducted with the use of the least square method.
Metoda najgłębszej regresji polega na oszacowaniu parametrów liniowej funkcji regresji w taki sposób, aby uzyskanemu modelowi odpowiadała największa głębia regresyjna. W pracy przedstawiono charakterystykę metody najgłębszej regresji i przeprowadzono symulacyjną analizę (metodami Monte Carlo) zróżnicowania ocen parametrów modelu regresji liniowej uzyskanych tą metodą dla zbiorów danych zawierających różną liczbę obserwacji nietypowych. Na podstawie przeprowadzonych eksperymentów Monte Carlo wyznaczono charakterystyki rozkładu ocen parametrów i dokonano porównania otrzymanych wyników z wynikami analogicznych eksperymentów, w których do estymacji parametrów wykorzystano metodę najmniejszych kwadratów.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2008, 216
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Do multi-factor models produce robustresults? Econometric and diagnostic issues in equity risk premia study
Analiza diagnostyczna wieloczynnikowych modeli oszacowań premii za ryzyko akcyjne
Autorzy:
Sakowski, Paweł
Ślepaczuk, Robert
Wywiał, Mateusz
Powiązania:
https://bibliotekanauki.pl/articles/585858.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Asset pricing models
Autocorrelation
Collinearity
Diagnostics
Econometric
Equity risk premia
General Methods of Moments (GMM)
Heteroscedasticity
Maximum Likelihood Estimation (MLE)
Multi-factor models
Normality
Ordinary Least Squares (OLS)
Outliers
Autokorelacja
Diagnostyka modeli
Heteroskedastyczność
Metoda najmniejszych kwadratów
Metoda największej wiarygodności
Modele wieloczynnikowe
Modele wyceny aktywów
Obserwacje odstające
Premia za ryzyko akcyjne
Uogólniona metoda momentów
Współliniowość
Opis:
In recent decades numerous studies verified empirical validity of the CAPM model. Many of them showed that CAPM alone is not able to explain cross-sectional variation of stock returns. Researchers revealed various risk factors which explained outperformance of given groups of stocks or proposed modifications to existing multi-factor models. Surprisingly, we hardly find any discussion in financial literature about potential drawbacks of applying standard OLS method to estimate parameters of such models. Yet, the question of robustness of OLS results to invalid assumptions shouldn't be ignored. This article aims to address diagnostic and econometric issues which can influence results of a time-series multifactor model. Based on the preliminary results of a five-factor model for 81 emerging and developed equity indices [Sakowski, Ślepaczuk and Wywiał, 2016a] obtained with OLS we check the robustness of these results to popular violations of OLS assumptions. We find autocorrelation of error term, heteroscedasticity and ARCH effects for most of 81 regressions and apply an AR-GARCH model using MLE to remove them. We also identify outliers and diagnose collinearity problems. Additionally, we apply GMM to avoid strong assumption of IID error term. Finally, we present comparison of parameters estimates and Rsquared values obtained by three different methods of estimation: OLS, MLE and GMM. We find that results do not differ substantially between these three methods and allow to draw the same conclusions from the investigated five-factor model.
W ostatnich latach liczne prace podejmowały temat empirycznej weryfikacji skuteczności modelu CAPM. Ich autorzy zaproponowali co najmniej kilka czynników ryzyka, które są w stanie wyjaśnić zróżnicowanie przekrojowe zwrotów rozmaitych aktywów finansowych. Zaproponowano także liczne modyfikacje istniejących modeli wieloczynnikowych. W bogatej literaturze rzadko jednak spotykamy dyskusję na temat konsekwencji stosowania standardowej Metody Najmniejszych Kwadratów do oszacowania parametrów tych modeli. Pytanie o odporność oszacowań wieloczynnikowych modeli wyceny aktywów finansowych uzyskanych za pomocą MNK na niespełnienie założeń nie powinno być jednak ignorowane. Celem niniejszego artykułu jest analiza diagnostyczna wyników oszacowań modelu pięcioczynnikowego dla 81 indeksów giełdowych [Sakowski, Ślepaczuk i Wywiał, 2016a]. Weryfikacja założeń modelu wskazuje na obecność autokorelacji i heteroskedastyczności czynnika losowego, a także występowanie efektów ARCH. Analiza obejmuje także identyfikację obserwacji wpływowych oraz weryfikację obecności współliniowości wśród czynników. W końcowej części prezentujemy porównanie oszacowań uzyskanych za pomocą Metody Najmniejszych Kwadratów, Metody Największej Wiarygodności oraz Uogólnionej Metody Momentów. Wszystkie trzy metody dają bardzo zbliżone oszacowania i pozwalają wyciągnąć ten sam zestaw wniosków dla analizowanego modelu pięcioczynnikowego.
Źródło:
Studia Ekonomiczne; 2016, 301; 203-227
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Empirical tests of performance of some M – estimators
Praktyczne porównanie kilku M – estymatorów
Autorzy:
Banaś, M.
Ligas, M.
Powiązania:
https://bibliotekanauki.pl/articles/145326.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
estymatory
wielomiany ortogonalne
estymacja jądrowa
M-estimation
iteratively reweighted least squares
tuning constant
outliers
network adjustment
Opis:
The paper presents an empirical comparison of performance of three well known M – estimators (i.e. Huber, Tukey and Hampel’s M – estimators) and also some new ones. The new M – estimators were motivated by weighting functions applied in orthogonal polynomials theory, kernel density estimation as well as one derived from Wigner semicircle probability distribution. M – estimators were used to detect outlying observations in contaminated datasets. Calculations were performed using iteratively reweighted least-squares (IRLS). Since the residual variance (used in covariance matrices construction) is not a robust measure of scale the tests employed also robust measures i.e. interquartile range and normalized median absolute deviation. The methods were tested on a simple leveling network in a large number of variants showing bad and good sides of M – estimation. The new M – estimators have been equipped with theoretical tubing constants to obtain 95% efficiency with respect to the standard normal distribution. The need for data – dependent tuning constants rather than those established theoretically is also pointed out.
W artykule przedstawiono empiryczne porównanie trzech dobrze znanych M – estymatorów (Huber’a, Tukey’a oraz Hampel’a) jak również kilku nowych. Nowe estymatory motywowane były funkcjami wagowymi wykorzystywanymi w teorii wielomianów ortogonalnych, estymacji jądrowej oraz jeden motywowany przez funkcję gęstości „półokręgu” Wigner’a. Każdy z estymatorów został użyty do wykrywania obserwacji odstających w skażonych zbiorach danych. Obliczenia wykonano za pomocą „reważonej” metody najmniejszych kwadratów. Ze względu na fakt, iż wariancja resztowa (używana w konstrukcji macierzy kowariancyjnych) nie jest odpornym estymatorem skali, w testach wykorzystano również odporne miary takie jak: rozstęp ćwiartkowy oraz znormalizowane odchylenie medianowe. Testy wykonano na prostej sieci niwelacyjnej w dużej ilości wariantów ukazujących dobre i złe strony M – estymacji. Nowe estymatory zostały wyposażone w teoretyczne stałe odcinania zapewniające 95% efektywność względem standaryzowanego rozkładu normalnego. Kwestia rozwijania metod bazujących na stałych odcinania pochodzących z danych została również pokrótce poruszona.
Źródło:
Geodesy and Cartography; 2014, 63, 2; 127-146
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies