Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "likelihood estimation" wg kryterium: Temat


Tytuł:
Likelihood and quasi - likelihood estimation of transition probabilities
Autorzy:
Bakinowska, Ewa
Kala, Radosław
Powiązania:
https://bibliotekanauki.pl/articles/729736.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
likelihood estimation
quasi-likelihood estimation
transition probabilities
quasi-information matrix
Opis:
In the paper two approaches to the problem of estimation of transition probabilities are considered. The approach by McCullagh and Nelder [5], based on the independent model and the quasi-likelihood function, is compared with the approach based on the marginal model and the standard likelihood function. The estimates following from these two approaches are illustrated on a simple example which was used by McCullagh and Nelder.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2004, 24, 1; 77-84
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On some properties of ML and REML estimators in mixed normal models with two variance components
Autorzy:
Gnot, Stanisław
Michalski, Andrzej
Urbańska-Motyka, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/729742.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
mixed linear models
likelihood-based inference
ML- and REML- estimation
variance components
Fisher's information
Opis:
In the paper, the problem of estimation of variance components σ₁² and σ₂² by using the ML-method and REML-method in a normal mixed linear model {Y,E(Y) = Xβ, Cov(Y) = σ₁²V + σ₂²Iₙ} is considered. This paper deal with properties of estimators of variance components, particularly when an explicit form of these estimators is unknown. The conditions when the ML and REML estimators can be expressed in explicit forms are given, too. The simulation study for one-way classification unbalanced random model together with a new proposition of approximation of expectation and variances of ML and REML estimators are shown. Numerical calculations with reference to the generalized Fisher's information are also given.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2004, 24, 1; 109-126
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie adaptacyjnej metody redukcji szumów na obrazach cyfrowych do dektekcji krawędzi
Edge detection using adaptive smoothing of digital images
Autorzy:
Kolecki, J.
Wróbel, A.
Powiązania:
https://bibliotekanauki.pl/articles/129815.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
przetwarzanie obrazów cyfrowych
detekcja krawędzi
metoda adaptacyjna
lokalna estymacja
MNW
digital image processing
edge detection
adaptive approach
local likelihood estimation
Opis:
Detekcja krawędzi często stanowi ważny etap przetwarzania obrazów cyfrowych w procedurach automatycznego pomiaru. Metody będące obecnie w użyciu, w większości oparte są na wykorzystaniu filtrów krawędziujących. Wymienić należy tu chociażby filtr LoG (Laplacian of Gaussian) jak również bardziej zaawansowaną metodę Cannyego- Derichea. W niniejszym artykule proponowane jest inne podejście do problemu detekcji krawędzi. Proponowane rozwiązanie jest oparte na wykorzystaniu metod statystyki matematycznej, w szczególności propagacyjno-separacyjnego podejścia do lokalnej metody największej wiarygodności, opracowanego w roku 2006 przez J. Polzehla i V. Spokoinego. Istotą metody jest adaptacyjne określenie sąsiedztwa każdego z pikseli, które wykorzystywane jest do estymacji jasności danego piksela. Sąsiedztwo to określane jest poprzez wagi przypisywane pikselom leżącym w pobliżu piksela o estymowanej jasności. Wartości wag zależą nie tylko od odległości od estymowanego piksela, ale też od różnicy jasności między pikselami. Wpływ tych dwóch czynników można dowolnie modyfikować. Prezentowana metoda przeznaczona jest docelowo do redukcji szumów obrazów cyfrowych, jednak po przyjęciu odpowiednich wartości parametrów udaje się osiągnąć wynik zbliżony do wyniku segmentacji. Do ostatecznego wykrycia krawędzi należy w drugim etapie zastosować filtr krawędziujący np. filtr Laplace’a. Dobór parametrów redukcji szumu pozwala kontrolować stopień szczegółowości otrzymywanych konturów. Do weryfikacji metody wykorzystano dwa fragmenty zdjęć lotniczych wykonanych nad obszarami miejskimi. Dokonano porównania proponowanej metody z wynikami działania algorytmu Cannyego-Derichea. Otrzymywane krawędzie są bardziej wygładzone i pozbawione drobnych przerw. Mniej jest również mało istotnych, niepożądanych krawędzi, wykrycia, których nie udało się uniknąć stosując algorytm Cannyego-Derichea.
Edge detection is often a fundamental stage of digital image processing in automatic measurement techniques. A number of approaches for edge detection, such as LoG (Laplacian of Gaussian) filtering and Canny-Deriche algorithm, involve using edge-extracting filters. In this paper we present a new edge detection technique. Our approach is based on statistics, specifically on the propagation-separation approach for local likelihood estimation, which was developed in 2006 by J.Pohlzel and V.Spokoiny. This new approach for local estimation involves adaptive determination of a pixel’s neighbourhood, used for estimation of pixel’s intensity. This neighbourhood is determined by a set of weights assigned to pixels in the vicinity of the point of estimation. The value of each weight depends not only on the Euclidean distance between the pixels, but also on a differences in the intensity. The influence of these two factors could be modified by changing the parameters of the procedure. The method, as described briefly here, has been mainly designed for image restoration; however, by using a special set of parameters an effect, similar to segmentation, can be achieved. To obtain the final edge image, it is sufficient to use simply one of the edge extracting filters, for example the Laplacian one. The procedure parameters allow to influence sensitivity of the edge detection. The edge detection results were tested on two fragments of frame images of a city. The edges detected were compared with results of the Canny-Deriche algorithm. The edges obtained were smoother and did not show numerous small breaks. In addition, short, less important edges were less likely to appear. These effects were impossible to avoid using the Canny-Deriche approach.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18a; 263-272
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptive trimmed likelihood estimation in regression
Autorzy:
Bednarski, Tadeusz
Clarke, Brenton
Schubert, Daniel
Powiązania:
https://bibliotekanauki.pl/articles/729910.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
trimmed likelihood estimator
adaptive estimation
regression
Opis:
In this paper we derive an asymptotic normality result for an adaptive trimmed likelihood estimator of regression starting from initial high breakdownpoint robust regression estimates. The approach leads to quickly and easily computed robust and efficient estimates for regression. A highlight of the method is that it tends automatically in one algorithm to expose the outliers and give least squares estimates with the outliers removed. The idea is to begin with a rapidly computed consistent robust estimator such as the least median of squares (LMS) or least trimmed squares (LTS) or for example the more recent MM estimators of Yohai. Such estimators are now standard in statistics computing packages, for example as in SPLUS or R. In addition to the asymptotics we provide data analyses supporting the new adaptive approach. This approach appears to work well on a number of data sets and is quicker than the related brute force adaptive regression approach described in Clarke (2000). This current approach builds on the work of Bednarski and Clarke (2002) which considered the asymptotics for the location estimator only.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2010, 30, 2; 203-219
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Likelihood Functions Synthesis for Multitarget Multiple-Sensor Tracking Applications using GPGPU
Synteza funkcji wiarygodności dla wielosensorowych systemów śledzenia wielu obiektów z wykorzystaniem GPGPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154548.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
funkcje wiarygodności
GPGPU
estimation
tracking
likelihood functions
Opis:
One-dimensional interpolation of the bearing function profile using small look-up-table as an alternative for run-time computation using direct formula is proposed in the paper. Computation of profile values is not necessary for large distances because a Gaussian profile is assumed so distance values are zeros. GPGPU are feasible for processing in parallel and are used in tests. The best results are obtained for conditional approach with distance test and look-up table of function profile.
Podejście bayesowskie jest często stosowane w celu uzyskania wysokiej jakości śledzenia i detekcji obiektów. Pomiarowa funkcja wiarygodności służy do wyspecyfikowania własności czujnika pomiarowego. Funkcje wiarygodności czujników (np. radarowych, wizyjnych) są określone wzorami matematycznymi [5] lub tabelami wartości. Wiele funkcji wiarygodności może zostać połączonych razem (5) w celu fuzji danych z wielu czujników. Funkcje wiarygodności można łatwo łączyć w przypadku dyskretnej przestrzeni pomiarowej 2D. Funkcja te jest zależna od odległości między czujnikiem a określoną komórką tej przestrzeni. Realizacja wszystkich możliwych kombinacji z wykorzystaniem tabeli wartości jest nieefektywna. Wyznaczenie funkcji wiarygodności w czasie rzeczywistym dla najbardziej typowej funkcji stosowanej w czujnikach wizyjnych jest możliwe za pomocą wzoru (6) lub uproszczonej postaci (7). W artykule zaproponowano interpolację jednowymiarową profilu funkcji z wykorzystaniem tabeli wartości i porównano z realizacją bezpośrednią (6). Ponadto wyznaczenie wartości profilu można uprościć dla dużej odległości między czujnikiem a określoną komórką. Do implementacji wykorzystano programowalny procesor graficzny (GPGPU), a w celu dalszej optymalizacji wykorzystano fakt, że nie jest konieczna synteza dla wszystkich komórek przestrzeni stanu.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 662-664
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Lifetime distributions with wave-like bathtub hazard
Autorzy:
Guo, R.
Thiart, C.
Cui, Y.
Guo, D.
Powiązania:
https://bibliotekanauki.pl/articles/2069543.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Morski w Gdyni. Polskie Towarzystwo Bezpieczeństwa i Niezawodności
Tematy:
lifetime distribution
hazard
bathtub hazard
likelihood function
maximum likelihood estimation
Opis:
In this paper, we argue the necessity of dealing with lifetime distributions with wave-like bathtub hazard function. Four classes of wave-like bathtub hazards are investigated. For preparing maximum likelihood estimation of the hazard parameters, the first-order and second-order partial derivatives are derived.
Źródło:
Journal of Polish Safety and Reliability Association; 2011, 2, 1; 115--122
2084-5316
Pojawia się w:
Journal of Polish Safety and Reliability Association
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie rozkładów pierśnic drzew z wykorzystaniem rozkładów mieszanych. I. Definicja, charakterystyka i estymacja parametrów rozkładów mieszanych
Modelling tree diameter distributions using mixture models. I. Definition, characteristics and parameters estimation of mixtures distributions
Autorzy:
Podlaski, R.
Powiązania:
https://bibliotekanauki.pl/articles/973905.pdf
Data publikacji:
2011
Wydawca:
Polskie Towarzystwo Leśne
Tematy:
drzewostany
modelowanie
estymacja
leśnictwo
rozkład pierśnic
rozkład mieszany
rozkłady składowe
finite mixture models
tree diameter distribution
maximum likelihood estimation
initial values
starting
strategy
Opis:
The article presents an introduction to the theory of finite mixture distributions, discusses the ways of procedure in selecting the number and type of component distributions, the methods of assessing the initial values, and proposal of the procedure of estimating the parameters. The proposed procedure uses min.k/max.k (for k=1, 3, 6) and 0.5/1.5/average methods to select initial values for a numerical procedure (EM algorithm + Newton's method) allowing to calculate the extremum of the likelihood function. If at least two identical solutions for the extreme values are not obtained, the multistart method should additionally be applied.
Źródło:
Sylwan; 2011, 155, 04; 244-252
0039-7660
Pojawia się w:
Sylwan
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multiple – Equation Models of Ordered Dependent Variables in Exploration of The Results of Rehabilitation of Locomotive Organ Disorders
Autorzy:
Grosman, Jerzy
Kowerski, Mieczysław
Powiązania:
https://bibliotekanauki.pl/articles/465998.pdf
Data publikacji:
2011
Wydawca:
Główny Urząd Statystyczny
Tematy:
Rehabilitation of locomotive organ disorders
Weiss test
multiple- equation model of ordered dependent variable
maximum likelihood estimation McFadden determination coefficient - pseudo R2
count R-squared
probability of the norm in the self-service test
Opis:
In the present paper concerning the analysis of the factors determining patient’s self-service during the admission and release from hospital a two-equation model of ordered dependent variables is proposed. These types of models are especially useful when the results of rehabilitation of locomotive organ disorders are not described by means of exact values obtained by mechanical measurements but they are described by means of qualitative valuation (ranking) made by a therapist when the distances between neighbouring ranks are not known. The advantages of the proposed model were presented on the basis of the results of estimation based on data of 4063 patients of hospitals from Mazowieckie and Warmińsko-Mazurskie provinces.
Źródło:
Statistics in Transition new series; 2011, 12, 1; 157-178
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Aircraft dynamic model identification on the basis of flight data recorder registers
Autorzy:
Lasek, L.
Lichota, P.
Powiązania:
https://bibliotekanauki.pl/articles/115522.pdf
Data publikacji:
2013
Wydawca:
Fundacja na Rzecz Młodych Naukowców
Tematy:
Dimensional derivatives
estimation
Flight Data Recorder
Flight Dynamics
Maximum Likelihood Estimation
Levenberg-Marquardt
System Identification
Opis:
We investigate the problem of an aircraft dynamic model parametric identification using dimensional derivatives as an example. Identification is done in offline mode, in the time domain. Flight parameters used for identification are obtained from Flight Data Recorder, that register them during each scheduled flight. We investigate the possibility of application of Maximum Likelihood Estimation that belongs to the Output Error Methods class. The likelihood function is defined for n-dimensional multivariate normal distribution. Unknown covariance matrix is estimated with the use of measured data and output equation. Output equation is calculated with Runge–Kutta fourth order method. In order to find the cost function minimum we consider using Levenberg-Marquardt Algorithm, where derivatives are calculated with central difference formulas and small perturbations theory. Mathematical model of an aircraft is obtained through flight dynamics classical approach. Rigid body model of an aircraft is assumed. Coordinate Systems Transformations are done using Euler’s Rotation Theorem with angle order typical for flight dynamics. Equations of motion are obtained from Newtons Second Law of Motion in body fixed coordinate system Oxyz, that is located at aircraft’s center of gravity. Turbulence is modeled as a bias, and also is an object of identification. We implement this method in Matlab R2009b environment.
Źródło:
Challenges of Modern Technology; 2013, 4, 1; 16-20
2082-2863
2353-4419
Pojawia się w:
Challenges of Modern Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Maximum likelihood estimation for identification of aircraft aerodynamic derivatives
Identyfikacja pochodnych aerodynamicznych Metodą Największej Wiarygodności
Autorzy:
Lichota, P.
Lasek, M.
Powiązania:
https://bibliotekanauki.pl/articles/139934.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
flight dynamics
flight data recorder
Levenberg-Marquardt algorithm
maximum likelihood estimation
output error method
parametric identification
dynamika lotu
pokładowy rejestrator lotu
algorytm Levenberga-Marquardta
metoda największej wiarygodności
metoda błędu wyjścia
identyfikacja parametryczna
Opis:
This article investigates identification of aircraft aerodynamic derivatives. The identification is performed on the basis of the parameters stored by Flight Data Recorder. The problem is solved in time domain by Quad-M Method. Aircraft dynamics is described by a parametric model that is defined in Body-Fixed-Coordinate System. Identification of the aerodynamic derivatives is obtained by Maximum Likelihood Estimation. For finding cost function minimum, Lavenberg-Marquardt Algorithm is used. Additional effects due to process noise are included in the state-space representation. The impact of initial values on the solution is discussed. The presented method was implemented in Matlab R2009b environment.
Artykuł zawiera informacje na temat identyfikacji pochodnych aerodynamicznych. Estymacja opiera się o parametry zapisywane przez Pokładowy Rejestrator Lotu. Zagadnienie jest rozważane w dziedzinie czasu przy użyciu podejścia Quad-M. Do opisu dynamiki samolotu wykorzystano model parametryczny zdefiniowany w układzie sztywno związanym z samolotem. Do identyfikacji wykorzystano Metodę Największej Wiarygodności. Do znalezienia minimum funkcji celu użyto algorytm Levenberga-Marquardta. W modelu uwzględniono wpływ dodatkowych czynników reprezentowany przez szum przetwarzania. Omówiono wpływ wartości początkowych na rozwiązanie. Prezentowane wyniki uzyskano w środowisku Matlab R2009b.
Źródło:
Archive of Mechanical Engineering; 2013, LX, 2; 219-230
0004-0738
Pojawia się w:
Archive of Mechanical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
MLE for the γ-order Generalized Normal Distribution
Autorzy:
Kitsos, Christos
Vassiliadis, Vassilios
Toulias, Thomas
Powiązania:
https://bibliotekanauki.pl/articles/729734.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
γ-order Normal distribution
cumulative distribution
truncated distribution
hazard rate
Maximum likelihood estimation
Opis:
The introduced three parameter (position μ, scale ∑ and shape γ) multivariate generalized Normal distribution (γ-GND) is based on a strong theoretical background and emerged from Logarithmic Sobolev Inequalities. It includes a number of well known distributions such as the multivariate Uniform, Normal, Laplace and the degenerated Dirac distributions. In this paper, the cumulative distribution, the truncated distribution and the hazard rate of the γ-GND are presented. In addition, the Maximum Likelihood Estimation (MLE) method is discussed in both the univariate and multivariate cases and asymptotic results are presented.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2014, 34, 1-2; 143-158
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling air cargo market – a gravity method
Modelowanie rynku lotniczego transportu towarowego – metoda grawitacyjna
Autorzy:
Mączka, M.
Powiązania:
https://bibliotekanauki.pl/articles/213257.pdf
Data publikacji:
2015
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Lotnictwa
Tematy:
air transport
gravity model
maximum likelihood estimation
Opis:
The gravity method and its expansions in transport economics, analogical to Newton’s gravity law are not the most modern approach to demand estimation. They are, however, simple and applicable to the publicly available data as those of EUROSTAT or national statistics sources. Main assumption is that the trips (or in this case flows of cargo) are produced at an origin and “attracted” to destination according to some identifiable pattern. It is possible to suggest – but not ensure as in Newton’s Physics – these patterns, provided a complete list of socioeconomic data (GDP, population, ...) or other quantifiable conditions in the range (catchment) of all locations (nodes), combined with a series of corresponding flow volumes using a non-linear equation. Each variable of the explanatory side of the equation is equipped with a weight (in econometrics called a parameter). Due to non-linear form of the equation parameters are found using an Iterative calculation that is typically performed by the Maximum Likelihood Estimation (popularized by Ronald Fisher). Validity of calculations are checked using statistical measures of proportionate reduction in uncertainty.
Metoda grawitacyjna i jej inne wariacje w ekonomii transportu, będące analogią wobec newtonowskiego powszechnego prawa ciążenia, nie są najnowszym narzędziem do szacowania popytu. Są, natomiast, proste i możliwe do zastosowania mając do dyspozycji publicznie dostępne dane takie jak te pochodzące z EUROSTAT lub innych źródeł państwowych. Głównym założeniem metody jest to, że podróże (lub poziom przepływu towarów) są generowane w jednych lokalizacjach i są „przyciągane” do pozostałych lokalizacji zgodnie z pewnym identyfikowalnym wzorcem. Możliwe jest zaproponowanie – ale nie ustalenie jak w newtonowskiej fizyce – tych wzorców pod warunkiem, że jest dostępna pełna lista danych socjoekonomicznych (PKB, ludność, …) lub innych policzalnych warunków w zasięgu (strefie ciążenia) wszystkich lokalizacji (węzłów) powiązana z odpowiadającymi im poziomami przepływów przy użyciu funkcji nieliniowej. Każda ze zmiennych ulokowanych po stronie równania, która opisuje zjawisko (przepływy) jest wyposażona w wagę (w ekonometrii zwaną parametrem). Z powodu nieliniowej formy funkcji parametry są obliczane iteracyjnie, co jest najczęściej wykonywane metodą największej wiarygodności. Trafność dopasowania modelu jest sprawdzana metodami statystycznymi badającymi proporcje redukcji niepewności.
Źródło:
Prace Instytutu Lotnictwa; 2015, 2 (239); 23-29
0509-6669
2300-5408
Pojawia się w:
Prace Instytutu Lotnictwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Do multi-factor models produce robustresults? Econometric and diagnostic issues in equity risk premia study
Analiza diagnostyczna wieloczynnikowych modeli oszacowań premii za ryzyko akcyjne
Autorzy:
Sakowski, Paweł
Ślepaczuk, Robert
Wywiał, Mateusz
Powiązania:
https://bibliotekanauki.pl/articles/585858.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Asset pricing models
Autocorrelation
Collinearity
Diagnostics
Econometric
Equity risk premia
General Methods of Moments (GMM)
Heteroscedasticity
Maximum Likelihood Estimation (MLE)
Multi-factor models
Normality
Ordinary Least Squares (OLS)
Outliers
Autokorelacja
Diagnostyka modeli
Heteroskedastyczność
Metoda najmniejszych kwadratów
Metoda największej wiarygodności
Modele wieloczynnikowe
Modele wyceny aktywów
Obserwacje odstające
Premia za ryzyko akcyjne
Uogólniona metoda momentów
Współliniowość
Opis:
In recent decades numerous studies verified empirical validity of the CAPM model. Many of them showed that CAPM alone is not able to explain cross-sectional variation of stock returns. Researchers revealed various risk factors which explained outperformance of given groups of stocks or proposed modifications to existing multi-factor models. Surprisingly, we hardly find any discussion in financial literature about potential drawbacks of applying standard OLS method to estimate parameters of such models. Yet, the question of robustness of OLS results to invalid assumptions shouldn't be ignored. This article aims to address diagnostic and econometric issues which can influence results of a time-series multifactor model. Based on the preliminary results of a five-factor model for 81 emerging and developed equity indices [Sakowski, Ślepaczuk and Wywiał, 2016a] obtained with OLS we check the robustness of these results to popular violations of OLS assumptions. We find autocorrelation of error term, heteroscedasticity and ARCH effects for most of 81 regressions and apply an AR-GARCH model using MLE to remove them. We also identify outliers and diagnose collinearity problems. Additionally, we apply GMM to avoid strong assumption of IID error term. Finally, we present comparison of parameters estimates and Rsquared values obtained by three different methods of estimation: OLS, MLE and GMM. We find that results do not differ substantially between these three methods and allow to draw the same conclusions from the investigated five-factor model.
W ostatnich latach liczne prace podejmowały temat empirycznej weryfikacji skuteczności modelu CAPM. Ich autorzy zaproponowali co najmniej kilka czynników ryzyka, które są w stanie wyjaśnić zróżnicowanie przekrojowe zwrotów rozmaitych aktywów finansowych. Zaproponowano także liczne modyfikacje istniejących modeli wieloczynnikowych. W bogatej literaturze rzadko jednak spotykamy dyskusję na temat konsekwencji stosowania standardowej Metody Najmniejszych Kwadratów do oszacowania parametrów tych modeli. Pytanie o odporność oszacowań wieloczynnikowych modeli wyceny aktywów finansowych uzyskanych za pomocą MNK na niespełnienie założeń nie powinno być jednak ignorowane. Celem niniejszego artykułu jest analiza diagnostyczna wyników oszacowań modelu pięcioczynnikowego dla 81 indeksów giełdowych [Sakowski, Ślepaczuk i Wywiał, 2016a]. Weryfikacja założeń modelu wskazuje na obecność autokorelacji i heteroskedastyczności czynnika losowego, a także występowanie efektów ARCH. Analiza obejmuje także identyfikację obserwacji wpływowych oraz weryfikację obecności współliniowości wśród czynników. W końcowej części prezentujemy porównanie oszacowań uzyskanych za pomocą Metody Najmniejszych Kwadratów, Metody Największej Wiarygodności oraz Uogólnionej Metody Momentów. Wszystkie trzy metody dają bardzo zbliżone oszacowania i pozwalają wyciągnąć ten sam zestaw wniosków dla analizowanego modelu pięcioczynnikowego.
Źródło:
Studia Ekonomiczne; 2016, 301; 203-227
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O aproksymacjach funkcji przejścia dla jednowymiarowych procesów dyfuzji
On Approximation of Transition Density for One-Dimensional Diffusion Processes
Autorzy:
Szczepocki, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1050519.pdf
Data publikacji:
2016-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
stochastyczne równania różniczkowe
procesy dyfuzji
estymacja metodą największej wiarygodności
stochastic differential equations
diffusion processes
maximum likelihood estimation
Opis:
Metody estymacji parametrów stochastycznych równań różniczkowych dla ciągłych procesów dyfuzji obserwowanych w dyskretnych odstępach czasu można podzielić na dwie kategorie: metody oparte na maksymalizacji funkcji wiarygodności i wykorzystujące uogólnioną metodę momentów. Zazwyczaj nie znamy jednak gęstości przejścia potrzebnej do konstrukcji funkcji wiarygodności, ani odpowiedniej ilości momentów teoretycznych, aby skonstruować odpowiednią liczbę warunków. Dlatego powstało wiele metod, które próbują przybliżyć nieznaną funkcję przejścia. Celem artykułu jest porównanie własności wybranych metod aproksymacji jednowymiarowych jednorodnych procesów dyfuzji.
Estimation methods for stochastic differentia equations driver by discretely sampled continuous diffusion processes may be split into two categories: maximum likelihood methods and methods based on the general method of moments. Usually, one does not know neither likelihood function nor theoretical moments of diffusion process and cannot construct estimators. Therefore many methods was developed to approximating unknown transition density. The aim of article is to compare properties of selected approaches, indicate their merits and limitations.
Źródło:
Przegląd Statystyczny; 2016, 63, 2; 173-190
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie metod estymacji parametru w klasie wybranych dwuwymiarowych kopuli archimedesowych
The comparison of parameter estimation methods in the class of some two-dimensional archimedean copulas
Autorzy:
Stryjek, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/588422.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Estymacja przedziałowa
Kanoniczna metoda największej wiarygodności
Kopula
Metoda minimalnej odległości
τ-Kendalla
Canonical maximum likelihood method
Copula
Interval estimation
Kendall’s τ
Minimum distance method
Opis:
Celem artykułu jest porównanie dokładności estymacji parametru kopuli za pomocą kanonicznej metody największej wiarygodności, metody kalibracji, metody estymacji przedziałowej i metody minimalnej odległości. Analiza polegała na komputerowej symulacji 250-elementowych prób z rozkładu o funkcji łączącej Claytona, Gumbela, Yagera i Farlie-Gumbel-Morgensterna dla 20 losowo wybranych parametrów tych kopuli. Kryterium porównania metod stanowiło obciążenie i błąd średniokwadratowy estymatorów.
The aim of the paper is to compare the accuracy of copula parameter estimation methods: canonical maximum likelihood method, method of calibration using Kendall’s [Tau], interval estimation method and minimum distance method. The analysis was based on computer simulations of samples (every sample consisted of 250 elements) generated from distributions described by Clayton, Gumbel, Yager and Farlie-Gumbel- -Morgenstern copulas and 20 randomly selected parameters for them. The methods were compared by the measures: bias and mean squared error of the estimator.
Źródło:
Studia Ekonomiczne; 2016, 297; 176-187
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies