Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "inférence" wg kryterium: Temat


Tytuł:
Comparison of tree-based methods used in survival data
Autorzy:
Yabaci, Aysegul
Sigirli, Deniz
Powiązania:
https://bibliotekanauki.pl/articles/2034119.pdf
Data publikacji:
2022-03-15
Wydawca:
Główny Urząd Statystyczny
Tematy:
tree-based methods
conditional inference trees
conditional inference forests
random survival forests
Opis:
Survival trees and forests are popular non-parametric alternatives to parametric and semiparametric survival models. Conditional inference trees (Ctree) form a non-parametric class of regression trees embedding tree-structured regression models into a well-defined theory of conditional inference procedures. The Ctree is applicable in a varietyof regression-related issues, involving nominal, ordinal, numeric, censored, as well as multivariate response variables and arbitrary measurement scales of covariates. Conditional inference forests (Cforest) consitute a survival forest method which combines a large number of Ctrees. The Cforest provides a unified and flexible framework for ensemble learning in the presence of censoring. The random survival forests (RSF) methodology extends the random forests method enabling the approximation of rich classes of functions while maintaining generalisation errors low. In the present study, the Ctree, Cforest and RSF methods are discussed in detail and the performances of the survival forest methods, namely the Cforest and RSF have been compared with a simulation study. The results of the simulation demonstrate that the RSF method with a log-rank score distinction criteria outperforms the Cforest and the RSF with log-rank distinction criteria.
Źródło:
Statistics in Transition new series; 2022, 23, 1; 21-38
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Statistical inference on changes in income polarization in Poland
Wnioskowanie statystyczne o zmianach polaryzacji dochodowej w Polsce
Autorzy:
Brzeziński, Michał
Powiązania:
https://bibliotekanauki.pl/articles/1830746.pdf
Data publikacji:
2011-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
polarization
income distribution
statistical inference
Polska
Opis:
This paper estimates a popular measure of economic polarization (DER index) using Polish income micro-data from the Household Budget Survey (HBS) study for the period from 1998 to 2007. Using asymptotically distribution-free statistical inference we test whether the changes in the values of the estimated indices are statistically significant. Results show that during the period under study DER index has increased in the range from 4.9 to 6.5%, depending on the polarization-sensitivity parameter α. For the period 1998-2007, the changes in the DER index with α = 1, for which polarization is empirically distinguishable from inequality, are statistically significant at conventional levels. It is found, however, that for some sub-periods changes in the DER index are not statistically significant.
W artykule dokonano estymacji popularnej miary polaryzacji ekonomicznej (indeks DER) dla danych o dochodach z polskich Badań Budżetów Gospodarstw Domowych w okresie 1998-2007. Używając niezależnych od rozkładu metod wnioskowania statystycznego przeprowadzono testy istotności różnic w wartościach estymowanych wskaźników. Wyniki pokazują, że w badanym okresie wartość indeksu DER wzrosła pomiędzy 4,9 a 6,5% w zależności od wartości parametru α mierzącego wagę przykładaną do polaryzacji. Zmiany indeksu DER dla α = 1, dla którego polaryzacja zachowuje się empirycznie w sposób odmienny od nierówności, są w badanym okresie statystycznie istotne. W artykule pokazano jednak, że niektóre ze zmian indeksu DER dla krótszych okresów nie są istotne statystycznie.
Źródło:
Przegląd Statystyczny; 2011, 58, 1-2; 102-113
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Noise and bias - some controversies raised by the book 'Noise: A Flaw in Human Judgment', written by Daniel Kahneman, Olivier Sibony, Cass R. Sunstein
Autorzy:
Szreder, Mirosław
Powiązania:
https://bibliotekanauki.pl/articles/2082251.pdf
Data publikacji:
2022-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
noise
bias
mean squared error
statistical inference
Opis:
The paper reviews and discusses the statistical aspects of the phenomenon called 'noise' which Daniel Kahneman, the Nobel Prize winning psychologist, and his colleagues present in their new book entitled 'Noise: A Flaw in Human Judgment'. Noise is understood by the authors as an unexpected and undesirable variation present in people's judgments. The variability of judgments influences decisions which are made on the basis of those judgments and, consequently, may have a negative impact on the operations of various institutions. This is the main concern presented and analyzed in this book. The objective of this paper is to look at the relationship between bias and noise - the two major components of the mean squared error (MSE) - from a different perspective which is absent in the book. Although the author agrees that each of the two components contributes equally to MSE, he claims that in some circumstances a reduction of noise can make accurate inference not less, but more difficult. It is justified that the actual impact of noise cannot be accurately determined without considering both bias and noise simultaneously.
Źródło:
Przegląd Statystyczny; 2022, 69, 1; 39-49
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Change-point detection in CO2 emission-energy consumption nexus using a recursive Bayesian estimation approach
Autorzy:
Awe, Olushina Olawale
Adepoju, Abosede Adedayo
Powiązania:
https://bibliotekanauki.pl/articles/1358349.pdf
Data publikacji:
2020-03-23
Wydawca:
Główny Urząd Statystyczny
Tematy:
dynamic model
Bayesian inference
CO2
climate change
energy
Opis:
This article focuses on the synthesis of conditional dependence structure of recursive Bayesian estimation of dynamic state space models with time-varying parameters using a newly modified recursive Bayesian algorithm. The results of empirical applications to climate data from Nigeria reveals that the relationship between energy consumption and carbon dioxide emission in Nigeria reached the lowest peak in the late 1980s and the highest peak in early 2000. For South Africa, the slope trajectory of the model descended to the lowest in the mid-1990s and attained the highest peak in early 2000. These changepoints can be attributed to the economic growth, regime changes, anthropogenic activities, vehicular emissions, population growth and industrial revolution in these countries. These results have implications on climate change prediction and global warming in both countries, and also shows that recursive Bayesian dynamic model with time-varying parameters is suitable for statistical inference in climate change and policy analysis.
Źródło:
Statistics in Transition new series; 2020, 21, 1; 123-136
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The paradigm of statistical inference and the paradigm of statistical learning
Autorzy:
Pociecha, Józef
Powiązania:
https://bibliotekanauki.pl/articles/1806781.pdf
Data publikacji:
2021-08-24
Wydawca:
Główny Urząd Statystyczny
Tematy:
paradigm theory
learning from data
statistical inference
statistical learning
Opis:
The starting point for the presentation of the similarities and differences between the principles of conducting statistical research according to the rules of both statistical inference and statistical learning is the paradigm theory, formulated by Thomas Kuhn. In the first section of this paper, the essential features of the statistical inference paradigm are characterised, with particular attention devoted to its limitations in contemporary statistical research. Subsequently, the article presents the challenges faced by this research jointly with the expanding opportunities for their effective reduction. The essence of learning from data is discussed and the principles of statistical learning are defined. Moreover, significant features of the statistical learning paradigm are formulated in the context of the differences between the statistical inference paradigm and the statistical learning paradigm. It is emphasised that the statistical learning paradigm, as the more universal one of the two discussed, broadens the possibilities of conducting statistical research, especially in socio-economic sciences.
Źródło:
Przegląd Statystyczny; 2021, 68, 1; 1-16
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Bayesian Small Area Model with Dirichlet Processes on the Responses
Autorzy:
Yin, Jiani
Nandram, Balgobin
Powiązania:
https://bibliotekanauki.pl/articles/1058988.pdf
Data publikacji:
2020-09-04
Wydawca:
Główny Urząd Statystyczny
Tematy:
Bayesian computation
bootstrap
predictive inference
robust modeling
computational and model diagnostics
survey data
Opis:
Typically survey data have responses with gaps, outliers and ties, and the distributions of the responses might be skewed. Usually, in small area estimation, predictive inference is done using a two-stage Bayesian model with normality at both levels (responses and area means). This is the Scott-Smith (S-S) model and it may not be robust against these features. Another model that can be used to provide a more robust structure is the two-stage Dirichlet process mixture (DPM) model, which has independent normal distributions on the responses and a single Dirichlet process on the area means. However, this model does not accommodate gaps, outliers and ties in the survey data directly. Because this DPM model has a normal distribution on the responses, it is unlikely to be realized in practice, and this is the problem we tackle in this paper. Therefore, we propose a two-stage non-parametric Bayesian model with several independent Dirichlet processes at the first stage that represents the data, thereby accommodating some of the difficulties with survey data and permitting a more robust predictive inference. This model has a Gaussian (normal) distribution on the area means, and so we call it the DPG model. Therefore, the DPM model and the DPG model are essentially the opposite of each other and they are both different from the S-S model. Among the three models, the DPG model gives us the best head-start to accommodate the features of the survey data. For Bayesian predictive inference, we need to integrate two data sets, one with the responses and other with area sizes. An application on body mass index, which is integrated with census data, and a simulation study are used to compare the three models (S-S, DPM, DPG); we show that the DPG model might be preferred.
Źródło:
Statistics in Transition new series; 2020, 21, 3; 1-19
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of confidence intervals for variance components in an unbalanced one-way random effects model
Autorzy:
Jiratampradab, Arisa
Supapakorn, Thidaporn
Suntornchost, Jiraphan
Powiązania:
https://bibliotekanauki.pl/articles/2156992.pdf
Data publikacji:
2022-12-15
Wydawca:
Główny Urząd Statystyczny
Tematy:
variance components
unbalanced one-way random effects model
pivotal quantity
fiducial inference
coverage probability
Opis:
The purpose of this paper is to study and compare the methods for constructing confidence intervals for variance components in an unbalanced one-way random effects model. The methods are based on a classical exact, generalised pivotal quantity, a fiducial inference and a fiducial generalised pivotal quantity. The comparison of criteria involves the empirical coverage probability that maintains at the nominal confidence level of 0.95 and the shortest average length of the confidence interval. The simulation results show that the method based on the generalised pivotal quantity and the fiducial inference perform very well in terms of both the empirical coverage probability and the average length of the confidence interval. The classical exact method performs well in some situations, while the fiducial generalised pivotal quantity performs well in a very unbalanced design. Therefore, the method based on the generalised pivotal quantity is recommended for all situations.
Źródło:
Statistics in Transition new series; 2022, 23, 4; 149-160
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Właściwości wybranych metod małopróbkowego wnioskowania o rzędzie kointegracji
Small sample inference on cointegration rank
Autorzy:
Kębłowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/422941.pdf
Data publikacji:
2013
Wydawca:
Główny Urząd Statystyczny
Tematy:
wnioskowanie małopróbkowe
rząd kointegracji
forma kanoniczna
bliskie hipotezy alternatywne
small sample inference
cointegration rank
canonical form
local alternatives
Opis:
W artykule przedstawiono wyniki porównania właściwości małopróbkowych testów rzędu kointegracji. Przeprowadzone eksperymenty Monte Carlo dla różnych procesów generujących dane i różnych obszarów w przestrzeni parametrycznej wskazują, iż (i) test ilorazu wiarygodności z poprawką Bartletta posiada zwykle najlepsze własności, (ii) zastosowanie metody bootstrap dla testu z poprawką Bartletta nie prowadzi do poprawy własności testu, (iii) test asymptotyczny oraz testy z poprawkami na liczbę stopni swobody cechują się zwykle znacznym zniekształceniem rozmiaru testu, (iv) zastosowanie poprawki Bartletta prowadzi do nieznacznej poprawy mocy testu, (v) korelacja składników losowych komponentu stacjonarnego i niestacjonarnego formy kanonicznej powoduje znaczący wzrost mocy rozważanych testów oraz wzrost rozmiaru empirycznego testów, przy czym jedynie w przypadku testu z poprawką Bartletta oraz testu boostrapowego rozmiar empiryczny testu dąży do rozmiaru nominalnego.
In the paper, properties of small sample cointegration rank tests are compared. The Monte Carlo experiments conducted for different data generating processes and areas in the parametric space indicate that (i) the likelihood ratio test with Bartlett correction usually have the best properties, (ii) bootstrapping the Bartlett corrected test does not lead to improvement of test properties, (iii) size of asymptotic test and tests with degrees-of-freedom correction is usually heavily distorted, (iv) the Bartlett correction can lead to a small improvement of power, (v) correlation of error terms between stationary and non-stationary component of canonical form lead to a significant increase of power and size of test, but only size of Bartlett corrected test and bootstrapped test converge to nominal size.
Źródło:
Przegląd Statystyczny; 2013, 60, 2; 163-185
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie determinant pozostawania bez pracy osób młodych z wykorzystaniem semiparametrycznego modelu Coxa
An analysis of unemployment duration determinants among young people using semiparametric Cox model
Autorzy:
Grzenda, Wioletta
Powiązania:
https://bibliotekanauki.pl/articles/422828.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
bezrobocie
semiparametryczny model Coxa
wnioskowanie bayesowskie
metody MCMC
unemployment
semiparametric Cox model
Bayesian inference
Markov chain Monte Carlo method
Opis:
Obecnie wśród osób rozpoczynających karierę zawodową obserwuje się szczególnie dużą wartość wskaźnika bezrobocia. Celem niniejszego opracowania jest identyfikacja czynników demograficznych oraz społeczno-ekonomicznych wpływających na długość czasu pozostawania bez pracy tych osób. W badaniu wykorzystano m.in. bayesowski semiparametryczny model Coxa dla danych indywidualnych. Wykorzystanie modelu przeżycia daje możliwość analizy jednoczesnego wpływu wybranych zmiennych objaśniających na czas pozostawania bez pracy. Natomiast podejście bayesowskie umożliwia uwzględnienie w badaniu, za pomocą rozkładów a priori, dodatkowej informacji spoza próby. Estymację modeli przeprowadzono z wykorzystaniem metod Monte Carlo opartych na łańcuchach Markowa, a dokładniej algorytmu ARMS.
High unemployment rates are observed among people beginning job careers nowadays. The aim of the work is to identify demographic and socio-economic factors influencing the unemployment duration in this age group. In this research, Bayesian semiparametric Cox model for individual data has been used. The advantage of survival model is the possibility of the analysis of the impact of selected independent variables on unemployment duration. The Bayesian approach with a priori distribution makes the use of out of the sample knowledge possible. The model has been estimated using Markov chain Monte Carlo method with ARMS algorithm.
Źródło:
Przegląd Statystyczny; 2012, 59, numer specjalny 1; 123-139
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probability vs. Nonprobability Sampling: From the Birth of Survey Sampling to the Present Day
Autorzy:
Kalton, Graham
Powiązania:
https://bibliotekanauki.pl/articles/18105097.pdf
Data publikacji:
2023-06-13
Wydawca:
Główny Urząd Statystyczny
Tematy:
Anders Kiaer
Jerzy Neyman
representative sampling
quota sampling
hard-to-survey populations
model-dependent inference
internet surveys
big data
administrative records
Opis:
At the beginning of the 20th century, there was an active debate about random selection of units versus purposive selection of groups of units for survey samples. Neyman's (1934) paper tilted the balance strongly towards varieties of probability sampling combined with design-based inference, and most national statistical offices have adopted this method for their major surveys. However, nonprobability sampling has remained in widespread use in many areas of application, and over time there have been challenges to the Neyman paradigm. In recent years, the balance has tilted towards greater use of nonprobability sampling for several reasons, including: the growing imperfections and costs in applying probability sample designs; the emergence of the internet and other sources for obtaining survey data from very large samples at low cost and at high speed; and the current ability to apply advanced methods for calibrating nonprobability samples to conform to external population controls. This paper presents an overview of the history of the use of probability and nonprobability sampling from the birth of survey sampling at the time of A. N. Kiaer (1895) to the present day.
Źródło:
Statistics in Transition new series; 2023, 24, 3; 1-22
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozwój polskiej myśli statystycznej w naukach ekonomicznych
The development of Polish statistics in economic sciences
Autorzy:
Jajuga, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/422846.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
statystyka
klasyfikacja
analiza danych wielowymiarowych
wnioskowanie statystyczne
statystyka małych obszarów
statistics
classification
multivariate data analysis
statistical inference
small area statistics
Opis:
W artykule przedstawione są postacie i osiągnięcia polskich statystyków prowadzących badania w naukach ekonomicznych. Odrębnie analizowano okres przed 1945 oraz po 1945. Analiza tego drugiego okresu prowadzona jest na podstawie klasyfikacji obejmującej kilka obszarów badawczych.
The paper presents main scientific achievements of Polish statisticians conducting research in economic sciences. Two periods are distinguished: before and after 1945. Analysis for the second period is conducted in the framework of classification into several research areas.
Źródło:
Przegląd Statystyczny; 2012, 59, numer specjalny 1; 53-60
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawy budowy skutecznych metod ochrony statystycznych baz danych
Autorzy:
Szafrański, Bolesław
Powiązania:
https://bibliotekanauki.pl/articles/543671.pdf
Data publikacji:
2017
Wydawca:
Główny Urząd Statystyczny
Tematy:
database
data protection
controlling
access
flow and inference
statistical database
baza danych
ochrona danych
sterowanie: dostępem, przepływem i wnioskowaniem
statystyczna baza danych
Opis:
Głównym celem artykułu jest zwrócenie uwagi na znaczenie prac badawczo-rozwojowych dotyczących metod ochrony statystycznych baz danych w sytuacji, gdy uniwersalne systemy zarządzania bazami danych nie mają mechanizmów wspierających w wymaganym stopniu bezpieczeństwa baz statystycznych. W pracy przedstawiono podstawowe modele sterowania dostępem i przepływem danych oraz wykazano ich ograniczoną przydatność dla statystycznych baz danych. Omówiono też specyfikę problemu bezpieczeństwa tego typu baz danych oraz metod ataku na nie i ich ochrony. W konkluzji stwierdzono, że w Polsce nie obowiązują powszechnie uznane, teoretyczne podstawy budowy bezpiecznych mechanizmów ochrony statystycznych baz danych. Prace dotyczące ochrony danych mają charakter przyczynkarski, odległy od możliwości komercyjnego wdrożenia uzyskanych wyników. Istnieje zatem potrzeba prowadzenia prac interdyscyplinarnych GUS i uczelnianych zespołów badawczych.
The main aim of this article was to highlight to the importance of research and experimental development studies concerning methods for the protection of statistical databases, when the universal database management systems do not provide the mechanisms supporting the required security level of statistical bases. The study presents the basic models of controlling access and data flow, and it proves their limited relevance to statistical databases. Moreover, the specific nature of security issues as well as methods of attacking and protecting such databases were discussed. In conclusion, it was stated that Poland does not apply universally recognized, theoretical basics for the development of secure protection mechanisms of statistical databases. The work on data protection was fragmentary, distant from the possibilities of commercial implementation of the results. Therefore, there is a need for interdisciplinary work of the CSO and academic research teams.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2017, 3
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Szanse i iluzje dotyczące korzystania z dużych prób we wnioskowaniu statystycznym
Opportunities and illusions of using large samples in statistical inference
Autorzy:
Szreder, Mirosław
Powiązania:
https://bibliotekanauki.pl/articles/2106803.pdf
Data publikacji:
2022-08-31
Wydawca:
Główny Urząd Statystyczny
Tematy:
wnioskowanie statystyczne
błąd próbkowania
błąd losowy
liczebność próby
istotność statystyczna
p-value
statistical inference
sampling error
random error
sample size
statistical significance
Opis:
Teoria wnioskowania statystycznego jasno określa korzyści związane z dużą liczebnością próby badawczej. Wraz ze wzrostem wielkości próby maleje ilość błędów ocen szacowanych parametrów populacji (zwiększa się precyzja estymacji), a także rosną wartości mocy testów wykorzystywanych do weryfikacji hipotez statystycznych. Współczesne możliwości łatwego dotarcia do dużych prób badawczych (np. paneli internetowych), a także korzystania z coraz bardziej zaawansowanego i przyjaznego dla użytkownika oprogramowania statystycznego sprzyjają niedostrzeganiu zagrożeń dla wnioskowania statystycznego, jakie wiążą się z dużymi liczebnie próbami. Część badaczy ulega iluzji, że duża próba jest w stanie zniwelować i rozproszyć nie tylko błąd losowy, charakterystyczny dla każdej techniki losowania próby, lecz także błędy nielosowe. Znaczenie dużej liczebności próby jest ponadto jednym z ważnych aspektów toczącej się od kilkunastu lat dyskusji na temat istotności statystycznej (p-value) oraz problemów z jej rozstrzyganiem i interpretowaniem. Celem opracowania jest wskazanie i omówienie konsekwencji dostrzegania w dużych próbach statystycznych jedynie szans, a pomijanie wyzwań i zagrożeń wynikających z ich stosowania. W artykule pokazano, że duża liczebność próby, której doboru dokonano za pomocą techniki nieprobabilistycznej, nie może stanowić alternatywy dla wyboru losowego. W szczególności dotyczy to internetowych paneli wolontariuszy deklarujących chęć udziału w badaniu. Wskazano ponadto na znaczenie komponentu nielosowego w błędzie próbkowania, który nie jest malejącą funkcją liczebności próby. W odniesieniu zaś do współczesnych problemów weryfikacji hipotez nakreślono i zilustrowano przykładem naukowy i etyczny wymiar podążania za istotnością statystyczną z wykorzystaniem dużych liczebnie prób lub wielokrotnego próbkowania.
The theory of statistical inference clearly describes the benefits of large samples. The larger the sample size, the fewer standard errors of the estimated population parameters (the precision of the estimation improves) and the values of the power of statistical tests in hypothesis testing increase. Today’s easy access not only to large samples (e.g. web panels) but also to more advanced and user-friendly statistical software may obscure the potential threats faced by statistical inference based on large samples. Some researchers seem to be under the illusion that large samples can reduce both random errors, typical for any sampling technique, as well as non-random errors. Additionally, the role of a large sample size is an important aspect of the much discussed in the recent years issue of statistical significance (p-value) and the problems related to its determination and interpretation. The aim of the paper is to present and discuss the consequences of focusing solely on the advantages of large samples and ignoring any threats and challenges they pose to statistical inference. The study shows that a large-size sample collected using one of the non-random sampling techniques cannot be an alternative to random sampling. This particularly applies to online panels of volunteers willing to participate in a survey. The paper also shows that the sampling error may contain a non-random component which should not be regarded as a function of the sample size. As for the contemporary challenges related to testing hypotheses, the study discusses and exemplifies the scientific and ethical aspects of searching for statistical significance using large samples or multiple sampling.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2022, 67, 8; 1-16
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On Bayesian Inference for Almost Periodic in Mean Autoregressive Models
Wnioskowanie bayesowskie dla zmiennej w czasie prawie okresowej funkcji wartości oczekiwanej w modelu autoregresji
Autorzy:
Lenart, Łukasz
Mazur, Błażej
Powiązania:
https://bibliotekanauki.pl/articles/1050550.pdf
Data publikacji:
2016-09-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
Bayesian inference
almost periodic mean function
autoregressive model
MCMC sampler
wnioskowanie bayesowskie
funkcja prawie okresowa wartości oczekiwanej
model autoregresji
próbnik MCMC
Opis:
The goal of the paper is to discuss Bayesian estimation of a class of univariate time-series models being able to represent complicated patterns of “cyclical” fluctuations in mean function. We highlight problems that arise in Bayesian estimation of parametric time-series model using the Flexible Fourier Form of Gallant (1981). We demonstrate that the resulting posterior is likely to be highly multimodal, therefore standard Markov Chain Monte Carlo (MCMC in short) methods might fail to explore the whole posterior, especially when the modes are separated. We show that the multimodality is actually an issue using the exact solution (i.e. an analytical marginal posterior) in an approximate model. We address that problem using two essential steps. Firstly, we integrate the posterior with respect to amplitude parameters, which can be carried out analytically. Secondly, we propose a non-parametrically motivated proposal for the frequency parameters. This allows for construction of an improved MCMC sampler that effectively explores the space of all the model parameters, with the amplitudes sampled by the direct approach outside the MCMC chain. We illustrate the problem using simulations and demonstrate our solution using two real-data examples.
Źródło:
Przegląd Statystyczny; 2016, 63, 3; 255-272
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wnioskowanie o rzędzie kointegracji dla modelu VEC ze składnikiem losowym z rozkładu Su Johnsona
Inference on cointegration rank for a VEC model with the Su Johnson error distribution
Autorzy:
Kębłowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/422718.pdf
Data publikacji:
2013
Wydawca:
Główny Urząd Statystyczny
Tematy:
rozkład reszt o grubych ogonach
rozkład Johnsona
wnioskowanie małopróbkowe
rząd kointegracji
fat-tailed error distribution
Johnson distribution
small sample inference
cointegration rank
Opis:
Artykuł przedstawia wyniki analiz Monte Carlo własności małopróbkowych testów rzędu kointegracji dla modelu VEC ze składnikiem losowym pochodzącym z rozkładu skośnego, leptokurtycznego. Analiza przeprowadzana jest dla testu asymptotycznego, testów z poprawkami na liczbę stopni swobody, testu z poprawką Bartletta, testu bootstrapowego oraz testu bootstrapowego z poprawką Bartletta w roli surogatu podwójnego testu bootstrapowego. Wyniki eksperymentów wskazują, że testy liczby relacji kointegrujących oparte na regule ilorazu wiarygodności są odporne ze względu na rozmiar jak i moc testu, gdy składnik losowy pochodzi z rozkładu skośnego, leptokurtycznego, aproksymowanego rozkładem Su Johnsona, zamiast z wielowymiarowego rozkładu normalnego.
Performance of small-sample cointegration rank tests is investigated within the framework of a VEC model with skewed fat-tailed error distribution. The Monte Carlo analysis is conducted for: asymptotic test, tests with degrees-of-freedom corrections, test with Bartlett correction, bootstrap test, and bootstrap test with Bartlett correction, as a surrogate of double bootstrap test. The results indicate that the small-sample cointegration rank tests are robust to skewed fat-tailed error distribution, approximated by Su Johnson distribution, with respect to size and power of these tests.
Źródło:
Przegląd Statystyczny; 2013, 60, 2; 235-249
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies