Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "kernel estimation" wg kryterium: Temat


Wyświetlanie 1-35 z 35
Tytuł:
Proposal of New Cluster Analysis Algorithm
Propozycja nowego algorytmu do analizy skupień
Autorzy:
Korzeniewski, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/905670.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
cluster analysis
density estimation
kernel estimation
Epanechnikov kernel
Opis:
One of well-known groups of cluster analysis methods is the group of methods based on density estimation. In the paper we propose a new method of defining dusters which consists of two steps. In the first step we find local maxima of the joint distribution thus establishing clusters centres. In the second step we assign observations to one of existing clusters centres. The number of clusters is assumed to be known. In both steps we use similar technique based on the kernel density estimator with the Epanechnikov kernel. The performance of the method is analyzed in an example of application to the Gordon (1999) data. In the analysis the Rousseeuw indices are used to assess clusters cohesion as well as and some comparisons with other methods of defining clusters are presented. The results look promising.
Jedną z dobrze znanych grup metod analizy skupień są metody oparte na szacowaniu gęstości. W artykule zaproponowana jest nowa metoda wyszukiwania skupień, która składa się z dwóch kroków. W pierwszym kroku znajdujemy maksima lokalne rozkładu łącznego, które przyjmujemy jako centra skupień. W drugim kroku każda obserwacja przyłączana jest do jednego z centrów. Zakładamy z góry liczbę skupień. W obydwu krokach używamy tej samej techniki opartej na estymatorze jądrowym funkcji gęstości z jądrem Epanecznikowa. Działanie metody jest przeanalizowane na przykładzie danych Gordona (1999). W analizie wykorzystano indeksy Rousseeuwa spoistości skupień, jak również przedstawiono porównanie z innymi metodami analizowania skupień. Wyniki wyglądają obiecująco.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2006, 196
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probability Function Estimation for the Maximum Precipitation Model Using Kernel Estimators
Autorzy:
Karczewski, Maciej
Kaźmierczak, Bartosz
Michalski, Andrzej
Kuchar, Leszek
Powiązania:
https://bibliotekanauki.pl/articles/2174916.pdf
Data publikacji:
2022
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
maximum precipitation
kernel estimation
hydrology
Opis:
The distribution of maximum rainfall level is not a homogeneous phenomenon and is often characterised by multimodality and often the phenomenon of the heavy right-hand tail. Modelling this phenomenon using classic probability distributions leads to ignoring multimodality, thus underestimating or overestimating the predicted values in the tail tails – the most important from the point of view of safe dimensioning of drainage systems. To avoid the difficulties mentioned above, a non-parametric kernel estimator method of maximum precipitation density function was used (in the example of rainfall data from a selected station in Poland). The methodology proposed in the paper (for use on any rainfall data from other meteorological stations) will allow the development of more reliable local models of maximum precipitation.
Źródło:
Rocznik Ochrona Środowiska; 2022, 24; 260--275
1506-218X
Pojawia się w:
Rocznik Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Konwergencja bezrobocia w Polsce w latach 1999-2006
The Convergence of Unemployment Rates in Poland in 1999-2006
Autorzy:
Tyrowicz, Joanna
Wójcik, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/574451.pdf
Data publikacji:
2007-10-31
Wydawca:
Szkoła Główna Handlowa w Warszawie. Kolegium Analiz Ekonomicznych
Tematy:
unemployment
regional convergence
kernel estimation
Opis:
The article discusses the convergence of unemployment rates at the county level in Poland in 1999-2006, on the basis of available statistical data. The authors examine both β- and δ-convergence; the former involves the relationship between the growth of the unemployment rate and its initial level, and the latter is based on an analysis of the dispersion of the rates and their changes over time. The authors use methods that enable them to examine changes in the distribution of the analyzed variables. These methods include transition matrices and a nonparametric kernel estimation method. Transition matrices make it possible to determine the likelihood of a county’s unemployment rate increasing, decreasing or remaining constant, while classifying the rates into several brackets. Kernel estimation, in turn, makes it possible to analyze the full conditional function of the density of the distribution of the unemployment rate at the county level and its changes over time. These methods were borrowed from research into regional convergence for income. They make it possible to detect the occurrence of polarization, or the so-called club convergence. The analysis of unemployment rates at the county level in 1999-2006 reveals a far-reaching stability of the regional distribution of unemployment rates-in terms of both monthly and yearly changes. Over the past seven years, no δ-convergence has occurred. The researchers have only detected slightly growing similarities between labor markets in counties with the highest relative unemployment rates. The analysis of β-convergence reveals a far-reaching divergence of unemployment levels in individual counties in Poland. This trend is less pronounced in counties with the lowest relative unemployment rates, while being markedly stronger on labor markets heavily affected by joblessness. Overall, the study places a question mark over the effectiveness of cohesion policies carried out in Poland through various channels since 1999.
Źródło:
Gospodarka Narodowa. The Polish Journal of Economics; 2007, 219, 10; 1-20
2300-5238
Pojawia się w:
Gospodarka Narodowa. The Polish Journal of Economics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ON THE RESAMPLING METHOD IN SAMPLE MEDIAN ESTIMATION
Autorzy:
Kończak, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/655825.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
bootstrap
kernel estimation
small sample
Opis:
Bootstrap is one of the resampling statistical methods. This method was proposed by B. Efron. The main idea of bootstrap is to treat the original sample of values as a stand-in for the population and to resample with replacement from it repeatedly. Bootstrap allows estimation of the sampling distribution of almost any statistics using only very simple methods. This paper presents a modification of a resampling procedure based on bootstrap sampling. The proposal leads to sampling from population with density function f(x), where f(x) is estimated based on the kernel estimation. The properties of the method were analyzed in the median estimation in Monte Carlo study.The proposal could be useful for the parameters estimation in the case of a small sample. This method could be used in quality control procedures such as control charts or in the acceptance sampling.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2014, 3, 302
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The estimation of the corruption perception index
Autorzy:
Baszczyńska, Aleksandra
Pekasiewicz, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/658397.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
nonparametric analysis
kernel estimation
corruption perception index
Opis:
W pracy przedstawiono wyniki nieparametrycznej analizy wskaźnika percepcji korupcji. Na analizę tę składa się metoda jądrowa estymacji funkcji gęstości oraz wybrane metody estymacji przedziałowej wartości średniej wskaźnika percepcji korupcji. Do rozważanych metod estymacji wartości średniej należą: jedna z metod bootstrapowych oraz metody wykorzystujące dodatkowe informacje o zmiennej takie jak asymetria rozkładu, ograniczoność zbioru wartości zmiennej. Przeprowadzona analiza dotyczy estymacji wskaźnika percepcji korupcji w 2008 roku różnymi metodami, w oparciu o próby proste różnej liczebności. Porównanie uzyskanych wyników estymacji pozwoliło sformułować wnioski dotyczące dokładności oszacowań, a tym samym efektywności rozpatrywanych metod.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2011, 255
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An approximate necessary condition for the optimal bandwidth selector in kernel density estimation
Autorzy:
Gajek, L.
Lenic, A.
Powiązania:
https://bibliotekanauki.pl/articles/1340710.pdf
Data publikacji:
1993
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
bandwidth selection
kernel density estimation
resampling
Opis:
An approximate necessary condition for the optimal bandwidth choice is derived. This condition is used to construct an iterative bandwidth selector. The algorithm is based on resampling and step-wise fitting the bandwidth to the density estimator from the previous iteration. Examples show fast convergence of the algorithm to the bandwidth value which is surprisingly close to the optimal one no matter what is the initial knowledge on the unknown density.
Źródło:
Applicationes Mathematicae; 1993-1995, 22, 1; 123-138
1233-7234
Pojawia się w:
Applicationes Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
BIAVERAGE AND MULIMODALITY IN INVESTIGATING DISTRIBUTION OF ELECTRICITY PRICES
Autorzy:
Baszczyńska, Aleksandra
Pekasiewicz, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/655941.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
kernel estimation
Hartigan test
dip statistic
biaverage
one-day-ahead market
Opis:
In the paper chosen statistical methods concerning analysis of random variable distributions are presented. Investigating modality of distribution is one of the most interesting and important stages in random variable analysis. Among others, the following methods can be used: kernel density estimation, the Hartigan test of unimodality and the biavarage. The example showing application of these methods from the one-day-ahead market of electricity is presented.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2014, 3, 302
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generalized kernel regression estimate for the identification of Hammerstein systems
Autorzy:
Mzyk, G.
Powiązania:
https://bibliotekanauki.pl/articles/929610.pdf
Data publikacji:
2007
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
system Hammersteina
regresja nieparametryczna
estymacja jądra
Hammerstein system
nonparametric regression
kernel estimation
Opis:
A modified version of the classical kernel nonparametric identification algorithm for nonlinearity recovering in a Hammerstein system under the existence of random noise is proposed. The assumptions imposed on the unknown characteristic are weak. The generalized kernel method proposed in the paper provides more accurate results in comparison with the classical kernel nonparametric estimate, regardless of the number of measurements. The convergence in probability of the proposed estimate to the unknown characteristic is proved and the question of the convergence rate is discussed. Illustrative simulation examples are included.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2007, 17, 2; 189-197
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estymacja nieparametryczna wybranych parametrów bloku gazowo-parowego
Nonparametric estimation of selected parameters of steam and gas power plant
Autorzy:
Gramacki, J.
Gramacki, A.
Powiązania:
https://bibliotekanauki.pl/articles/154300.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja nieparametryczna
estymacja jądrowa
Elektrociepłownia Zielona Góra
nonparametric estimation
kernel estimation
combined heat and power plant
CHP
Opis:
W pracy pokazano przykład użycia nieparametrycznej estymacji danych. Z pomocą tej techniki dokonano oszacowania emisji tlenków azotu (NOx) na podstawie danych eksploatacyjnych zbieranych podczas normalnej pracy Elektrociepłowni w Zielonej Górze. Na wstępnie dokonano krótkiego przeglądu najbardziej popularnych technik estymacji parametrycznej i porównano je z technikami nieparametrycznymi. Następnie na prostym przykładzie pokazano istotę działania estymacji nieparametrycznej. Pracę kończy rozdział, w którym krótko omówiono uzyskane wyniki symulacyjne.
In the paper there are shown some practical examples of using nonparametric estimation. Using this technique there were estimated the nitrogen oxides (NOx) emissions based on the data taken from a real industry plant (gas and steam combined heat and power (CHP) plant in Zielona Góra, Poland). This work can be treated as a continuation of the paper [2]. In the first section there is given a short overview of estimation methods, including the linear and nonlinear regression, and comparison of them with nonparametric ones. In the second section there is briefly presented the nonparametric estimation technique and there is given a simple illustrative example. The third paragraph is dedicated to presenting the experimental results. Basing on the data from the CHP plant, the NOx emission was estimated and the satisfactory results (in comparison, for example, with the results obtained from the linear regression estimator) were obtained. All calculations were carried out using np package for R-project environment which implements a variety of nonparametric (and also semiparametric) kernel-based estimators.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 7, 7; 454-456
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of nuisance parameters for inference based on least absolute deviations
Autorzy:
Niemiro, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/1340477.pdf
Data publikacji:
1995
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
least absolute deviations
kernel density/regression estimation
Opis:
Statistical inference procedures based on least absolute deviations involve estimates of a matrix which plays the role of a multivariate nuisance parameter. To estimate this matrix, we use kernel smoothing. We show consistency and obtain bounds on the rate of convergence.
Źródło:
Applicationes Mathematicae; 1993-1995, 22, 4; 515-529
1233-7234
Pojawia się w:
Applicationes Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probabilistyczna ocena niezawodności systemu sieci infrastruktury z zastosowaniem estymacji jądrowej i w warunkach luki pomiarowej
Probabilistic Assessment of the Reliability of the Network System Infrastructure Using the Kernel Estimation and in Conditions of the Measuring Gap
Autorzy:
Feluch, W.
Powiązania:
https://bibliotekanauki.pl/articles/136486.pdf
Data publikacji:
2014
Wydawca:
Szkoła Główna Służby Pożarniczej
Tematy:
sieć wodociągowa
luka pomiarowa
niezawodność
estymacja jądrowa
estymator Parzena
water supply network
gap measurement
reliability
kernel estimation
Parzen estimator
Opis:
W artykule przedstawiono probabilistyczną metodę oceny niezawodności w warunkach luki pomiarowej związanej z brakiem danych dotyczących awaryjności w długim okresie funkcjonowania sieci infrastruktury. Wykorzystano dane awaryjności magistral sieci wodociągowej. Zastosowano podejście nieparametryczne w postaci estymacji jądrowej z wykorzystaniem estymatora Parzena.
The article presents the probabilistic method for assessing the reliability of the measurement gap in conditions associated with a lack of data relating to failure in the long term operation of the network infrastructure. Data of the water main supply network failure was used. Nonparametric approach was applied in the form of nuclear estimation using the Parzen estimator.
Źródło:
Zeszyty Naukowe SGSP / Szkoła Główna Służby Pożarniczej; 2014, 1, 49; 19-34
0239-5223
Pojawia się w:
Zeszyty Naukowe SGSP / Szkoła Główna Służby Pożarniczej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Smoothing parameter values in automatic choice procedure and in acceptable interval in the kernel density estimation
Wartości parametru wygładzania w automatycznej procedurze i w przedziałach akceptowalnych w jądrowej estymacji funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/699886.pdf
Data publikacji:
2018
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
kernel density estimation, smoothing parameter, kernel function, automatic choice
estymacja jądrowa funkcji gęstości, parametr wygładzania, funkcja jądra, wybór automatyczny
Opis:
https://doi.org/10.26485/0459-6854/2018/68.3/4 Automatyczna procedura określania parametrów metody jądra pozwala na jednoczesny wybór dwóch parametrów metody: funkcji jądra i parametru wygładzania. To podejście upraszcza procedurę wyboru parametrów, a jednocześnie zapewnia dobre właściwości estymatorów jądra. Drugą procedurą, która jest w pracy, jest akceptowalny odstęp wartości parametrów wygładzania, co pozwala na bardziej uogólnione podejście do wyboru parametru wygładzania w szacowaniu jądra. W artykule przedstawiono wyniki analizy wartości parametrów wygładzania, ustalonych w procedurze automatycznej oraz procedury akceptowalnego odstępu wartości parametrów wygładzania w oszacowaniu funkcji gęstości. Porównanie tych wartości odbywa się w oparciu o wyniki stosowania metod symulacji. Na podstawie badań symulacyjnych proponuje się i przeanalizuje nowe odstępy wartości parametrów wygładzania.
https://doi.org/10.26485/0459-6854/2018/68.3/4 Automatic procedure for determining the parameters of kernel method, allows the simultaneous selection of two method parameters: kernel function and smoothing parameter. This approach simplifies the procedure for parameters selection and at the same time provides a good properties of kernel estimators. The second procedure regarded in the paper is the acceptable interval of values of smoothing parameter, allowing for a much more generalized approach in choosing the smoothing parameter in the kernel estimation. The results of the smoothing parameter values comparison, where these values are set in the automatic procedure and the procedure of the acceptable interval of smoothing parameters values in the estimation of density function, are presented in the paper. Comparison of these values is made basing on the results of applying the simulation methods. Basing on simulation studies results new intervals of values of smoothing parameter are proposed and analyzed.
Źródło:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations; 2018, 68, 3; 51-58
1895-7838
2450-9329
Pojawia się w:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Two stage EMG onset detection method
Autorzy:
Drapała, J.
Brzostowski, K.
Szpala, A.
Rutkowska-Kucharska, A.
Powiązania:
https://bibliotekanauki.pl/articles/229365.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
EMG signal processing
real EMG recordings
expectation-maximization
kernel density estimation
event detection
Opis:
Detection of the moment when a muscle begins to activate on the basis of EMG signal is important task for a number of biomechanical studies. In order to provide high accuracy of EMG onset detection, we developed novel method, that give results similar to that obtained by an expert. By means of this method, EMG is processed in two stages. The first stage gives rough estimation of EMG onset, whereas the second stage performs local, precise searching. The method was applied to support signal processing in biomechanical study concerning effect of body position on EMG activity and peak muscle torque stabilizing spinal column under static conditions.
Źródło:
Archives of Control Sciences; 2012, 22, 4; 427-440
1230-2384
Pojawia się w:
Archives of Control Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Graphics processing units in acceleration of bandwidth selection for kernel density estimation
Autorzy:
Andrzejewski, W.
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/330819.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
bandwidth selection
graphics processing unit
probability density function
nonparametric estimation
kernel estimation
szerokość pasmowa
programowalny procesor graficzny
funkcja gęstości prawdopodobieństwa
estymacja nieparametryczna
estymacja jądrowa
Opis:
The Probability Density Function (PDF) is a key concept in statistics. Constructing the most adequate PDF from the observed data is still an important and interesting scientific problem, especially for large datasets. PDFs are often estimated using nonparametric data-driven methods. One of the most popular nonparametric method is the Kernel Density Estimator (KDE). However, a very serious drawback of using KDEs is the large number of calculations required to compute them, especially to find the optimal bandwidth parameter. In this paper we investigate the possibility of utilizing Graphics Processing Units (GPUs) to accelerate the finding of the bandwidth. The contribution of this paper is threefold: (a) we propose algorithmic optimization to one of bandwidth finding algorithms, (b) we propose efficient GPU versions of three bandwidth finding algorithms and (c) we experimentally compare three of our GPU implementations with the ones which utilize only CPUs. Our experiments show orders of magnitude improvements over CPU implementations of classical algorithms.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 4; 869-885
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Type A Standard Uncertainty of Long-Term Noise Indicators
Autorzy:
Batko, W. M.
Stępień, B.
Powiązania:
https://bibliotekanauki.pl/articles/176923.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
long-term noise indicator
uncertainty
non-classical statistics
kernel density estimation
bootstrap
Bayesian inference
Opis:
The problem of estimation of the long-term environmental noise hazard indicators and their uncer- tainty is presented in the present paper. The type A standard uncertainty is defined by the standard deviation of the mean. The rules given in the ISO/IEC Guide 98 are used in the calculations. It is usually determined by means of the classic variance estimators, under the following assumptions: the normality of measurements results, adequate sample size, lack of correlation between elements of the sample and observation equivalence. However, such assumptions in relation to the acoustic measurements are rather questionable. This is the reason why the authors indicated the necessity of implementation of non-classical statistical solutions. An estimation idea of seeking density function of long-term noise indicators distri- bution by the kernel density estimation, bootstrap method and Bayesian inference have been formulated. These methods do not generate limitations for form and properties of analyzed statistics. The theoretical basis of the proposed methods is presented in this paper as well as an example of calculation process of expected value and variance of long-term noise indicators LDEN and LN. The illustration of indicated solutions and their usefulness analysis were constant due to monitoring results of traffic noise recorded in Cracow, Poland.
Źródło:
Archives of Acoustics; 2014, 39, 1; 25-36
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
One Value of Smoothing Parameter vs Interval of Smoothing Parameter Values in Kernel Density Estimation
Jedna wartość parametru wygładzania vs. przedział wartości parametru wygładzania w estymacji jądrowej funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra Katarzyna
Powiązania:
https://bibliotekanauki.pl/articles/659254.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
estymacja jądrowa funkcji gęstości
parametr wygładzania
metody ad hoc
kernel density estimation
smoothing parameter
ad hoc methods
Opis:
Metody ad hoc wyboru parametru wygładzania w estymacji jądrowej funkcji gęstości, chociaż często wykorzystywane w praktyce ze względu na ich prostotę i – co za tym idzie – wysoką efektywność obliczeniową, charakteryzują się dość dużym błędem. Wartość parametru wygładzania wyznaczona metodą Silvermana jest bliska wartości optymalnej tylko wtedy, gdy rozkład funkcji gęstości jest rozkładem normalnym. Dlatego też metoda ta jest stosowana przede wszystkim we wstępnym etapie wyznaczania estymatora jądrowego i stanowi jedynie punkt wyjściowy do dalszych poszukiwań wartości parametru wygładzania. W artykule przedstawione są metody ad hoc wyboru parametru wygładzania oraz zaprezentowana jest propozycja wyznaczania przedziału wartości parametru wygładzania w estymacji jądrowej funkcji gęstości. Na podstawie wyników badań symulacyjnych określone są własności rozważanych metod wyboru parametru wygładzania.
Ad hoc methods in the choice of smoothing parameter in kernel density estimation, although often used in practice due to their simplicity and hence the calculated efficiency, are characterized by quite big error. The value of the smoothing parameter chosen by Silverman method is close to optimal value only when the density function in population is the normal one. Therefore, this method is mainly used at the initial stage of determining a kernel estimator and can be used only as a starting point for further exploration of the smoothing parameter value. This paper presents ad hoc methods for determining the smoothing parameter. Moreover, the interval of smoothing parameter values is proposed in the estimation of kernel density function. Basing on the results of simulation studies, the properties of smoothing parameter selection methods are discussed.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2017, 6, 332; 73-86
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA-based bandwidth selection for kernel density estimation using high level synthesis approach
Autorzy:
Gramacki, A.
Sawerwain, M.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/201258.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
FPGA
high level synthesis
kernel density estimation
bandwidth selection
plug-in selector
synteza wysokiego poziomu
jądrowy estymator gęstości
wybór pasma informacyjnego
Opis:
Field-programmable gate arrays (FPGA) technology can offer significantly higher performance at much lower power consumption than is available from single and multicore CPUs and GPUs (graphics processing unit) in many computational problems. Unfortunately, the pure programming for FPGA using hardware description languages (HDL), like VHDL or Verilog, is a difficult and not-trivial task and is not intuitive for C/C++/Java programmers. To bring the gap between programming effectiveness and difficulty, the high level synthesis (HLS) approach is promoted by main FPGA vendors. Nowadays, time-intensive calculations are mainly performed on GPU/CPU architectures, but can also be successfully performed using HLS approach. In the paper we implement a bandwidth selection algorithm for kernel density estimation (KDE) using HLS and show techniques which were used to optimize the final FPGA implementation. We are also going to show that FPGA speedups, comparing to highly optimized CPU and GPU implementations, are quite substantial. Moreover, power consumption for FPGA devices is usually much less than typical power consumption of the present CPUs and GPUs.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2016, 64, 4; 821-829
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multivariate kernel density estimation with a parametric support
Autorzy:
Jarnicka, J.
Powiązania:
https://bibliotekanauki.pl/articles/255530.pdf
Data publikacji:
2009
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
density estimation
kernel
bandwidth
kernel density estimator
EM algorithm
Opis:
We consider kernel density estimation in the multivariate case, focusing on the use of some elements of parametric estimation. We present a two-step method, based on a modification of the EM algorithm and the generalized kernel density estimator, and compare this method with a couple of well known multivariate kernel density estimation methods.
Źródło:
Opuscula Mathematica; 2009, 29, 1; 41-55
1232-9274
2300-6919
Pojawia się w:
Opuscula Mathematica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Some Remarks on the Choice of the Kernel Function in Density Estimation
Uwagi o wyborze funkcji jądra w estymacji funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/904689.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
density estimation
kernel function
smoothing parameter
Opis:
Funkcja gęstości jest jedną z podstawowych charakterystyk opisujących zachowanie się zmiennej losowej. Najczęściej wykorzystywaną metodą nieparametrycznej estymacji jest estymacja jądrowa. W procesie konstrukcji estymatora konieczne są dwie decyzje, dotyczące parametrów metody: wybór funkcji jąd ra K(u) oraz wybór parametru wygładzania h. W pracy nacisk położono n a wpływ wyboru funkcji jąd ra na wielkość parametru wygładzania. Eksperyment Monte Carlo dotyczy siedmiu funkcji jądra (gausowskiej, równomiernej, trójkątnej, epanechnikowa, dwukwadratowej, trójkwadratowej i kosinusowej) w estymacji jądrowej funkcji gęstości.
The basic characteristic describing the behaviour of the random variable is its density function. Kernel density estimation is one of the most widely used nonparametric density estimations. In the process of constructing the estimator we have to choose two parameters of the method: the kernel function K(u) and smoothing parameter h (bandwidth). In the paper, kernel method is discussed in detail, with particular emphasis on influence of the choice of the kernel function K(u) on the quantity of smooothing. Monte Carlo study is presented, where seven kernel functions (Gaussian, Uniform, Triangle, Epanechnikov, Quartic, Triweight, Cosinus) are used in density estimation.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2005, 194
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategia oceny pracowników w systemach śledzenia zagadnień
The strategy of evaluation of employees in issue tracking system
Autorzy:
Jóźwiak, I.
Mariański, A.
Powiązania:
https://bibliotekanauki.pl/articles/325113.pdf
Data publikacji:
2014
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
probabilistyka
zmienne losowe
ocena pracowników
system śledzenia zagadnień
funkcja gęstości prawdopodobieństwa
jądrowa estymacja gęstości
probabilistic
random variables
evaluation of employees
issue tracking system
probability density function
kernel density estimation
Opis:
W większości organizacji dokonuje się oceny pracowników na podstawie różnych kryteriów subiektywnych i obiektywnych. Często pracownicy czują się pokrzywdzeni oceną opisową lub ocena nie jest adekwatna do ich wyników pracy. W artykule proponujemy obiektywną metodę oceny pracowników z wykorzystaniem metod probabilistycznych, w tym funkcji gęstości prawdopodobieństwa, metod jądrowych oraz operacji arytmetycznych na zmiennych losowych. Omówiono również zastosowanie metody do budowania zespołu i jego oceny oraz wizualizacji wydajności prac zespołu oraz pracownika.
In most of organizations evaluation of employees based on various criteria both subjective and objective is done. Employees feel often unfair by descriptive evaluation or the evaluation is not adequate to results of their work. In the publication we propose objective method of evaluation of employees based on probabilistic methods, including density estimation, kernel methods and arithmetic operations on random variables. In the paper we focus also on application method to build a team and evaluating it. The paper also introduces visualization of performance of both team and employee.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2014, 74; 351-360
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kernel analysis for estimating the connectivity of a network with event sequences
Autorzy:
Tezuka, T.
Claramunt, C.
Powiązania:
https://bibliotekanauki.pl/articles/91880.pdf
Data publikacji:
2017
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
connectivity estimation
neural network
kernel methods
spike train
Opis:
Estimating the connectivity of a network from events observed at each node has many applications. One prominent example is found in neuroscience, where spike trains (sequences of action potentials) are observed at each neuron, but the way in which these neurons are connected is unknown. This paper introduces a novel method for estimating connections between nodes using a similarity measure between sequences of event times. Specifically, a normalized positive definite kernel defined on spike trains was used. The proposed method was evaluated using synthetic and real data, by comparing with methods using transfer entropy and the Victor-Purpura distance. Synthetic data was generated using CERM (Coupled Escape-Rate Model), a model that generates various spike trains. Real data recorded from the visual cortex of an anaesthetized cat was analyzed as well. The results showed that the proposed method provides an effective way of estimating the connectivity of a network when the time sequences of events are the only available information.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2017, 7, 1; 17-31
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Computer image analysis for the estimation of kernel quality in faba bean [Vicia faba L.minor]
Autorzy:
Kubiak, A.
Usajewicz, I.
Powiązania:
https://bibliotekanauki.pl/articles/1371708.pdf
Data publikacji:
1993
Wydawca:
Instytut Rozrodu Zwierząt i Badań Żywności Polskiej Akademii Nauk w Olsztynie
Tematy:
Vicia faba
kernel surface
computer image analysis
quality factor
faba bean
kernel quality
estimation
Źródło:
Polish Journal of Food and Nutrition Sciences; 1993, 02, 2; 51-57
1230-0322
2083-6007
Pojawia się w:
Polish Journal of Food and Nutrition Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
DOJAZDY DO PRACY A KONWERGENCJA REGIONALNA W POLSCE
COMMUTER FLOWS AND REGIONAL CONVERGENCE IN POLAND
Autorzy:
Wójcik, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/452780.pdf
Data publikacji:
2016
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
konwergencja regionalna
dojazdy do pracy
skorygowany PKB per capita
analiza dynamiki rozkładu
macierze przejścia
estymacja jądrowa
regional convergence
commuter flows
corrected GDP per capita
distribution dynamics
transition matrices
kernel density estimation
Opis:
Celem artykułu jest analiza zróżnicowań regionalnego PKB per capita oraz konwergencji regionalnej w Polsce na poziomie NTS 3 w latach 2000-2013 po korekcie uwzględniającej dojazdy do pracy. Do korekty wykorzystano dane o przepływach ludności związanych z zatrudnieniem na poziomie gmin. PKB wytworzony przez osoby dojeżdżające do pracy uwzględniono w miejscu ich zamieszkania, a nie zatrudnienia. Wykorzystano analizę konwergencji typu beta i sigma oraz podejścia umożliwiające analizę pełnego rozkładu (macierze przejścia, estymacja jądrowa). Korekta danych nie zmieniła wniosków dotyczących konwergencji.
The aim of the article is the analysis of diversification of regional GDP per capita and regional convergence in Poland on NUTS 3 level in 2000-2013 after correcting for commuter flows. We use the data on commuter flows between Polish municipalities. Production generated by commuters is attributed to their place of living instead of employment. Beta and sigma convergence analysis was used together with approaches allowing for the analysis of the whole distribution dynamics (transition matrices and kernel density estimation). Correction of the data did not change the conclusions about convergence.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2016, 17, 2; 160-171
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An Extended Version of the Proportional Adaptive Algorithm Based on Kernel Methods for Channel Identification with Binary Measurements
Autorzy:
Fateh, Rachid
Darif, Anouar
Safi, Said
Powiązania:
https://bibliotekanauki.pl/articles/2142314.pdf
Data publikacji:
2022
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
binary measurement
BRAN channel identification
kernel methods
PNLMS
phase estimation
Opis:
In recent years, kernel methods have provided an important alternative solution, as they offer a simple way of expanding linear algorithms to cover the non-linear mode as well. In this paper, we propose a novel recursive kernel approach allowing to identify the finite impulse response (FIR) in non-linear systems, with binary value output observations. This approach employs a kernel function to perform implicit data mapping. The transformation is performed by changing the basis of the data In a high-dimensional feature space in which the relations between the different variables become linearized. To assess the performance of the proposed approach, we have compared it with two other algorithms, such as proportionate normalized least-meansquare (PNLMS) and improved PNLMS (IPNLMS). For this purpose, we used three measurable frequency-selective fading radio channels, known as the broadband radio access Network (BRAN C, BRAN D, and BRAN E), which are standardized by the European Telecommunications Standards Institute (ETSI), and one theoretical frequency selective channel, known as the Macchi’s channel. Simulation results show that the proposed algorithm offers better results, even in high noise environments, and generates a lower mean square error (MSE) compared with PNLMS and IPNLMS.
Źródło:
Journal of Telecommunications and Information Technology; 2022, 3; 47--58
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Choice of the Smoothing Parameter in Kernel Density Estimation
Wybór parametru wygładzania w estymacji jądrowej funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/905695.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
density estimation
kernel function
smoothing parameter
practical rules
cross-validation
Opis:
Kernel density estimation is one of the main methods available for univariate density estimation. The problems of choosing the kernel function and choosing the smoothing parametr are of crucial importance in density estimation. Various methods, used in practice, for choosing smoothing parametr are discussed. Some of them are simple, some complicated in calculations, but it must be emphasized that the appropriate choice of method for choosing parameter depends on the purpose for which the density estimate is to be used. Monte Carlo study is presented, where three “practical rules" and two forms of crossvalidation (maximum likelihood CV and least-squares CV) are used in density estimation. The values of smoothing parameters are compared with the “optimal” one, which is obtained by minimizing mean squared error. In all mentioned studies the accuracy of the estimation, measured by mean squared error, is considered.
Jądrowa estymacja jest jedną z podstawowych metod nieparametrycznej estymacji funkcji gęstości. Zagadnienie wyboru funkcji jądra oraz wyboru właściwej wartości parametru wygładzania traktowane są jako zasadnicze w estymacji funkcji gęstości. W pracy rozważane są różne metody wyboru parametru wygładzania w estymacji jądrowej, od metod najprostszych do nieco bardziej złożonych. Należy podkreślić jednak, iż wybór metody wyboru parametru wygładzania zależy od celu dokonywanej estymacji charakterystyki funkcyjnej. W artykule przedstawiono również wyniki z przeprowadzonego eksperymentu Monte Carlo, gdzie rozważano trzy „praktyczne zasady” wyboru parametru wygładzania oraz dwie metody cross-validation (największej wiarygodności i najmniejszych kwadratów). Wartości tak otrzymanych parametrów wygładzania są porównywane z parametrem otrzymanym poprzez minimalizację błędu średniokwadratowego, traktowanym jako parametr „optymalny” .
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2006, 196
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dylematy związane z estymacją dominanty wynagrodzeń
Dilemmas relating to mode estimation of wages and salaries
Autorzy:
Błażej, Mirosław
Gosińska, Emilia
Powiązania:
https://bibliotekanauki.pl/articles/2156752.pdf
Data publikacji:
2022-12-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
dominanta
estymator jądrowy
estymacja dominanty
histogram
mode
kernel estimator
mode estimation
Opis:
Dominanta wynagrodzeń to ważny wskaźnik opisujący rozkład wynagrodzeń, ale ze względu na silną asymetrię rozkładu tej cechy w Polsce jej wyznaczenie nie należy do standardowych działań w analizie struktury wynagrodzeń. Celem artykułu jest omówienie wybranych metod szacowania dominanty oraz porównanie wyników jej estymacji otrzymanych za pomocą różnych metod. Wykorzystano dane o wynagrodzeniach indywidualnych brutto w październiku 2018 r. pochodzące z badania struktury wynagrodzeń przeprowadzonego przez Główny Urząd Statystyczny. W przypadku metody standardowej, wykorzystującej wzór interpolacyjny i histogram, wartość oszacowanej dominanty jest wrażliwa na założoną rozpiętość przedziałów w szeregu rozdzielczym i początek pierwszego przedziału. Zmniejszanie rozpiętości przedziałów powoduje dążenie dominanty do wartości równej płacy minimalnej. Zastosowanie zaawansowanych metod statystycznych, m.in. wykorzystujących estymator jądrowy, prowadzi do otrzymania znacząco różnych oszacowań dominanty w zależności od metody (rozrzut wyników wynosi ok. 800 zł). Analiza otrzymanych wyników daje ponadto podstawy do rozważenia tezy, że rozkład wynagrodzeń jest mieszany: ma cechy rozkładu dyskretnego dla wynagrodzeń w wysokości płacy minimalnej i ciągłego – dla wynagrodzeń powyżej płacy minimalnej oraz odznacza się cyklicznością (w Polsce zawiera się więcej umów, w których kwota wynagrodzenia jest wielokrotnością 50 zł lub 100 zł, niż umów na inne kwoty).
The mode of wages and salaries is an important indicator describing their distribution; however, due to the strong asymmetry of the distribution of this feature in Poland, mode estimation is not a standard procedure in the analysis of the structure of wages and salaries. The aim of the article is to discuss selected methods of estimating the mode and to compare the mode estimation results obtained by means of various methods. The research is based on data on individual gross wages and salaries registered in October 2018 in Poland. The data came from a survey of the structure of wages and salaries conducted by Statistics Poland. In the case of the standard method based on the interpolation formula and histogram, the mode estimate is sensitive to the assumed span of intervals in the frequency table and the beginning of the first interval. Reducing the span of the intervals causes the mode to reach the value of the minimum wage. The application of advanced methods, including those using a kernel estimator, leads to significantly different estimates of the mode depending on the method used (the dispersion reaches the value of approximately PLN 800). Additionally, the analysis of the obtained results gives grounds to considering a thesis that wage and salary distribution is a mixture of the following distributions: discrete (for the minimum wage) and continuous (for wages and salaries above the minimum wage), and is characterised by cyclicality (in Poland, more contracts offer remunerations which are a multiple of PLN 50 or PLN 100 than remunerations for other amounts).
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2022, 67, 12; 62-79
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Confidence Intervals for the Long-Term Noise Indicators Using the Kernel Density Estimator
Autorzy:
Stępień, B.
Powiązania:
https://bibliotekanauki.pl/articles/177575.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
long-term noise indicators
non-classical statistics
interval estimation
kernel density estimator
Opis:
A non-classical model of interval estimation based on the kernel density estimator is presented in this paper. This model has been compared with interval estimation algorithms of the classical (parametric) statistics assuming that the standard deviation of the population is either known or unknown. The non-classical model does not have to assume belonging of random sample to a normal distribution. A theoretical basis of the proposed model is presented as well as an example of calculation process which makes possible determining confidence intervals of the expected value of long-term noise indicators LDEN and LN. The statistical analysis was carried out for 95% interval widths obtained by using each of these models. The inference of their usefulness was performed on the basis of results of non-parametric statistical tests at significance level α = 0.05. The data used to illustrate the proposed solutions and carry out the analysis were results of continuous monitoring of traffic noise recorded in 2004 in one of the main arteries of Kraków in Poland.
Źródło:
Archives of Acoustics; 2016, 41, 3; 517-525
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estymacja jądrowa w badaniach regionalnej konwergencji
Kernel density estimation in regional convergence studies
Ядерная оценка в обследованиях региональной конвергенции
Autorzy:
Wójcik, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/543467.pdf
Data publikacji:
2016-10
Wydawca:
Główny Urząd Statystyczny
Tematy:
konwergencja regionalna
osiągnięcia edukacyjne
gminy
estymacja jądrowa
warunkowa funkcja gęstości
metoda adaptacyjna
regional convergence
educational achievements
municipalities
kernel density estimation
conditional density
adaptive method
региональная конвергенция
уровень образования
гмины
ядерная оценка
функция условной плотности
адаптивный метод
Opis:
Celem artykułu jest przedstawienie nieparametrycznej metody estymacji jądrowej jako narzędzia do empirycznej weryfikacji hipotezy o konwergencji regionalnej, w tym konwergencji grup gmin (klubów). Omówiono, jak taka estymacja uzupełnia inne metody stosowane w badaniach zjawiska konwergencji. W badaniu zastosowano tę metodę do analizy konwergencji osiągnięć edukacyjnych uczniów w Polsce w okresie 2003—2013. Osiągnięcia edukacyjne zmierzono na podstawie wyników egzaminów gimnazjalnych w zakresie profilu matematyczno-przyrodniczego w układzie gmin. Badanie wskazuje na występowanie konwergencji regionalnej wyników egzaminów, przy czym w przypadku analizy okresów trzyletnich stwierdzono występowanie konwergencji klubów, w której gminy o najsłabszych rezultatach egzaminów stanowią odrębny klub.
The aim of the article is to present a non-parametric kernel density estimation method as a tool used for empirical verification of the regional convergence hypothesis, including convergence of clubs. It is explained how kernel density estimation complements other methods applied to verify the phenomenon of convergence. The empirical part shows an application of the non-parametric density estimation to the analysis of regional convergence of educational achievements of Polish pupils, measured by the average results of the mathematical and natural science part of the lower-secondary school leaving exams on the level of municipalities in years 2002—2013. The results of the analysis indicate the existence of regional convergence of exam results for Polish municipalities. In case of the analysis for three-yearly periods convergence of clubs was observed — the municipalities with lowest exam results constitute a separate club of convergence.
Целью статьи является представление непараметрического анализа ядерной оценки в качестве инструмента для эмпирической проверки гипотезы о региональной конвергенции, в том числе конвергенции групп гмин (клубов). Было обсуждено, каким образом такая оценка дополняет другие методы используемые в обследованиях явления конвергенции. В обследовании этот метод был использован для анализа конвергенции уровня образования учеников в Польше в 2002—2013 гг. Уровень образования измерялся на основе результатов гимназиальных экзаменов в области математики и естественных наук в отношении к гминам. Обследование указывает на существование региональной конвергенции результатов экзаменов, где в случае анализа трехлетних периодов было установлено существование конвергенции клубов, в которой гмины с самыми слабыми результатами экзаменов составляют отдельный клуб.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2016, 10; 7-21
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Regression function and noise variance tracking methods for data streams with concept drift
Autorzy:
Jaworski, M.
Powiązania:
https://bibliotekanauki.pl/articles/329716.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
data stream
concept drift
Parzen kernel
regression function
variance estimation
strumień danych
funkcja regresji
estymacja wariancji
Opis:
Two types of heuristic estimators based on Parzen kernels are presented. They are able to estimate the regression function in an incremental manner. The estimators apply two techniques commonly used in concept-drifting data streams, i.e., the forgetting factor and the sliding window. The methods are applicable for models in which both the function and the noise variance change over time. Although nonparametric methods based on Parzen kernels were previously successfully applied in the literature to online regression function estimation, the problem of estimating the variance of noise was generally neglected. It is sometimes of profound interest to know the variance of the signal considered, e.g., in economics, but it can also be used for determining confidence intervals in the estimation of the regression function, as well as while evaluating the goodness of fit and in controlling the amount of smoothing. The present paper addresses this issue. Specifically, variance estimators are proposed which are able to deal with concept drifting data by applying a sliding window and a forgetting factor, respectively. A number of conducted numerical experiments proved that the proposed methods perform satisfactorily well in estimating both the regression function and the variance of the noise.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2018, 28, 3; 559-567
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Some asymptotic results of the estimators for conditional mode for functional data in the single index model missing data at random
Autorzy:
Mekkaoui, Souad
Kadiri, Nadia
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/31340028.pdf
Data publikacji:
2023-11-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
functional data analysis
functional single-index process
kernel estimator
missing at random
non-parametric estimation
small ball probability
Opis:
In this work, we consider the problem of non-parametric estimation of a regression function, namely the conditional density and the conditional mode in a single functional index model (SFIM) with randomly missing data. The main result of this work is the establishment of the asymptotic properties of the estimator, such as almost complete convergence rates. Moreover, the asymptotic normality of the constructs is obtained under certain mild conditions. We finally discuss how to apply our result to construct confidence intervals.
Źródło:
Przegląd Statystyczny; 2023, 70, 2; 20-45
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal trend estimation in geometric asset price models
Autorzy:
Weba, Michael
Powiązania:
https://bibliotekanauki.pl/articles/729704.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
geometric asset price model
trend estimation
Wiener process
Ornstein-Uhlenbeck process
kernel reproducing Hilbert space
exogeneous shocks
compound Poisson process
Opis:
In the general geometric asset price model, the asset price P(t) at time t satisfies the relation
$P(t) = P₀ · e^{α·f(t) + σ·F(t)}$, t ∈ [0,T],
where f is a deterministic trend function, the stochastic process F describes the random fluctuations of the market, α is the trend coefficient, and σ denotes the volatility.
The paper examines the problem of optimal trend estimation by utilizing the concept of kernel reproducing Hilbert spaces. It characterizes the class of trend functions with the property that the trend coefficient can be estimated consistently. Furthermore, explicit formulae for the best linear unbiased estimator α̂ of α and representations for the variance of α̂ are derived.
The results do not require assumptions on finite-dimensional distributions and allow of jump processes as well as exogeneous shocks. .
Źródło:
Discussiones Mathematicae Probability and Statistics; 2005, 25, 1; 51-70
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena stopnia bezpieczeństwa w aspekcie statystyk zdarzeń za lata 2000-2012. Czasowo-przestrzenna charakterystyka zagrożeń pożarowych obiektów mieszkalnych w systemie informacji przestrzennej (GIS) na przykładzie m.st. Warszawa
Assessment of Safety Level in the Aspect of 2000-2012 Fire Statistics. Temporal And Spatial Characteristics of Residential Buildings Fires in Geographical Information System. Warsaw Case Study
Autorzy:
Mazur, R.
Powiązania:
https://bibliotekanauki.pl/articles/373612.pdf
Data publikacji:
2014
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
pożary
bezpieczeństwo pożarowe
zagrożenia pożarowe
pożary obiektów mieszkalnych
statystyka pożarowa
mapy zagrożeń pożarowych
systemy informacji przestrzennej
GIS
Kernel Density Estimation
KDE
charakterystyka czasowa pożarów
charakterystyka przestrzenna pożarów
fires
fire safety
fire hazards
housing fires
fire statistics
fire hazards maps
geographical information system
temporal fire characteristic
spatial fire characteristic
Opis:
Cel: Celem artykułu, będącego trzecią częścią cyklu publikacji pt. Ocena stopnia bezpieczeństwa w aspekcie statystyk zdarzeń Państwowej Straży Pożarnej (PSP), jest czasowa i przestrzenna charakterystyka pożarów jedno- i wielorodzinnych obiektów mieszkalnych (POM) Warszawy. Poprzez charakterystykę czasową należy rozumieć rozkłady pożarów w funkcji godzin, dni tygodnia, miesięcy, kwartałów, zaś charakterystykę przestrzenną metody budowy map zagrożeń poparte analizą i dyskusją wyników badań. Wprowadzenie: Badania częstości występowania pożarów, miejscowych zagrożeń (MZ) oraz poszkodowanych odnotowanych w raportach Państwowej Straży Pożarnej (PSP) za lata 2007-2012 wskazują, jak istotną problematyką w działalności służb ratowniczych są zagrożenia generowane w obiektach mieszkalnych [1], [4]. Wprowadzenie zawiera najistotniejsze wnioski z poprzedzającej bieżący artykuł publikacji nt. oceny stopnia bezpieczeństwa w aspekcie statystyk pożarów [1] i MZ [4]. Wynika z nich, że częstość pojawiania się POM oscyluje w granicach 17% wszystkich pożarów, zaś współczynniki rannych i ofiar śmiertelnych kilkudziesięciokrotnie przewyższają współczynniki wypadkowości innych klas obiektów, osiągając odpowiednio 75% i 81% wszystkich poszkodowanych [1]. Koncentracja MZ w obiektach mieszkalnych sięga 31% wszystkich MZ z odsetkiem rannych na poziomie 8% oraz ofiar śmiertelnych 22% [4]. Dodatkowo autor przedstawia najważniejsze postulaty z przeglądu 14 wybranych anglojęzycznych pozycji literaturowych w zakresie metod i technik identyfikacji, szacowania, oceny zagrożeń pożarowych, uzasadniające podjęcie problematyki badawczej. Metodologia: Badania przeprowadzono w oparciu o informacje ze zdarzeń za lata 2000-2012 wyselekcjonowane z baz danych Komendy Głównej PSP. W części dotyczącej analizy danych przedstawiono wnioski w zakresie jakości bezpośredniego (współrzędne geograficzne) i pośredniego (dane adresowe) odniesienia przestrzennego raportów. Opisano procedurę generowania map wektorowych w systemie ArcGIS, którymi posłużono się podczas charakterystyki czasowo-przestrzennej. Przedstawiono dwie metody budowy map. Pierwsza na podstawie przynależności pożarów do obszarów miejskiego systemu informacji o osiedlach (MSI) – pożary ograniczone podziałem administracyjnym miasta, druga w oparciu o estymację gęstości skupień zdarzeń metodą KDE (ang. Kernel Density Estimation) – zdarzenia nieograniczone obszarem administracyjnym miasta. Wnioski: We wnioskach podkreślono, że POM mają tendencję do budowy wzorców czasowo-przestrzennych. Ich liczba nasila się w godzinach 7-20, z maksimum w godz. 18-20, po czym jednostajnie spada pomiędzy 21-4. W sezonie grzewczym (grudzień, styczeń luty) oraz miesiącach o wzmożonym ruchu dzieci i młodzieży (czerwiec, lipiec, sierpień) zauważa się zwiększoną ich liczbę. Gęstość pożarów jest większa dla obszarów o zwartej zabudowie mieszkalnej, z przewagą starych budynków mieszkalnych. Wnioski w zakresie metodyki budowy map zagrożeń to lepsze dopasowanie stopnia zagrożenia pożarowego poprzez zaimplementowanie metody KDE. Podkreślono, że warunkiem koniecznym podczas generowania map zagrożeń jest dokładne uzupełnianie raportów służb w zakresie współrzędnych geograficznych podczas zakładania kart zdarzeń zgłoszeń alarmowych (wybór, w miarę możliwości, danych adresowych zaimplementowanych w postaci rejestru TERYT [24] – system SWD-ST PSP) oraz tworzenia raportów.
Purpose: This is the third in a series of four articles entitled “Assessment of Safety Level Based on the State Fire Service Statistics (SFS)”. The paper refers to the experimental research on spatial-temporal analysis of residential building fires that occurred in Warsaw. The temporal analysis means that the author described percentage distribution of residential building fires by categories of hours, days of week, months and quarters. Spatial characteristics shoud be understood as the techniques of residential building fires hazard maps development proven by the research and discussion on its results. Introduction: Research on the frequency of fires, local emergencies and injuries in residential buildings class definitely demonstrates that the issue of risks in residential buildings is very important for the emergency services [1], [4]. The introduction includes the essential conclusions from the previous papers on the assessment of safety level in the aspect of fires [1] and local emergencies [4]. According to the State Fire Service statistics for 2007-2012, residential fires constituted 17% of all fires. Injury (75%) and fatality rates (81%) related to this class of buildings are a few dozen times higher than in case of other classes [1]. The percentage of local emergencies emerging in residential buildings amounts to 31% of all local emergencies with the coefficients of injuries and fatalities constituting 8% and 22% respectively [4]. In addition, the introduction contains the most important postulates from the literature review of 14 selected English language papers on fire hazards identification, estimation and assessment methods, that motivated the author to carry out the research and write this article. Methodology: Research includes a selection of detached house fires and blocks of flats fires that had been registered in the National Headquarters of State Fire Service database between 2000 and 2012. The paper includes summaries on the quality of direct spatial reference (coordinates) and indirect spatial reference (address data) found in the fire reports. The methodology of geo-processing fire statistic into point class vector map that is suitable in geographical information system (GIS) is described too. GIS analysis of temporal characteristics of residential fires by the way of classification of the events by hours, days of the week and months is presented. The author compiled house fire hazard maps on the basis of 2 methods. The first one shows classification of cartography grid based on polyline estate vector map, where each cell’s grid has a parameter of the number of residential fires. The second one based on residential fire density vector map created by Kernel Density Estimation mapping method. Conclusions: It is underlined that residential buildings fires are characterised by spatial and temporal dependencies. The number of residential buildings fires rises between 7-20 o`clock, and is peaking at 18-20. Then the number declines between 21-4. It is proved that the number of house fires is the highest in November, December, January and during the time of holidays such as June, July and August. When the density of dwelling estates rises, the residential fire hazard rises too. One of the hint in the field of residential building hazard maps is to implement KDE GIS method. The method is based on the density of point class vector map (e.g. fires) and it does not involve administrative boundaries. The better coordinates and address data, the better quality of the hazard maps. It is suggested to fill in the emergency calls forms and fire reports with the address data from the registry (if possible). There is an example of registry called TERYT [24] that is kept in SWDST, Polish State Fire Service system.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2014, 2; 47-57
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Single Functional Index Quantile Regression for Independent Functional Data Under Right-Censoring
Regresja kwantylowa pojedynczego wskaźnika funkcjonalnego dla niezależnych danych funkcjonalnych z cenzurowaniem prawostronnym
Autorzy:
Hamri, Mohamed Mehdi
Mekki, Sanaà Dounya
Rabhi, Abbes
Kadiri, Nadia
Powiązania:
https://bibliotekanauki.pl/articles/2045982.pdf
Data publikacji:
2022
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
censored data
functional data
kernel estimator
normality
non-parametric estimation
small ball probability
dane cenzurowane
estymator jądrowy
normalność
estymacja nieparametryczna
prawdopodobieństwo small ball
Opis:
The main objective of this paper was to estimate non-parametrically the quantiles of a conditional distribution based on the single-index model in the censorship model when the sample is considered as independent and identically distributed (i.i.d.) random variables. First of all, a kernel type estimator for the conditional cumulative distribution function (cond-cdf) is introduced. Then the paper gives an estimation of the quantiles by inverting this estimated cond-cdf, the asymptotic properties are stated when the observations are linked with a single-index structure. Finally, a simulation study was carried out to evaluate the performance of this estimate.
Głównym celem artykułu jest prezentacja nieparametrycznej estymacji kwantyli rozkładu warunkowego na podstawie modelu jednoindeksowego w modelu cenzury, gdy próba jest traktowana jako niezależne zmienne losowe o identycznym rozkładzie. Przede wszystkim wprowadzono estymator jądrowy dla funkcji skumulowanego rozkładu warunkowego (cond-cdf). Następnie podano oszacowanie kwantyli przez odwrócenie oszacowanego cond-cdf. Właściwości asymptotyczne są określane, gdy obserwacje są połączone ze strukturą jednoindeksową. Na koniec przeprowadzono badanie symulacyjne, aby ocenić skuteczność tego oszacowania.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2022, 1; 31-62
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Central Limit Theorem for Conditional Mode in the Single Functional Index Model with Data Missing at Random
Centralne twierdzenie graniczne dla trybu warunkowego w jednolitym funkcjonalnym modelu indeksowym z losowym brakiem danych
Autorzy:
Allal, Anis
Dib, Abdessamad
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/31233548.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
functional data analysis
functional single-index process
kernel estimator
missing at random
nonparametric estimation
small ball probability
funkcjonalna analiza danych
funkcjonalny proces pojedynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
This paper concentrates on nonparametrically estimating the conditional density function and conditional mode within the single functional index model for independent data, particularly when the variable of interest is affected by randomly missing data. This involves a semi-parametric single model structure and a censoring process on the variables. The estimator's consistency (with rates) in a variety of situations, such as the framework of the single functional index model (SFIM) under the assumption of independent and identically distributed (i.i.d) data with randomly missing entries, as well as its performance under the assumption that the covariate is functional, are the main areas of focus. For this model, the nearly almost complete uniform convergence and rate of convergence established. The rates of convergence highlight the critical part that the probability of concentration play in the law of the explanatory functional variable. Additionally, we establish the asymptotic normality of the derived estimators proposed under specific mild conditions, relying on standard assumptions in Functional Data Analysis (FDA) for the proofs. Finally, we explore the practical application of our findings in constructing confidence intervals for our estimators. The rates of convergence highlight the critical part that the probability of concentration play in the law of the explanatory functional variable.
W artykule skoncentrowano się na nieparametrycznym estymowaniu warunkowej funkcji gęstości i warunkowej dominanty w modelu pojedynczego wskaźnika funkcjonalnego dla niezależnych danych, szczególnie gdy na interesującą zmienną wpływają losowo brakujące dane. Obejmuje to strukturę półparametrycznego pojedynczego modelu i proces cenzurowania zmiennych. Zgodność estymatora (ze współczynnikami) w różnych sytuacjach, np. w ramach modelu pojedynczego wskaźnika funkcjonalnego przy założeniu niezależnych i z identycznym rozkładem danych z losowymi brakami, a także jego działanie w warunkach, gdy zmienna towarzysząca jest funkcjonałem, to główne obszary zainteresowania. Dla tego modelu wyznacza się prawie całkowicie jednolitą zbieżność i wskaźnik zbieżności. Wskaźniki zbieżności podkreślają kluczową rolę, jaką prawdopodobieństwo koncentracji odgrywa w założeniach dotyczących objaśniającej zmiennej funkcjonalnej. Dodatkowo ustala się asymptotyczną normalność wyprowadzonych estymatorów zaproponowanych w określonych łagodnych warunkach, opierając się na standardowych założeniach z analizy danych funkcjonalnych dla dowodów. Na koniec zbadano praktyczne zastosowanie ustaleń w konstruowaniu przedziałów ufności dla naszych estymatorów. Wskaźniki zbieżności podkreślają kluczową rolę, jaką prawdopodobieństwo koncentracji odgrywa w założeniach dotyczących objaśniającej zmiennej funkcjonalnej.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 1; 39-60
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Single Functional Index Quantile Regression for Functional Data with Missing Data at Random
Właściwości asymptotyczne estymatorów półparametrycznych dla kwantyla warunkowego pojedynczego wskaźnika funkcjonalnego z losowymi brakami danych
Autorzy:
Kadiri, Nadia
Mekki, Sanaà Dounya
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/21375671.pdf
Data publikacji:
2023
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
functional data analysis
functional single index process
kernel estimator
missing at random
nonparametric estimation
small ball probability
funkcjonalna analiza danych
funkcjonalny proces pojedynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
The primary goal of this research was to estimate the quantile of a conditional distribution using a semi-parametric approach in the presence of randomly missing data, where the predictor variable belongs to a semi-metric space. The authors assumed a single index structure to link the explanatory and response variable. First, a kernel estimator was proposed for the conditional distribution function, assuming that the data were selected from a stationary process with missing data at random (MAR). By imposing certain general conditions, the study established the model’s uniform almost complete consistencies with convergence rates.
Głównym celem przedstawionych w artykule badań jest oszacowanie kwantyla rozkładu warunkowego przy użyciu podejścia półparametrycznego w obecności losowo brakujących danych, gdzie zmienna predykcyjna należy do przestrzeni semimetrycznej. Założono strukturę pojedynczego indeksu, aby połączyć zmienną objaśniającą i zmienną odpowiedzi. Wstępnie zaproponowano estymator jądra dla funkcji rozkładu warunkowego, zakładając, że dane są losowo wybierane z procesu stacjonarnego z brakującymi danymi (MAR). Nakładając pewne ogólne warunki, ustalono jednolitą, prawie całkowitą zgodność modelu ze współczynnikami konwergencji.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2023, 27, 3; 1-19
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-35 z 35

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies