Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "kernel density estimation" wg kryterium: Temat


Tytuł:
An approximate necessary condition for the optimal bandwidth selector in kernel density estimation
Autorzy:
Gajek, L.
Lenic, A.
Powiązania:
https://bibliotekanauki.pl/articles/1340710.pdf
Data publikacji:
1993
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
bandwidth selection
kernel density estimation
resampling
Opis:
An approximate necessary condition for the optimal bandwidth choice is derived. This condition is used to construct an iterative bandwidth selector. The algorithm is based on resampling and step-wise fitting the bandwidth to the density estimator from the previous iteration. Examples show fast convergence of the algorithm to the bandwidth value which is surprisingly close to the optimal one no matter what is the initial knowledge on the unknown density.
Źródło:
Applicationes Mathematicae; 1993-1995, 22, 1; 123-138
1233-7234
Pojawia się w:
Applicationes Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of nuisance parameters for inference based on least absolute deviations
Autorzy:
Niemiro, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/1340477.pdf
Data publikacji:
1995
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
least absolute deviations
kernel density/regression estimation
Opis:
Statistical inference procedures based on least absolute deviations involve estimates of a matrix which plays the role of a multivariate nuisance parameter. To estimate this matrix, we use kernel smoothing. We show consistency and obtain bounds on the rate of convergence.
Źródło:
Applicationes Mathematicae; 1993-1995, 22, 4; 515-529
1233-7234
Pojawia się w:
Applicationes Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Two stage EMG onset detection method
Autorzy:
Drapała, J.
Brzostowski, K.
Szpala, A.
Rutkowska-Kucharska, A.
Powiązania:
https://bibliotekanauki.pl/articles/229365.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
EMG signal processing
real EMG recordings
expectation-maximization
kernel density estimation
event detection
Opis:
Detection of the moment when a muscle begins to activate on the basis of EMG signal is important task for a number of biomechanical studies. In order to provide high accuracy of EMG onset detection, we developed novel method, that give results similar to that obtained by an expert. By means of this method, EMG is processed in two stages. The first stage gives rough estimation of EMG onset, whereas the second stage performs local, precise searching. The method was applied to support signal processing in biomechanical study concerning effect of body position on EMG activity and peak muscle torque stabilizing spinal column under static conditions.
Źródło:
Archives of Control Sciences; 2012, 22, 4; 427-440
1230-2384
Pojawia się w:
Archives of Control Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Type A Standard Uncertainty of Long-Term Noise Indicators
Autorzy:
Batko, W. M.
Stępień, B.
Powiązania:
https://bibliotekanauki.pl/articles/176923.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
long-term noise indicator
uncertainty
non-classical statistics
kernel density estimation
bootstrap
Bayesian inference
Opis:
The problem of estimation of the long-term environmental noise hazard indicators and their uncer- tainty is presented in the present paper. The type A standard uncertainty is defined by the standard deviation of the mean. The rules given in the ISO/IEC Guide 98 are used in the calculations. It is usually determined by means of the classic variance estimators, under the following assumptions: the normality of measurements results, adequate sample size, lack of correlation between elements of the sample and observation equivalence. However, such assumptions in relation to the acoustic measurements are rather questionable. This is the reason why the authors indicated the necessity of implementation of non-classical statistical solutions. An estimation idea of seeking density function of long-term noise indicators distri- bution by the kernel density estimation, bootstrap method and Bayesian inference have been formulated. These methods do not generate limitations for form and properties of analyzed statistics. The theoretical basis of the proposed methods is presented in this paper as well as an example of calculation process of expected value and variance of long-term noise indicators LDEN and LN. The illustration of indicated solutions and their usefulness analysis were constant due to monitoring results of traffic noise recorded in Cracow, Poland.
Źródło:
Archives of Acoustics; 2014, 39, 1; 25-36
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Smoothing parameter values in automatic choice procedure and in acceptable interval in the kernel density estimation
Wartości parametru wygładzania w automatycznej procedurze i w przedziałach akceptowalnych w jądrowej estymacji funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/699886.pdf
Data publikacji:
2018
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
kernel density estimation, smoothing parameter, kernel function, automatic choice
estymacja jądrowa funkcji gęstości, parametr wygładzania, funkcja jądra, wybór automatyczny
Opis:
https://doi.org/10.26485/0459-6854/2018/68.3/4 Automatyczna procedura określania parametrów metody jądra pozwala na jednoczesny wybór dwóch parametrów metody: funkcji jądra i parametru wygładzania. To podejście upraszcza procedurę wyboru parametrów, a jednocześnie zapewnia dobre właściwości estymatorów jądra. Drugą procedurą, która jest w pracy, jest akceptowalny odstęp wartości parametrów wygładzania, co pozwala na bardziej uogólnione podejście do wyboru parametru wygładzania w szacowaniu jądra. W artykule przedstawiono wyniki analizy wartości parametrów wygładzania, ustalonych w procedurze automatycznej oraz procedury akceptowalnego odstępu wartości parametrów wygładzania w oszacowaniu funkcji gęstości. Porównanie tych wartości odbywa się w oparciu o wyniki stosowania metod symulacji. Na podstawie badań symulacyjnych proponuje się i przeanalizuje nowe odstępy wartości parametrów wygładzania.
https://doi.org/10.26485/0459-6854/2018/68.3/4 Automatic procedure for determining the parameters of kernel method, allows the simultaneous selection of two method parameters: kernel function and smoothing parameter. This approach simplifies the procedure for parameters selection and at the same time provides a good properties of kernel estimators. The second procedure regarded in the paper is the acceptable interval of values of smoothing parameter, allowing for a much more generalized approach in choosing the smoothing parameter in the kernel estimation. The results of the smoothing parameter values comparison, where these values are set in the automatic procedure and the procedure of the acceptable interval of smoothing parameters values in the estimation of density function, are presented in the paper. Comparison of these values is made basing on the results of applying the simulation methods. Basing on simulation studies results new intervals of values of smoothing parameter are proposed and analyzed.
Źródło:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations; 2018, 68, 3; 51-58
1895-7838
2450-9329
Pojawia się w:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
One Value of Smoothing Parameter vs Interval of Smoothing Parameter Values in Kernel Density Estimation
Jedna wartość parametru wygładzania vs. przedział wartości parametru wygładzania w estymacji jądrowej funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra Katarzyna
Powiązania:
https://bibliotekanauki.pl/articles/659254.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
estymacja jądrowa funkcji gęstości
parametr wygładzania
metody ad hoc
kernel density estimation
smoothing parameter
ad hoc methods
Opis:
Metody ad hoc wyboru parametru wygładzania w estymacji jądrowej funkcji gęstości, chociaż często wykorzystywane w praktyce ze względu na ich prostotę i – co za tym idzie – wysoką efektywność obliczeniową, charakteryzują się dość dużym błędem. Wartość parametru wygładzania wyznaczona metodą Silvermana jest bliska wartości optymalnej tylko wtedy, gdy rozkład funkcji gęstości jest rozkładem normalnym. Dlatego też metoda ta jest stosowana przede wszystkim we wstępnym etapie wyznaczania estymatora jądrowego i stanowi jedynie punkt wyjściowy do dalszych poszukiwań wartości parametru wygładzania. W artykule przedstawione są metody ad hoc wyboru parametru wygładzania oraz zaprezentowana jest propozycja wyznaczania przedziału wartości parametru wygładzania w estymacji jądrowej funkcji gęstości. Na podstawie wyników badań symulacyjnych określone są własności rozważanych metod wyboru parametru wygładzania.
Ad hoc methods in the choice of smoothing parameter in kernel density estimation, although often used in practice due to their simplicity and hence the calculated efficiency, are characterized by quite big error. The value of the smoothing parameter chosen by Silverman method is close to optimal value only when the density function in population is the normal one. Therefore, this method is mainly used at the initial stage of determining a kernel estimator and can be used only as a starting point for further exploration of the smoothing parameter value. This paper presents ad hoc methods for determining the smoothing parameter. Moreover, the interval of smoothing parameter values is proposed in the estimation of kernel density function. Basing on the results of simulation studies, the properties of smoothing parameter selection methods are discussed.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2017, 6, 332; 73-86
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA-based bandwidth selection for kernel density estimation using high level synthesis approach
Autorzy:
Gramacki, A.
Sawerwain, M.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/201258.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
FPGA
high level synthesis
kernel density estimation
bandwidth selection
plug-in selector
synteza wysokiego poziomu
jądrowy estymator gęstości
wybór pasma informacyjnego
Opis:
Field-programmable gate arrays (FPGA) technology can offer significantly higher performance at much lower power consumption than is available from single and multicore CPUs and GPUs (graphics processing unit) in many computational problems. Unfortunately, the pure programming for FPGA using hardware description languages (HDL), like VHDL or Verilog, is a difficult and not-trivial task and is not intuitive for C/C++/Java programmers. To bring the gap between programming effectiveness and difficulty, the high level synthesis (HLS) approach is promoted by main FPGA vendors. Nowadays, time-intensive calculations are mainly performed on GPU/CPU architectures, but can also be successfully performed using HLS approach. In the paper we implement a bandwidth selection algorithm for kernel density estimation (KDE) using HLS and show techniques which were used to optimize the final FPGA implementation. We are also going to show that FPGA speedups, comparing to highly optimized CPU and GPU implementations, are quite substantial. Moreover, power consumption for FPGA devices is usually much less than typical power consumption of the present CPUs and GPUs.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2016, 64, 4; 821-829
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategia oceny pracowników w systemach śledzenia zagadnień
The strategy of evaluation of employees in issue tracking system
Autorzy:
Jóźwiak, I.
Mariański, A.
Powiązania:
https://bibliotekanauki.pl/articles/325113.pdf
Data publikacji:
2014
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
probabilistyka
zmienne losowe
ocena pracowników
system śledzenia zagadnień
funkcja gęstości prawdopodobieństwa
jądrowa estymacja gęstości
probabilistic
random variables
evaluation of employees
issue tracking system
probability density function
kernel density estimation
Opis:
W większości organizacji dokonuje się oceny pracowników na podstawie różnych kryteriów subiektywnych i obiektywnych. Często pracownicy czują się pokrzywdzeni oceną opisową lub ocena nie jest adekwatna do ich wyników pracy. W artykule proponujemy obiektywną metodę oceny pracowników z wykorzystaniem metod probabilistycznych, w tym funkcji gęstości prawdopodobieństwa, metod jądrowych oraz operacji arytmetycznych na zmiennych losowych. Omówiono również zastosowanie metody do budowania zespołu i jego oceny oraz wizualizacji wydajności prac zespołu oraz pracownika.
In most of organizations evaluation of employees based on various criteria both subjective and objective is done. Employees feel often unfair by descriptive evaluation or the evaluation is not adequate to results of their work. In the publication we propose objective method of evaluation of employees based on probabilistic methods, including density estimation, kernel methods and arithmetic operations on random variables. In the paper we focus also on application method to build a team and evaluating it. The paper also introduces visualization of performance of both team and employee.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2014, 74; 351-360
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
DOJAZDY DO PRACY A KONWERGENCJA REGIONALNA W POLSCE
COMMUTER FLOWS AND REGIONAL CONVERGENCE IN POLAND
Autorzy:
Wójcik, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/452780.pdf
Data publikacji:
2016
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
konwergencja regionalna
dojazdy do pracy
skorygowany PKB per capita
analiza dynamiki rozkładu
macierze przejścia
estymacja jądrowa
regional convergence
commuter flows
corrected GDP per capita
distribution dynamics
transition matrices
kernel density estimation
Opis:
Celem artykułu jest analiza zróżnicowań regionalnego PKB per capita oraz konwergencji regionalnej w Polsce na poziomie NTS 3 w latach 2000-2013 po korekcie uwzględniającej dojazdy do pracy. Do korekty wykorzystano dane o przepływach ludności związanych z zatrudnieniem na poziomie gmin. PKB wytworzony przez osoby dojeżdżające do pracy uwzględniono w miejscu ich zamieszkania, a nie zatrudnienia. Wykorzystano analizę konwergencji typu beta i sigma oraz podejścia umożliwiające analizę pełnego rozkładu (macierze przejścia, estymacja jądrowa). Korekta danych nie zmieniła wniosków dotyczących konwergencji.
The aim of the article is the analysis of diversification of regional GDP per capita and regional convergence in Poland on NUTS 3 level in 2000-2013 after correcting for commuter flows. We use the data on commuter flows between Polish municipalities. Production generated by commuters is attributed to their place of living instead of employment. Beta and sigma convergence analysis was used together with approaches allowing for the analysis of the whole distribution dynamics (transition matrices and kernel density estimation). Correction of the data did not change the conclusions about convergence.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2016, 17, 2; 160-171
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estymacja jądrowa w badaniach regionalnej konwergencji
Kernel density estimation in regional convergence studies
Ядерная оценка в обследованиях региональной конвергенции
Autorzy:
Wójcik, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/543467.pdf
Data publikacji:
2016-10
Wydawca:
Główny Urząd Statystyczny
Tematy:
konwergencja regionalna
osiągnięcia edukacyjne
gminy
estymacja jądrowa
warunkowa funkcja gęstości
metoda adaptacyjna
regional convergence
educational achievements
municipalities
kernel density estimation
conditional density
adaptive method
региональная конвергенция
уровень образования
гмины
ядерная оценка
функция условной плотности
адаптивный метод
Opis:
Celem artykułu jest przedstawienie nieparametrycznej metody estymacji jądrowej jako narzędzia do empirycznej weryfikacji hipotezy o konwergencji regionalnej, w tym konwergencji grup gmin (klubów). Omówiono, jak taka estymacja uzupełnia inne metody stosowane w badaniach zjawiska konwergencji. W badaniu zastosowano tę metodę do analizy konwergencji osiągnięć edukacyjnych uczniów w Polsce w okresie 2003—2013. Osiągnięcia edukacyjne zmierzono na podstawie wyników egzaminów gimnazjalnych w zakresie profilu matematyczno-przyrodniczego w układzie gmin. Badanie wskazuje na występowanie konwergencji regionalnej wyników egzaminów, przy czym w przypadku analizy okresów trzyletnich stwierdzono występowanie konwergencji klubów, w której gminy o najsłabszych rezultatach egzaminów stanowią odrębny klub.
The aim of the article is to present a non-parametric kernel density estimation method as a tool used for empirical verification of the regional convergence hypothesis, including convergence of clubs. It is explained how kernel density estimation complements other methods applied to verify the phenomenon of convergence. The empirical part shows an application of the non-parametric density estimation to the analysis of regional convergence of educational achievements of Polish pupils, measured by the average results of the mathematical and natural science part of the lower-secondary school leaving exams on the level of municipalities in years 2002—2013. The results of the analysis indicate the existence of regional convergence of exam results for Polish municipalities. In case of the analysis for three-yearly periods convergence of clubs was observed — the municipalities with lowest exam results constitute a separate club of convergence.
Целью статьи является представление непараметрического анализа ядерной оценки в качестве инструмента для эмпирической проверки гипотезы о региональной конвергенции, в том числе конвергенции групп гмин (клубов). Было обсуждено, каким образом такая оценка дополняет другие методы используемые в обследованиях явления конвергенции. В обследовании этот метод был использован для анализа конвергенции уровня образования учеников в Польше в 2002—2013 гг. Уровень образования измерялся на основе результатов гимназиальных экзаменов в области математики и естественных наук в отношении к гминам. Обследование указывает на существование региональной конвергенции результатов экзаменов, где в случае анализа трехлетних периодов было установлено существование конвергенции клубов, в которой гмины с самыми слабыми результатами экзаменов составляют отдельный клуб.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2016, 10; 7-21
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Proposal of New Cluster Analysis Algorithm
Propozycja nowego algorytmu do analizy skupień
Autorzy:
Korzeniewski, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/905670.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
cluster analysis
density estimation
kernel estimation
Epanechnikov kernel
Opis:
One of well-known groups of cluster analysis methods is the group of methods based on density estimation. In the paper we propose a new method of defining dusters which consists of two steps. In the first step we find local maxima of the joint distribution thus establishing clusters centres. In the second step we assign observations to one of existing clusters centres. The number of clusters is assumed to be known. In both steps we use similar technique based on the kernel density estimator with the Epanechnikov kernel. The performance of the method is analyzed in an example of application to the Gordon (1999) data. In the analysis the Rousseeuw indices are used to assess clusters cohesion as well as and some comparisons with other methods of defining clusters are presented. The results look promising.
Jedną z dobrze znanych grup metod analizy skupień są metody oparte na szacowaniu gęstości. W artykule zaproponowana jest nowa metoda wyszukiwania skupień, która składa się z dwóch kroków. W pierwszym kroku znajdujemy maksima lokalne rozkładu łącznego, które przyjmujemy jako centra skupień. W drugim kroku każda obserwacja przyłączana jest do jednego z centrów. Zakładamy z góry liczbę skupień. W obydwu krokach używamy tej samej techniki opartej na estymatorze jądrowym funkcji gęstości z jądrem Epanecznikowa. Działanie metody jest przeanalizowane na przykładzie danych Gordona (1999). W analizie wykorzystano indeksy Rousseeuwa spoistości skupień, jak również przedstawiono porównanie z innymi metodami analizowania skupień. Wyniki wyglądają obiecująco.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2006, 196
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multivariate kernel density estimation with a parametric support
Autorzy:
Jarnicka, J.
Powiązania:
https://bibliotekanauki.pl/articles/255530.pdf
Data publikacji:
2009
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
density estimation
kernel
bandwidth
kernel density estimator
EM algorithm
Opis:
We consider kernel density estimation in the multivariate case, focusing on the use of some elements of parametric estimation. We present a two-step method, based on a modification of the EM algorithm and the generalized kernel density estimator, and compare this method with a couple of well known multivariate kernel density estimation methods.
Źródło:
Opuscula Mathematica; 2009, 29, 1; 41-55
1232-9274
2300-6919
Pojawia się w:
Opuscula Mathematica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Some Remarks on the Choice of the Kernel Function in Density Estimation
Uwagi o wyborze funkcji jądra w estymacji funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/904689.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
density estimation
kernel function
smoothing parameter
Opis:
Funkcja gęstości jest jedną z podstawowych charakterystyk opisujących zachowanie się zmiennej losowej. Najczęściej wykorzystywaną metodą nieparametrycznej estymacji jest estymacja jądrowa. W procesie konstrukcji estymatora konieczne są dwie decyzje, dotyczące parametrów metody: wybór funkcji jąd ra K(u) oraz wybór parametru wygładzania h. W pracy nacisk położono n a wpływ wyboru funkcji jąd ra na wielkość parametru wygładzania. Eksperyment Monte Carlo dotyczy siedmiu funkcji jądra (gausowskiej, równomiernej, trójkątnej, epanechnikowa, dwukwadratowej, trójkwadratowej i kosinusowej) w estymacji jądrowej funkcji gęstości.
The basic characteristic describing the behaviour of the random variable is its density function. Kernel density estimation is one of the most widely used nonparametric density estimations. In the process of constructing the estimator we have to choose two parameters of the method: the kernel function K(u) and smoothing parameter h (bandwidth). In the paper, kernel method is discussed in detail, with particular emphasis on influence of the choice of the kernel function K(u) on the quantity of smooothing. Monte Carlo study is presented, where seven kernel functions (Gaussian, Uniform, Triangle, Epanechnikov, Quartic, Triweight, Cosinus) are used in density estimation.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2005, 194
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Choice of the Smoothing Parameter in Kernel Density Estimation
Wybór parametru wygładzania w estymacji jądrowej funkcji gęstości
Autorzy:
Baszczyńska, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/905695.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
density estimation
kernel function
smoothing parameter
practical rules
cross-validation
Opis:
Kernel density estimation is one of the main methods available for univariate density estimation. The problems of choosing the kernel function and choosing the smoothing parametr are of crucial importance in density estimation. Various methods, used in practice, for choosing smoothing parametr are discussed. Some of them are simple, some complicated in calculations, but it must be emphasized that the appropriate choice of method for choosing parameter depends on the purpose for which the density estimate is to be used. Monte Carlo study is presented, where three “practical rules" and two forms of crossvalidation (maximum likelihood CV and least-squares CV) are used in density estimation. The values of smoothing parameters are compared with the “optimal” one, which is obtained by minimizing mean squared error. In all mentioned studies the accuracy of the estimation, measured by mean squared error, is considered.
Jądrowa estymacja jest jedną z podstawowych metod nieparametrycznej estymacji funkcji gęstości. Zagadnienie wyboru funkcji jądra oraz wyboru właściwej wartości parametru wygładzania traktowane są jako zasadnicze w estymacji funkcji gęstości. W pracy rozważane są różne metody wyboru parametru wygładzania w estymacji jądrowej, od metod najprostszych do nieco bardziej złożonych. Należy podkreślić jednak, iż wybór metody wyboru parametru wygładzania zależy od celu dokonywanej estymacji charakterystyki funkcyjnej. W artykule przedstawiono również wyniki z przeprowadzonego eksperymentu Monte Carlo, gdzie rozważano trzy „praktyczne zasady” wyboru parametru wygładzania oraz dwie metody cross-validation (największej wiarygodności i najmniejszych kwadratów). Wartości tak otrzymanych parametrów wygładzania są porównywane z parametrem otrzymanym poprzez minimalizację błędu średniokwadratowego, traktowanym jako parametr „optymalny” .
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2006, 196
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena stopnia bezpieczeństwa w aspekcie statystyk zdarzeń za lata 2000-2012. Czasowo-przestrzenna charakterystyka zagrożeń pożarowych obiektów mieszkalnych w systemie informacji przestrzennej (GIS) na przykładzie m.st. Warszawa
Assessment of Safety Level in the Aspect of 2000-2012 Fire Statistics. Temporal And Spatial Characteristics of Residential Buildings Fires in Geographical Information System. Warsaw Case Study
Autorzy:
Mazur, R.
Powiązania:
https://bibliotekanauki.pl/articles/373612.pdf
Data publikacji:
2014
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
pożary
bezpieczeństwo pożarowe
zagrożenia pożarowe
pożary obiektów mieszkalnych
statystyka pożarowa
mapy zagrożeń pożarowych
systemy informacji przestrzennej
GIS
Kernel Density Estimation
KDE
charakterystyka czasowa pożarów
charakterystyka przestrzenna pożarów
fires
fire safety
fire hazards
housing fires
fire statistics
fire hazards maps
geographical information system
temporal fire characteristic
spatial fire characteristic
Opis:
Cel: Celem artykułu, będącego trzecią częścią cyklu publikacji pt. Ocena stopnia bezpieczeństwa w aspekcie statystyk zdarzeń Państwowej Straży Pożarnej (PSP), jest czasowa i przestrzenna charakterystyka pożarów jedno- i wielorodzinnych obiektów mieszkalnych (POM) Warszawy. Poprzez charakterystykę czasową należy rozumieć rozkłady pożarów w funkcji godzin, dni tygodnia, miesięcy, kwartałów, zaś charakterystykę przestrzenną metody budowy map zagrożeń poparte analizą i dyskusją wyników badań. Wprowadzenie: Badania częstości występowania pożarów, miejscowych zagrożeń (MZ) oraz poszkodowanych odnotowanych w raportach Państwowej Straży Pożarnej (PSP) za lata 2007-2012 wskazują, jak istotną problematyką w działalności służb ratowniczych są zagrożenia generowane w obiektach mieszkalnych [1], [4]. Wprowadzenie zawiera najistotniejsze wnioski z poprzedzającej bieżący artykuł publikacji nt. oceny stopnia bezpieczeństwa w aspekcie statystyk pożarów [1] i MZ [4]. Wynika z nich, że częstość pojawiania się POM oscyluje w granicach 17% wszystkich pożarów, zaś współczynniki rannych i ofiar śmiertelnych kilkudziesięciokrotnie przewyższają współczynniki wypadkowości innych klas obiektów, osiągając odpowiednio 75% i 81% wszystkich poszkodowanych [1]. Koncentracja MZ w obiektach mieszkalnych sięga 31% wszystkich MZ z odsetkiem rannych na poziomie 8% oraz ofiar śmiertelnych 22% [4]. Dodatkowo autor przedstawia najważniejsze postulaty z przeglądu 14 wybranych anglojęzycznych pozycji literaturowych w zakresie metod i technik identyfikacji, szacowania, oceny zagrożeń pożarowych, uzasadniające podjęcie problematyki badawczej. Metodologia: Badania przeprowadzono w oparciu o informacje ze zdarzeń za lata 2000-2012 wyselekcjonowane z baz danych Komendy Głównej PSP. W części dotyczącej analizy danych przedstawiono wnioski w zakresie jakości bezpośredniego (współrzędne geograficzne) i pośredniego (dane adresowe) odniesienia przestrzennego raportów. Opisano procedurę generowania map wektorowych w systemie ArcGIS, którymi posłużono się podczas charakterystyki czasowo-przestrzennej. Przedstawiono dwie metody budowy map. Pierwsza na podstawie przynależności pożarów do obszarów miejskiego systemu informacji o osiedlach (MSI) – pożary ograniczone podziałem administracyjnym miasta, druga w oparciu o estymację gęstości skupień zdarzeń metodą KDE (ang. Kernel Density Estimation) – zdarzenia nieograniczone obszarem administracyjnym miasta. Wnioski: We wnioskach podkreślono, że POM mają tendencję do budowy wzorców czasowo-przestrzennych. Ich liczba nasila się w godzinach 7-20, z maksimum w godz. 18-20, po czym jednostajnie spada pomiędzy 21-4. W sezonie grzewczym (grudzień, styczeń luty) oraz miesiącach o wzmożonym ruchu dzieci i młodzieży (czerwiec, lipiec, sierpień) zauważa się zwiększoną ich liczbę. Gęstość pożarów jest większa dla obszarów o zwartej zabudowie mieszkalnej, z przewagą starych budynków mieszkalnych. Wnioski w zakresie metodyki budowy map zagrożeń to lepsze dopasowanie stopnia zagrożenia pożarowego poprzez zaimplementowanie metody KDE. Podkreślono, że warunkiem koniecznym podczas generowania map zagrożeń jest dokładne uzupełnianie raportów służb w zakresie współrzędnych geograficznych podczas zakładania kart zdarzeń zgłoszeń alarmowych (wybór, w miarę możliwości, danych adresowych zaimplementowanych w postaci rejestru TERYT [24] – system SWD-ST PSP) oraz tworzenia raportów.
Purpose: This is the third in a series of four articles entitled “Assessment of Safety Level Based on the State Fire Service Statistics (SFS)”. The paper refers to the experimental research on spatial-temporal analysis of residential building fires that occurred in Warsaw. The temporal analysis means that the author described percentage distribution of residential building fires by categories of hours, days of week, months and quarters. Spatial characteristics shoud be understood as the techniques of residential building fires hazard maps development proven by the research and discussion on its results. Introduction: Research on the frequency of fires, local emergencies and injuries in residential buildings class definitely demonstrates that the issue of risks in residential buildings is very important for the emergency services [1], [4]. The introduction includes the essential conclusions from the previous papers on the assessment of safety level in the aspect of fires [1] and local emergencies [4]. According to the State Fire Service statistics for 2007-2012, residential fires constituted 17% of all fires. Injury (75%) and fatality rates (81%) related to this class of buildings are a few dozen times higher than in case of other classes [1]. The percentage of local emergencies emerging in residential buildings amounts to 31% of all local emergencies with the coefficients of injuries and fatalities constituting 8% and 22% respectively [4]. In addition, the introduction contains the most important postulates from the literature review of 14 selected English language papers on fire hazards identification, estimation and assessment methods, that motivated the author to carry out the research and write this article. Methodology: Research includes a selection of detached house fires and blocks of flats fires that had been registered in the National Headquarters of State Fire Service database between 2000 and 2012. The paper includes summaries on the quality of direct spatial reference (coordinates) and indirect spatial reference (address data) found in the fire reports. The methodology of geo-processing fire statistic into point class vector map that is suitable in geographical information system (GIS) is described too. GIS analysis of temporal characteristics of residential fires by the way of classification of the events by hours, days of the week and months is presented. The author compiled house fire hazard maps on the basis of 2 methods. The first one shows classification of cartography grid based on polyline estate vector map, where each cell’s grid has a parameter of the number of residential fires. The second one based on residential fire density vector map created by Kernel Density Estimation mapping method. Conclusions: It is underlined that residential buildings fires are characterised by spatial and temporal dependencies. The number of residential buildings fires rises between 7-20 o`clock, and is peaking at 18-20. Then the number declines between 21-4. It is proved that the number of house fires is the highest in November, December, January and during the time of holidays such as June, July and August. When the density of dwelling estates rises, the residential fire hazard rises too. One of the hint in the field of residential building hazard maps is to implement KDE GIS method. The method is based on the density of point class vector map (e.g. fires) and it does not involve administrative boundaries. The better coordinates and address data, the better quality of the hazard maps. It is suggested to fill in the emergency calls forms and fire reports with the address data from the registry (if possible). There is an example of registry called TERYT [24] that is kept in SWDST, Polish State Fire Service system.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2014, 2; 47-57
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies