Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "estymacja prawdopodobieństwa" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
Revisiting the optimal probability estimator from small samples for data mining
Autorzy:
Cestnik, Bojan
Powiązania:
https://bibliotekanauki.pl/articles/330350.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
probability estimation
small sample
minimal error
m-estimate
estymacja prawdopodobieństwa
mała próbka
błąd minimalny
Opis:
Estimation of probabilities from empirical data samples has drawn close attention in the scientific community and has been identified as a crucial phase in many machine learning and knowledge discovery research projects and applications. In addition to trivial and straightforward estimation with relative frequency, more elaborated probability estimation methods from small samples were proposed and applied in practice (e.g., Laplace’s rule, the m-estimate). Piegat and Landowski (2012) proposed a novel probability estimation method from small samples Eph√2 that is optimal according to the mean absolute error of the estimation result. In this paper we show that, even though the articulation of Piegat’s formula seems different, it is in fact a special case of the m-estimate, where pa = 1/2 and m = √2. In the context of an experimental framework, we present an in-depth analysis of several probability estimation methods with respect to their mean absolute errors and demonstrate their potential advantages and disadvantages. We extend the analysis from single instance samples to samples with a moderate number of instances. We define small samples for the purpose of estimating probabilities as samples containing either less than four successes or less than four failures and justify the definition by analysing probability estimation errors on various sample sizes.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2019, 29, 4; 783-796
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal estimator of hypothesis probability for data mining problems with small samples
Autorzy:
Piegat, A
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/330967.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
estymacja prawdopodobieństwa
interpretacja częstotliwości prawdopodobieństwa
interpretacja kompletności prawdopodobieństwa
teoria niepewności
single case problem
probability estimation
frequency interpretation of probability
completeness interpretation of probability
uncertainty theory
Opis:
The paper presents a new (to the best of the authors' knowledge) estimator of probability called the "[...] completeness estimator" along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik's m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the [...] completeness estimator over the frequency estimator for the probability interval ph (0.1, 0.9). The frequency estimator is better for ph [0, 0.1] and ph [0.9, 1].
Źródło:
International Journal of Applied Mathematics and Computer Science; 2012, 22, 3; 629-645
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An aggregate criterion for selecting a distribution for times to failure of components of rail vehicles
Zagregowane kryterium wyboru rozkładu czasu douszkodzenia elementów pojaz dów szynowych
Autorzy:
Selech, Jarosław
Andrzejczak, Karol
Powiązania:
https://bibliotekanauki.pl/articles/1365224.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
time to failure
estimation of probability distribution
reliability of rail vehicles
czas do uszkodzenia
estymacja rozkładu prawdopodobieństwa
niezawodność pojazdów szynowych
Opis:
This paper presents an aggregate method of selecting a theoretical cumulative distribution function (CDF) for an empirical CDF. The method was intended to identify the time of reliable operation of a renewable technical object by applying three criteria based on the following statistics: the modified Kolmogorov–Smirnov (MK-S) statistic, the mean absolute deviation of the theoretical CDF from the empirical CDF, and a statistic calculated on the basis of a log-likelihood function. The values of these statistics were used to rank eleven probability distributions. The data for which calculations were made concerned failures of the driver’s cab lock recorded during five years of operation of a fleet of 45 trams. Before calculating the statistics, the empirical CDF of the examined component was determined using the Kaplan–Meier estimator, and then, using the method of Maximum Likelihood Estimation, the parameters of the analysed theoretical distributions were estimated. The theoretical distributions were then ranked according to the values obtained for each of the assumed criteria: the lower the value for a given criterion, the higher the ranking position, indicating a better fit according to that criterion. Then, based on the three rankings and on weights assigned to the individual criteria, an aggregate criterion (referred to as DESV) was implemented to select the best-fitting probability distribution. The method assumes that the lowest DESV value corresponds to the best-fitting theoretical distribution. In the case of the examined component, this was found to be the generalised gamma distribution. It is shown that if the final decision is based on the aggregate criterion, which takes into account the three criteria for goodness of fit, the reliability of the estimation of the time-to-failure distribution increases, and thus mistakes resulting from the use of only one of the criteria can be avoided.
W pracy przedstawiono zagregowaną metodę doboru dystrybuant hipotetycznych do dystrybuanty empirycznej. Metoda miała na celu identyfikację czasu niezawodnej pracy odnawialnego obiektu technicznego poprzez zastosowanie trzech kryteriów, w których użyto następujących statystyk: zmodyfikowanej statystyki Kołmogorowa-Smirnowa (MK-S), statystyki średniego odchylenia bezwzględnego dystrybuanty hipotetycznej od empirycznej oraz statystyki obliczanej na podstawie zlogarytmowanej funkcji wiarygodności. Wartości tych statystyk posłużyły do rangowania jedenastu rozkładów prawdopodobieństwa. Dane dla których dokonano obliczeń dotyczyły uszkodzeń zamka kabiny motorniczego jakie odnotowano w ciągu pięciu lat użytkowania floty 45 tramwajów. Przed obliczeniem statystyk wyznaczono dystrybuantę empiryczną badanego elementu przy pomocy estymatora KaplanaMeiera, a następnie przy użyciu metody największej wiarygodności oszacowano parametry uwzględnionych w badaniach rozkładów hipotetycznych. Po wyznaczaniu parametrów nastąpiło rangowanie rozkładów hipotetycznych według wartości otrzymanych dla każdego z przyjętych kryteriów, im mniejsza wartość dla danego kryterium tym wyższa pozycja w rankingu, świadcząca o lepszej jakości dopasowania według danego kryterium. Po ustaleniu rankingu według kryteriów zgodności, każdemu z kryteriów zgodności dopasowania dystrybuant modelowych do empirycznej nadano wagi. Następnie na podstawie uzyskanych trzech rankingów oraz wag nadanych poszczególnym kryteriom zgodności wyznaczana jest zagregowana miara zgodności (oznaczona DESV), która służy do wyznaczania najlepszego rozkładu prawdopodobieństwa. W prezentowanej metodzie przyjęto, że najmniejsza wartość DESV wyznacza najlepiej dopasowany rozkład hipotetyczny. W przypadku badanego elementu rozkładem tym okazał się uogólniony rozkład gamma. Pokazano, że na podstawie zagregowanego kryterium uwzględniającego trzy statystyki zgodności dopasowania zwiększa się wiarygodność estymacji rozkładu czasu pracy do uszkodzenia, unikając tym samym błędów jakie można popełnić uzależniając się tylko od jednej z nich.
Źródło:
Eksploatacja i Niezawodność; 2020, 22, 1; 102-111
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Detekcja źródeł szumów podwodnych z wykorzystaniem falki Malvara
The detection of underwater noise sources using Malvar wavelet
Autorzy:
Jerzman, B.
Powiązania:
https://bibliotekanauki.pl/articles/151398.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
wielorozdzielcza analiza falkowa
falka Malvara
estymacja wielowymiarowej funkcji gęstości prawdopodobieństwa
szumy podwodne
multiresolution wavelet analysis
Malvar wavelet
underwater noise
Opis:
W referacie zamieszczono wyniki badań modelu detekcji źródeł szumów podwodnych, bazującego na estymacji funkcji gęstości prawdopodobieństwa rozkładu energii w pasmach dekompozycji falkowej sygnałów pomiarowych. Celem badań było ilościowe porównanie wyników detekcji zaburzeń powodowanych przez płetwonurka w środowisku podwodnym, z wykorzystaniem w procesie przetwarzania sygnałów pomiarowych falek Daubechies oraz Malvara. Wyniki badań wskazują, że wykorzystanie lokalnych transformacji Malvara pozwala na bardziej efektywne wykorzystanie zastosowanej metody detekcji.
The paper presents the results of the research on the model of detection of the underwater noise sources. This model is based on the multivariate kernel density estimate of the energy of multidimensional wavelet coefficients. The conventional method of signal decomposition using Daubechies wavelet is compared with the algorithm which implements Malvar wavelet. This type of decomposition was adapted to the method of detection of underwater disturbances coming from unnatural sources. The outcome of theoretical considerations was supported by the figures presenting the results of simulation experiments on the real noise signals. The aim of the research was the numerical comparison and the evaluation of the effectiveness of the detection of signals generated by the diver using the Malvar wavelet or the standard Daubechies wavelet. The specific and distinct character of Malvar wavelet implementation strongly affects the method of detection thus the analysis of the results of the modification seems to be interesting. The research proved that the exploitation of local Malvar transforms reduces the number of computations, minimizes the detection result. Moreover, it enables greater flexibility as far as the parameter selection is concerned.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 9, 9; 48-51
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Graphics processing units in acceleration of bandwidth selection for kernel density estimation
Autorzy:
Andrzejewski, W.
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/330819.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
bandwidth selection
graphics processing unit
probability density function
nonparametric estimation
kernel estimation
szerokość pasmowa
programowalny procesor graficzny
funkcja gęstości prawdopodobieństwa
estymacja nieparametryczna
estymacja jądrowa
Opis:
The Probability Density Function (PDF) is a key concept in statistics. Constructing the most adequate PDF from the observed data is still an important and interesting scientific problem, especially for large datasets. PDFs are often estimated using nonparametric data-driven methods. One of the most popular nonparametric method is the Kernel Density Estimator (KDE). However, a very serious drawback of using KDEs is the large number of calculations required to compute them, especially to find the optimal bandwidth parameter. In this paper we investigate the possibility of utilizing Graphics Processing Units (GPUs) to accelerate the finding of the bandwidth. The contribution of this paper is threefold: (a) we propose algorithmic optimization to one of bandwidth finding algorithms, (b) we propose efficient GPU versions of three bandwidth finding algorithms and (c) we experimentally compare three of our GPU implementations with the ones which utilize only CPUs. Our experiments show orders of magnitude improvements over CPU implementations of classical algorithms.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 4; 869-885
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of Nakagami distribution parameters in describing a fading radio-communication channel
Estymacja parametrów rozkładu Nakagamiego opisującego kanał z zanikami
Autorzy:
Noga, K.
Sudański, R.
Powiązania:
https://bibliotekanauki.pl/articles/222887.pdf
Data publikacji:
2016
Wydawca:
Akademia Marynarki Wojennej. Wydział Dowodzenia i Operacji Morskich
Tematy:
radiocommunication fading channel
envelope probability distribution
estimation of distribution parameters
kanał radiokomunikacyjny z zanikami
rozkład prawdopodobieństwa obwiedni
estymacja parametrów rozkładu
Opis:
This article presents a review of issues related to the estimation of Nakagami distribution parameters. This distribution is often used for modeling transmission in a fading radio-communication channel, and in addition it well approximates other distributions.
W artykule przedstawiono estymatory rozkładu Nakagamiego. Rozkład ten jest często stosowany do modelowania transmisji w kanale radiokomunikacyjnym z zanikami, ponadto dobrze aproksymuje inne rozkłady.
Źródło:
Zeszyty Naukowe Akademii Marynarki Wojennej; 2016, R. 57 nr 1 (204), 1 (204); 69-81
0860-889X
Pojawia się w:
Zeszyty Naukowe Akademii Marynarki Wojennej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Random projection RBF nets for multidimensional density estimation
Autorzy:
Skubalska-Rafajłowicz, E.
Powiązania:
https://bibliotekanauki.pl/articles/929907.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
radialne funkcje bazowe
estymacja
wielowymiarowa gęstość prawdopodobieństwa
redukcja wymiaru
rzutowanie losowe
detekcja nowości
radial basis functions
multivariate density estimation
dimension reduction
normal random projection
novelty detection
Opis:
The dimensionality and the amount of data that need to be processed when intensive data streams are observed grow rapidly together with the development of sensors arrays, CCD and CMOS cameras and other devices. The aim of this paper is to propose an approach to dimensionality reduction as a first stage of training RBF nets. As a vehicle for presenting the ideas, the problem of estimating multivariate probability densities is chosen. The linear projection method is briefly surveyed. Using random projections as the first (additional) layer, we are able to reduce the dimensionality of input data. Bounds on the accuracy of RBF nets equipped with a random projection layer in comparison to RBF nets without dimensionality reduction are established. Finally, the results of simulations concerning multidimensional density estimation are briefly reported.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2008, 18, 4; 455-464
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategia oceny pracowników w systemach śledzenia zagadnień
The strategy of evaluation of employees in issue tracking system
Autorzy:
Jóźwiak, I.
Mariański, A.
Powiązania:
https://bibliotekanauki.pl/articles/325113.pdf
Data publikacji:
2014
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
probabilistyka
zmienne losowe
ocena pracowników
system śledzenia zagadnień
funkcja gęstości prawdopodobieństwa
jądrowa estymacja gęstości
probabilistic
random variables
evaluation of employees
issue tracking system
probability density function
kernel density estimation
Opis:
W większości organizacji dokonuje się oceny pracowników na podstawie różnych kryteriów subiektywnych i obiektywnych. Często pracownicy czują się pokrzywdzeni oceną opisową lub ocena nie jest adekwatna do ich wyników pracy. W artykule proponujemy obiektywną metodę oceny pracowników z wykorzystaniem metod probabilistycznych, w tym funkcji gęstości prawdopodobieństwa, metod jądrowych oraz operacji arytmetycznych na zmiennych losowych. Omówiono również zastosowanie metody do budowania zespołu i jego oceny oraz wizualizacji wydajności prac zespołu oraz pracownika.
In most of organizations evaluation of employees based on various criteria both subjective and objective is done. Employees feel often unfair by descriptive evaluation or the evaluation is not adequate to results of their work. In the publication we propose objective method of evaluation of employees based on probabilistic methods, including density estimation, kernel methods and arithmetic operations on random variables. In the paper we focus also on application method to build a team and evaluating it. The paper also introduces visualization of performance of both team and employee.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2014, 74; 351-360
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies