Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Probability estimation" wg kryterium: Temat


Tytuł:
System rekomendacji doboru wag kryteriów oparty na ich charakterystyce probabilistycznej
System Supporting the Decision Criteria Weights Specification Based on Their Probabilistic Characteristics
Autorzy:
Brzostowski, Jakub
Roszkowska, Ewa
Powiązania:
https://bibliotekanauki.pl/articles/592720.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Badania operacyjne
Negocjacje
Szacowanie prawdopodobieństwa
Negotiations
Operations research
Probability estimation
Opis:
A tool for supporting the negotiator during the process of the analysis of own preferences and the analysis of the preferences of the potential partner is proposed in this work. The approach is based on the construction of the collective preferences model for a selected negotiator's profile in the form of multivariate probability distribution over the space of negotiation issue weights vectors. In the process of user interaction with the system the ranges of issue weights are modified that allows for the decomposition of the general multi-variate distribution into series of uni-variate distributions corresponding to single issues. Such distributions conditionally depend on the issue weight ranges set by the decision-maker for all the remaining issues. Moreover, in the work we consider the possibility of constructing the collective preferences model in a continuous form in the case normally distributed weights for some sets of issues. The data from the Negotiation Support System Inspire [Kersten 1999] were used to examine the normality of the issue weights distribution for different issue sets.
Źródło:
Studia Ekonomiczne; 2014, 178; 58-72
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Specialized, MSE-optimal m-estimators of the rule probability especially suitable for machine learning
Autorzy:
Piegat, A.
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/205508.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
machine learning
rule probability
probability estimation
m-estimators
decision trees
rough set theory
Opis:
The paper presents an improved sample based rule- probability estimation that is an important indicator of the rule quality and credibility in systems of machine learning. It concerns rules obtained, e.g., with the use of decision trees and rough set theory. Particular rules are frequently supported only by a small or very small number of data pieces. The rule probability is mostly investigated with the use of global estimators such as the frequency-, the Laplace-, or the m-estimator constructed for the full probability interval [0,1]. The paper shows that precision of the rule probability estimation can be considerably increased by the use of m-estimators which are specialized for the interval [phmin, phmax] given by the problem expert. The paper also presents a new interpretation of the m-estimator parameters that can be optimized in the estimators.
Źródło:
Control and Cybernetics; 2014, 43, 1; 133-160
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data-driven framework for viral churn prevention: a case study
Autorzy:
Lucantoni, Laura
Antomarioni, Sara
Bevilacqua, Maurizio
Ciarapica, Filippo E.
Powiązania:
https://bibliotekanauki.pl/articles/406954.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
Big Data Analytics
Machine Learning
Probability Estimation Trees
Customer Value Management
ICT sector
Opis:
The application of churn prevention represents an important step for mobile communication companies aiming at increasing customer loyalty. In a machine learning perspective, Customer Value Management departments require automated methods and processes to create marketing campaigns able to identify the most appropriate churn prevention approach. Moving towards a big data-driven environment, a deeper understanding of data provided by churn processes and client operations is needed. In this context, a procedure aiming at reducing the number of churners by planning a customized marketing campaign is deployed through a data-driven approach. Decision Tree methodology is applied to drow up a list of clients with churn propensity: in this way, customer analysis is detailed, as well as the development of a marketing campaign, integrating the individual churn model with viral churn perspective. The first step of the proposed procedure requires the evaluation of churn probability for each customer, based on the influence of his social links. Then, the customer profiling is performed considering (a) individual variables, (b) variables describing customer-company interactions, (c) external variables. The main contribution of this work is the development of a versatile procedure for viral churn prevention, applying Decision Tree techniques in the telecommunication sector, and integrating a direct campaign from the Customer Value Management marketing department to each customer with significant churn risk. A case study of a mobile communication company is also presented to explain the proposed procedure, as well as to analyze its real performance and results.
Źródło:
Management and Production Engineering Review; 2020, 11, 3; 38-47
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Heterogeneous distance functions for prototype rules : influence of parameters on probability estimation
Autorzy:
Blachnik, M.
Duch, W.
Wieczorek, T.
Powiązania:
https://bibliotekanauki.pl/articles/92882.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
prototype rules
probability estimation
heterogeneous distance functions
similarity-based methods
classification
data mining
Opis:
An interesting and little explored way to understand data is based on prototype rules (P-rules). The goal of this approach is to find optimal similarity (or distance) functions and position of prototypes to which unknown vectors are compared. In real applications similarity functions frequently involve different types of attributes, such as continuous, discrete, binary or nominal. Heterogeneous distance functions that may handle such diverse information are usually based on probability distance measure, such as the Value Difference Metrics (VDM). For continuous attributes calculation of probabilities requires estimations of probability density functions. This process requires careful selection of several parameters that may have important impact on the overall classification of accuracy. In this paper, various heterogeneous distance function based on VDM measure are presented, among them some new heterogeneous distance functions based on different types of probability estimation. Results of many numerical experiments with such distance functions are presented on artificial and real datasets, and quite simple P-rules for several heterogeneous databases extracted.
Źródło:
Studia Informatica : systems and information technology; 2006, 1(7); 19-30
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Revisiting the optimal probability estimator from small samples for data mining
Autorzy:
Cestnik, Bojan
Powiązania:
https://bibliotekanauki.pl/articles/330350.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
probability estimation
small sample
minimal error
m-estimate
estymacja prawdopodobieństwa
mała próbka
błąd minimalny
Opis:
Estimation of probabilities from empirical data samples has drawn close attention in the scientific community and has been identified as a crucial phase in many machine learning and knowledge discovery research projects and applications. In addition to trivial and straightforward estimation with relative frequency, more elaborated probability estimation methods from small samples were proposed and applied in practice (e.g., Laplace’s rule, the m-estimate). Piegat and Landowski (2012) proposed a novel probability estimation method from small samples Eph√2 that is optimal according to the mean absolute error of the estimation result. In this paper we show that, even though the articulation of Piegat’s formula seems different, it is in fact a special case of the m-estimate, where pa = 1/2 and m = √2. In the context of an experimental framework, we present an in-depth analysis of several probability estimation methods with respect to their mean absolute errors and demonstrate their potential advantages and disadvantages. We extend the analysis from single instance samples to samples with a moderate number of instances. We define small samples for the purpose of estimating probabilities as samples containing either less than four successes or less than four failures and justify the definition by analysing probability estimation errors on various sample sizes.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2019, 29, 4; 783-796
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przydatność prawdopodobieństwa subiektywnego do kalkulacji stóp składek w ubezpieczeniach obowiązkowych odpowiedzialności cywilnej zawodowej
Usefulness of Subjective Probability to Calculate Premiums in the Obligatory Civil Professional Insurance
Autorzy:
Wieteska, Stanisław
Powiązania:
https://bibliotekanauki.pl/articles/586361.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Składki ubezpieczeniowe
Szacowanie prawdopodobieństwa
Ubezpieczenia majątkowe
Ubezpieczenia obowiązkowe
Compulsory insurance
Insurance premium
Probability estimation
Property insurance
Opis:
In the years 2003-2009 the several acts of law concerning obligatory insurance of various professional groups were created. Insurances protect these groups especially from errors that occur during performing work. The article presents the problem of difficulties in calculating the contribution rates as a result of lack of data. But in order to calculate the rate of contribution the article attempts to use of subjective probability.
Źródło:
Studia Ekonomiczne; 2013, 154; 124-134
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal estimator of hypothesis probability for data mining problems with small samples
Autorzy:
Piegat, A
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/330967.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
estymacja prawdopodobieństwa
interpretacja częstotliwości prawdopodobieństwa
interpretacja kompletności prawdopodobieństwa
teoria niepewności
single case problem
probability estimation
frequency interpretation of probability
completeness interpretation of probability
uncertainty theory
Opis:
The paper presents a new (to the best of the authors' knowledge) estimator of probability called the "[...] completeness estimator" along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik's m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the [...] completeness estimator over the frequency estimator for the probability interval ph (0.1, 0.9). The frequency estimator is better for ph [0, 0.1] and ph [0.9, 1].
Źródło:
International Journal of Applied Mathematics and Computer Science; 2012, 22, 3; 629-645
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of Estimators of a Probability of Success in Two Models
Porównanie estymatorów prawdopodobieństwa sukcesu w dwóch modelach
Autorzy:
Zieliński, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/904811.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
estimation of probability of success
binomial model
negative binomial model
Opis:
In modeling two valued phenomena a binomial or negative binomial model is applied. In the paper minimum variance unbiased estimators of a probability of success obtained in two models are compared.
Do modelowania zjawisk dychotomicznych wykorzystuje się model dwumianowy lub model ujemny dwumianowy. W pracy porównano estymatory nieobciążone o minimalnej wariancji prawdopodobieństwa sukcesu w tych dwóch modelach.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2013, 286
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hugo Steinhaus problem of estimation of the war casualities on the base of contemporary press obituaries
Autorzy:
Kopocińska, Ilona
Kopociński, Bolesław
Powiązania:
https://bibliotekanauki.pl/articles/748320.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Matematyczne
Tematy:
Steinhaus of obituaries method, inflated geometric probability distribution, binomial dilution, parameter estimation
Opis:
Przedmiotem noty jest próba rekonstrukcji, wzmiankowanej we wspomnieniach Hugona Steinhausa, metody oszacowania strat wojennych w armii Niemieckiej Rzeszy podczas drugiej wojny światowej przy wykorzystaniu ówczesnych nekrologów prasowych .Zakładając dla wielkości rodziny niemieckiej rozdęty rozkład geometryczny i wprowadzając pewne przekształcenia tej zmiennej losowej oraz biorąc pod uwagę rozkład treści nekrologów, wskazujemy na możliwość oszacowania frakcji poległych w armi.
In the memoirs of Professor Hugo Steinhaus the problem of estimation of the war casualties of German Army during the SecondWorldWar on the base of contemporary press obituaries is mentioned.A ssuming the inflated geometric probability distribution function for the size of German family, introducing some transformations of this random variable and taking into account the probability distribution function of the contens of obituaries we propose in the note a solution of the problem.
Źródło:
Mathematica Applicanda; 2007, 35, 49/08
1730-2668
2299-4009
Pojawia się w:
Mathematica Applicanda
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Road accidents frequency control using Bayesian Networks
Autorzy:
Soler-Flores, Francisco
González-Cancelas, Nicoleta
Molina Serrano, Beatriz
Powiązania:
https://bibliotekanauki.pl/articles/1177427.pdf
Data publikacji:
2018
Wydawca:
Przedsiębiorstwo Wydawnictw Naukowych Darwin / Scientific Publishing House DARWIN
Tematy:
Bayesian Networks
estimation
probability
road accidents
Opis:
Theory and application of rare events have been very important in recent years due to its practical importance in very different fields such as insurance, finance, engineering or environmental science. This paper presents a methodology for predicting rare events based on Bayesian Networks which in turn enables the study alternative scenarios to control the frequency of road accidents. This way the model Naive-Poisson and ROCDM is presented in this paper for its validation. The developed model is used to estimate and predict road accidents as rare events and results have been evaluated by using ROCDM curve. Naive-Poisson model and a validation model based on ROC curve is used to study several Spanish roads and the results are here shown.
Źródło:
World Scientific News; 2018, 103; 77-93
2392-2192
Pojawia się w:
World Scientific News
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of the probability of propulsion loss by a seagoing ship based on expert opinions
Autorzy:
Brandowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/258638.pdf
Data publikacji:
2009
Wydawca:
Politechnika Gdańska. Wydział Inżynierii Mechanicznej i Okrętownictwa
Tematy:
ship
loss of propulsion
probability
estimation
expert
Opis:
The event of the loss of propulsion function has been defined as hazardous event to a seagoing ship. It has been formalized. The procedure of acquisition of expert opinions on frequency of the event occurrence has been described. It may be considered to be of a numerical-fuzzy character. The fuzzy part was transferred to the numerical form by the pair comparison method. An example of the ship propulsion system comprising a low speed internal combustion engine and a fix pitch propeller illustrates the method presented. It may be used wherever a hazard analysis has to be performed of a system involving human and technical aspects and there is a shortage of objective data on the investigated object.
Źródło:
Polish Maritime Research; 2009, 1; 73-77
1233-2585
Pojawia się w:
Polish Maritime Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An aggregate criterion for selecting a distribution for times to failure of components of rail vehicles
Zagregowane kryterium wyboru rozkładu czasu douszkodzenia elementów pojaz dów szynowych
Autorzy:
Selech, Jarosław
Andrzejczak, Karol
Powiązania:
https://bibliotekanauki.pl/articles/1365224.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
time to failure
estimation of probability distribution
reliability of rail vehicles
czas do uszkodzenia
estymacja rozkładu prawdopodobieństwa
niezawodność pojazdów szynowych
Opis:
This paper presents an aggregate method of selecting a theoretical cumulative distribution function (CDF) for an empirical CDF. The method was intended to identify the time of reliable operation of a renewable technical object by applying three criteria based on the following statistics: the modified Kolmogorov–Smirnov (MK-S) statistic, the mean absolute deviation of the theoretical CDF from the empirical CDF, and a statistic calculated on the basis of a log-likelihood function. The values of these statistics were used to rank eleven probability distributions. The data for which calculations were made concerned failures of the driver’s cab lock recorded during five years of operation of a fleet of 45 trams. Before calculating the statistics, the empirical CDF of the examined component was determined using the Kaplan–Meier estimator, and then, using the method of Maximum Likelihood Estimation, the parameters of the analysed theoretical distributions were estimated. The theoretical distributions were then ranked according to the values obtained for each of the assumed criteria: the lower the value for a given criterion, the higher the ranking position, indicating a better fit according to that criterion. Then, based on the three rankings and on weights assigned to the individual criteria, an aggregate criterion (referred to as DESV) was implemented to select the best-fitting probability distribution. The method assumes that the lowest DESV value corresponds to the best-fitting theoretical distribution. In the case of the examined component, this was found to be the generalised gamma distribution. It is shown that if the final decision is based on the aggregate criterion, which takes into account the three criteria for goodness of fit, the reliability of the estimation of the time-to-failure distribution increases, and thus mistakes resulting from the use of only one of the criteria can be avoided.
W pracy przedstawiono zagregowaną metodę doboru dystrybuant hipotetycznych do dystrybuanty empirycznej. Metoda miała na celu identyfikację czasu niezawodnej pracy odnawialnego obiektu technicznego poprzez zastosowanie trzech kryteriów, w których użyto następujących statystyk: zmodyfikowanej statystyki Kołmogorowa-Smirnowa (MK-S), statystyki średniego odchylenia bezwzględnego dystrybuanty hipotetycznej od empirycznej oraz statystyki obliczanej na podstawie zlogarytmowanej funkcji wiarygodności. Wartości tych statystyk posłużyły do rangowania jedenastu rozkładów prawdopodobieństwa. Dane dla których dokonano obliczeń dotyczyły uszkodzeń zamka kabiny motorniczego jakie odnotowano w ciągu pięciu lat użytkowania floty 45 tramwajów. Przed obliczeniem statystyk wyznaczono dystrybuantę empiryczną badanego elementu przy pomocy estymatora KaplanaMeiera, a następnie przy użyciu metody największej wiarygodności oszacowano parametry uwzględnionych w badaniach rozkładów hipotetycznych. Po wyznaczaniu parametrów nastąpiło rangowanie rozkładów hipotetycznych według wartości otrzymanych dla każdego z przyjętych kryteriów, im mniejsza wartość dla danego kryterium tym wyższa pozycja w rankingu, świadcząca o lepszej jakości dopasowania według danego kryterium. Po ustaleniu rankingu według kryteriów zgodności, każdemu z kryteriów zgodności dopasowania dystrybuant modelowych do empirycznej nadano wagi. Następnie na podstawie uzyskanych trzech rankingów oraz wag nadanych poszczególnym kryteriom zgodności wyznaczana jest zagregowana miara zgodności (oznaczona DESV), która służy do wyznaczania najlepszego rozkładu prawdopodobieństwa. W prezentowanej metodzie przyjęto, że najmniejsza wartość DESV wyznacza najlepiej dopasowany rozkład hipotetyczny. W przypadku badanego elementu rozkładem tym okazał się uogólniony rozkład gamma. Pokazano, że na podstawie zagregowanego kryterium uwzględniającego trzy statystyki zgodności dopasowania zwiększa się wiarygodność estymacji rozkładu czasu pracy do uszkodzenia, unikając tym samym błędów jakie można popełnić uzależniając się tylko od jednej z nich.
Źródło:
Eksploatacja i Niezawodność; 2020, 22, 1; 102-111
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On two confidence intervals for the correlation coefficient
O dwóch przedziałach ufności dla współczynnika korelacji
Autorzy:
Tarasinska, J.
Powiązania:
https://bibliotekanauki.pl/articles/9709.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Przyrodniczy w Lublinie. Katedra Zastosowań Matematyki i Informatyki
Tematy:
correlation coefficient
interval estimation
coverage probability
confidence interval length
Źródło:
Colloquium Biometricum; 2008, 38
1896-7701
Pojawia się w:
Colloquium Biometricum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Calibration of a credit rating scale for Polish companies
Autorzy:
Wójcicka, A.
Powiązania:
https://bibliotekanauki.pl/articles/406413.pdf
Data publikacji:
2012
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
credit risk
estimation of credit risk
probability of default
Opis:
Increasing number of bankruptcy announcements means that even greater attention is being paid to the correct evaluation of the probability of default (PD) and decisions made on the basis of it. Reliable estimation of the likelihood of a company’s bankruptcy reduces risk, not only for the company itself but also for all co-operating companies and financial institutions. The financial crisis has led to a tightening up of the conditions for gaining finance from banks. However, it is not only the evaluation of PD itself that is so important but also the correct classification of companies according to their PD level (“good” or “bad” companies). There is very little consideration about possible adjustments of the credit risk scale, as usually the American scale is adopted with no changes which seems incorrect. This paper stresses the importance of correct calibration of the credit rating scale. It should not be assumed (as it was in the past) that once a scale is defined it remains fixed and independent of the country. Therefore, the research carried out on Polish companies shows that the credit rating scale should be changed and the default point (i.e. “cut-off” point) should be higher than in the past. The author uses a modified classification matrix based on the probability of default. The paper compares the classification of quoted Polish companies according to their credit risk level (PD) with the actual occurrence of default when various default “cut-off” points are used.
Źródło:
Operations Research and Decisions; 2012, 22, 3; 63-73
2081-8858
2391-6060
Pojawia się w:
Operations Research and Decisions
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Some applications of probability generating function based methods to statistical estimation
Autorzy:
Esquível, Manuel
Powiązania:
https://bibliotekanauki.pl/articles/729678.pdf
Data publikacji:
2009
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
probability generating function
empirical laws
estimation of parameters of continuous laws
Opis:
After recalling previous work on probability generating functions for real valued random variables we extend to these random variables uniform laws of large numbers and functional limit theorem for the empirical probability generating function. We present an application to the study of continuous laws, namely, estimation of parameters of Gaussian, gamma and uniform laws by means of a minimum contrast estimator that uses the empirical probability generating function of the sample. We test the procedure by simulation and we prove the consistency of the estimator.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2009, 29, 2; 131-153
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies