Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "likelihood" wg kryterium: Temat


Tytuł:
Zero-modified Poisson-Modification of Quasi Lindley distribution and its application
Autorzy:
Tharshan, Ramajeyam
Wijekoon, Pushpakanthie
Powiązania:
https://bibliotekanauki.pl/articles/2156994.pdf
Data publikacji:
2022-12-15
Wydawca:
Główny Urząd Statystyczny
Tematy:
over-dispersion
mixed Poisson distribution
PMQL distribution
zero modification
maximum likelihood estimation
Opis:
The Poisson-Modification of Quasi Lindley (PMQL) distribution is a newly introduced mixed Poisson distribution for over-dispersed count data. The aim of this article is to introduce the Zero-modified PMQL (ZMPMQL) distribution as an alternative to the PMQL distribution in order to accommodate zero inflation/deflation. The method of obtaining the ZMPMQL distribution jointly with some of its important properties, namely the probability mass and distribution functions, mean, variance, index of dispersion, and quantile function are presented. Furthermore, some of its special cases are discussed. The maximum likelihood (ML) estimation method is used for the unknown parameter estimation. A simulation study is conducted in order to evaluate the asymptotic theory of the ML estimation method and to show the superiority of the ML method over the method of moments estimation. The applicability of the introduced distribution is illustrated by using a real-world data set.
Źródło:
Statistics in Transition new series; 2022, 23, 4; 113-128
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zdrowie na sprzedaż? Telewizyjne reklamy farmaceutyków a peryferyjna droga perswazji
Autorzy:
Moczoł, Natalia
Powiązania:
https://bibliotekanauki.pl/articles/2120482.pdf
Data publikacji:
2022-08-10
Wydawca:
Uniwersytet Gdański. Wydawnictwo Uniwersytetu Gdańskiego
Tematy:
komunikowanie zdrowotne
reklama telewizyjna
perswazja
farmaceutyki
Elaboration Likelihood Model
health communication
TV advertising
persuasion
pharmaceuticals
Opis:
W artykule przedstawiono wyniki analizy zawartości telewizyjnych reklam farmaceutyków w kontekście peryferyjnej drogi perswazji. Badania przeprowadzono na podstawie 4052 spotów wyemitowanych w trzech ogólnopolskich stacjach telewizyjnych w listopadzie 2020 roku i styczniu 2021 roku. Na podstawie uzyskanych wyników wykazano, że w przeważającym stopniu reklamy związane z tą grupą produktów nie opierają się na odwołaniach do medycyny. Autorzy tych przekazów rzadko wykorzystują obraz przedstawicieli zawodów medycznych jako ekspertów. Na podstawie przeprowadzonych analiz nie stwierdzono również kreowania narracji z wykorzystaniem takich narzędzi perswazji jak sceny nawiązujące do środowiska medycznego oraz specjalistyczne słownictwo. Zebrany materiał badawczy wykazał, że rolę autorytetu w reklamach leków OTC, suplementów diety oraz wyrobów medycznych bardzo często spełniają członkowie rodziny i przyjaciele. Najczęściej wykorzystywanym rodzajem scen są przestrzenie nawiązujące do życia codziennego. Na podstawie przeprowadzonego badania wskazano na nowe trendy zaobserwowane w telewizyjnych reklamach farmaceutyków, które wynikają zarówno z uwarunkowań prawnych, jak i pogłębiającej się mediatyzacji w obszarze medycyny.
The article presents the results of the content analysis of TV commercials for pharmaceuticals in the peripheral way of persuasion. The research was based on 4,052 spots broadcast by three TV stations in November 2020 and January 2021. The obtained results showed that, to a large extent, advertisements related to this group of products are not based on references to medicine. The authors of these reports rarely use the image of medical professionals as experts. The analysis also did not show creating a narrative using persuasion tools such as scenes referring to the medical environment and specialized vocabulary. The collected research material has been demonstrated that family members and friends often play the role of authority in advertising OTC drugs, dietary supplements, and medical devices. The most frequently used type of scenes are spaces related to everyday life. Based on the conducted research, new trends were identified in televised Natalia Moczoł 114 advertisements for pharmaceuticals, resulting from both legal conditions and the deepening mediatisation in medicine.
Źródło:
Media Biznes Kultura; 2022, 1(12); 113-124
2451-1986
2544-2554
Pojawia się w:
Media Biznes Kultura
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie metod statystycznych w kryminalistyce
Use of statistical methods in forensics
Autorzy:
Cichocki, Stanisław
Powiązania:
https://bibliotekanauki.pl/articles/1373956.pdf
Data publikacji:
2015
Wydawca:
Centralne Laboratorium Kryminalistyczne Policji
Tematy:
kryminalistyka
rachunek prawdopodobieństwa
statystyka
iloraz wiarygodności
forensics
probability
statistics
likelihood ratio
Opis:
Artykuł podejmuje problematykę wykorzystania metod statystycznych w kryminalistyce. W tym celu przedstawiono rys historyczny opisujący rozwój wykorzystania tych metod. Omówiono również istotę tych metod, wskazując na ich główne zalety i wady. Do tych pierwszych zaliczyć można skwantyfikowanie niepewności związanej z danym dowodem, możliwość oceny prawdopodobieństwa zajścia którejś z wersji wydarzeń czy możliwość testowanie różnego rodzaju hipotez. Do wad towarzyszących wykorzystaniu metod statystycznych w kryminalistyce zaliczyć można konieczność posiadania odpowiedniej wiedzy z zakresu matematyki, rachunku prawdopodobieństwa czy statystyki, brak której utrudni bądź uniemożliwi zastosowanie właściwych narzędzi matematycznych, zwłaszcza przez osoby, które dokonują oceny dowodów, oraz problemy z przekazaniem i interpretacją uzyskanych wyników przez biegłych wykorzystujących metody statystyczne w kryminalistyce, tak aby były one zrozumiałe dla laików. Brak odpowiedniego zrozumienia może prowadzić do wystąpienia mających poważne konsekwencje błędów. Dodatkowo przedstawiono kilka przykładów zastosowania metod statystycznych w kryminalistyce takich jak analiza linii papilarnych, analiza fragmentów szkła i analiza profilu DNA.
The article undertakes the issues related to the use of statistical methods in forensics. To this end, a historical background on the development of such methods was presented. The essence of the methods was discussed with particular emphasis on their advantages and drawbacks. The former include the possibilities of quantifying uncertainty related to new evidence, assessing the probability of occurrence of one of versions of events or testing various hypotheses. The drawbacks related to applying statistical methods to forensics include the need for relevant expertise in mathematics, probability, and statistics. The lack of such expertise may impede or prevent the application of proper mathematical tools, especially by persons who evaluate evidence, or cause problems for the court experts who use statistical methods in forensics, in terms of conveying and interpreting the obtained results in a manner that they are understandable to non-professionals. The lack of sufficient understanding may lead to errors of serious consequences. In addition, several examples of the use of statistical methods in forensics are shown, such as fingerprint, glass particie and DNA analyses.
Źródło:
Problemy Kryminalistyki; 2015, 288; 3-14
0552-2153
Pojawia się w:
Problemy Kryminalistyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie filtru cząsteczkowego w problemie identyfikacji układów automatyki
Employ a particle filter in the identification procedure
Autorzy:
Kozierski, P.
Powiązania:
https://bibliotekanauki.pl/articles/158697.pdf
Data publikacji:
2012
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Elektrotechniki
Tematy:
identyfikacja
metoda największej wiarygodności
filtr cząsteczkowy
oczekiwanie-maksymalizacja
identification
maximum likelihood method
particle filter
expectation-maximization
Opis:
W artykule przedstawiono sposób identyfikacji parametrycznej obiektów nieliniowych zapisanych w przestrzeni stanu. Identyfikacja wykorzystuje metodę największej wiarygodności (ML), z zastosowaniem filtru cząsteczkowego i algorytmu oczekiwanie-maksymalizacja (EM).
A way of parameter estimation of nonlinear dynamic systems in state-space form is presented. The identification uses Maximum Likelihood method (ML), Particle Filter approach and Expectation-Maximization algorithm (EM).
Źródło:
Prace Instytutu Elektrotechniki; 2012, 260; 157-169
0032-6216
Pojawia się w:
Prace Instytutu Elektrotechniki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie adaptacyjnej metody redukcji szumów na obrazach cyfrowych do dektekcji krawędzi
Edge detection using adaptive smoothing of digital images
Autorzy:
Kolecki, J.
Wróbel, A.
Powiązania:
https://bibliotekanauki.pl/articles/129815.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
przetwarzanie obrazów cyfrowych
detekcja krawędzi
metoda adaptacyjna
lokalna estymacja
MNW
digital image processing
edge detection
adaptive approach
local likelihood estimation
Opis:
Detekcja krawędzi często stanowi ważny etap przetwarzania obrazów cyfrowych w procedurach automatycznego pomiaru. Metody będące obecnie w użyciu, w większości oparte są na wykorzystaniu filtrów krawędziujących. Wymienić należy tu chociażby filtr LoG (Laplacian of Gaussian) jak również bardziej zaawansowaną metodę Cannyego- Derichea. W niniejszym artykule proponowane jest inne podejście do problemu detekcji krawędzi. Proponowane rozwiązanie jest oparte na wykorzystaniu metod statystyki matematycznej, w szczególności propagacyjno-separacyjnego podejścia do lokalnej metody największej wiarygodności, opracowanego w roku 2006 przez J. Polzehla i V. Spokoinego. Istotą metody jest adaptacyjne określenie sąsiedztwa każdego z pikseli, które wykorzystywane jest do estymacji jasności danego piksela. Sąsiedztwo to określane jest poprzez wagi przypisywane pikselom leżącym w pobliżu piksela o estymowanej jasności. Wartości wag zależą nie tylko od odległości od estymowanego piksela, ale też od różnicy jasności między pikselami. Wpływ tych dwóch czynników można dowolnie modyfikować. Prezentowana metoda przeznaczona jest docelowo do redukcji szumów obrazów cyfrowych, jednak po przyjęciu odpowiednich wartości parametrów udaje się osiągnąć wynik zbliżony do wyniku segmentacji. Do ostatecznego wykrycia krawędzi należy w drugim etapie zastosować filtr krawędziujący np. filtr Laplace’a. Dobór parametrów redukcji szumu pozwala kontrolować stopień szczegółowości otrzymywanych konturów. Do weryfikacji metody wykorzystano dwa fragmenty zdjęć lotniczych wykonanych nad obszarami miejskimi. Dokonano porównania proponowanej metody z wynikami działania algorytmu Cannyego-Derichea. Otrzymywane krawędzie są bardziej wygładzone i pozbawione drobnych przerw. Mniej jest również mało istotnych, niepożądanych krawędzi, wykrycia, których nie udało się uniknąć stosując algorytm Cannyego-Derichea.
Edge detection is often a fundamental stage of digital image processing in automatic measurement techniques. A number of approaches for edge detection, such as LoG (Laplacian of Gaussian) filtering and Canny-Deriche algorithm, involve using edge-extracting filters. In this paper we present a new edge detection technique. Our approach is based on statistics, specifically on the propagation-separation approach for local likelihood estimation, which was developed in 2006 by J.Pohlzel and V.Spokoiny. This new approach for local estimation involves adaptive determination of a pixel’s neighbourhood, used for estimation of pixel’s intensity. This neighbourhood is determined by a set of weights assigned to pixels in the vicinity of the point of estimation. The value of each weight depends not only on the Euclidean distance between the pixels, but also on a differences in the intensity. The influence of these two factors could be modified by changing the parameters of the procedure. The method, as described briefly here, has been mainly designed for image restoration; however, by using a special set of parameters an effect, similar to segmentation, can be achieved. To obtain the final edge image, it is sufficient to use simply one of the edge extracting filters, for example the Laplacian one. The procedure parameters allow to influence sensitivity of the edge detection. The edge detection results were tested on two fragments of frame images of a city. The edges detected were compared with results of the Canny-Deriche algorithm. The edges obtained were smoother and did not show numerous small breaks. In addition, short, less important edges were less likely to appear. These effects were impossible to avoid using the Canny-Deriche approach.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18a; 263-272
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wnioskowanie parametryczne i nieparametryczne w tablicach dwudzielczych i trójdzielczych
Nonparametric Versus Parametric Reasoning Based on Contingency Tables
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/965080.pdf
Data publikacji:
2018
Wydawca:
Główny Urząd Statystyczny
Tematy:
wnioskowanie statystyczne
funkcja największej wiarygod-ności
tablice kontyngencji
test parametryczny
parametr przepływu prawdopo-dobieństwa
statistical inference
likelihood function
contingency tables
parametric test
probability flow parameter
Opis:
This paper proposes scenarios of generating two-way and three way contingency tables (CTs). A concept of probability flow parameter (PFP) plays a crucial role in these scenarios. Additionally, measures of untruthfulness of ܪ are defined. The power divergence statistics and the |ܺ| statistics are used. This paper is a simple attempt to replace a nonparametric statistical inference from CTs by the parametric one. Maximum likelihood method is applied to estimate PFP and instructions of generating CTs according to scenarios in question are presented. The Monte Carlo method is used to carry out computer simulations.
W artykule proponowane są scenariusze generowania tablic dwudzielczych (TD) z parametrem przepływu prawdopodobieństwa i zdefiniowane są miary nieprawdziwości H0. W artykule wykorzystywane są statystyki z rodziny ܺଶ oraz statystyka modułowa |ܺ|. Niniejsza praca jest prostą próbą zastąpienia nieparametrycznej metody wnioskowania statystycznego metodą parametryczną. Metoda największej wiarygodności jest wykorzystana do oszacowania parametru przepływu prawdopodobieństwa. W pracy opisane są także instrukcje generowania TD za pomocą metody słupkowej. Symulacje komputerowe przeprowadzono metodami Monte Carlo.
Źródło:
Przegląd Statystyczny; 2018, 65, 3; 314-349
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Walidacja wewnętrzna programu biostatystycznego LRmix Studio
Internal validation of LRmix Studio biostatistical software
Autorzy:
Brągoszewska, Anna
Boroń, Michał
Powiązania:
https://bibliotekanauki.pl/articles/2065737.pdf
Data publikacji:
2019
Wydawca:
Centralne Laboratorium Kryminalistyczne Policji
Tematy:
mieszaniny DNA
iloraz wiarygodności
LRmix Studio
walidacja
genetyka sądowa
DNA mixtures
likelihood ratio
validation
forensic DNA analysis
Opis:
Źródło pochodzenia DNA w śladzie nigdy nie jest znane z całą pewnością, mimo iż profil dowodowy może być zgodny z profilem DNA danej osoby z populacji. Metody statystyczne, w tym iloraz wiarygodności, pozwalają oszacować siłę dowodową uzyskanego wyniku oraz ocenić stosunek szans między konkurencyjnymi hipotezami, dotyczącymi pochodzenia profilu lub mieszaniny DNA. W rezultacie stosowanie analiz opartych na metodach probabilistycznych wydaje się logicznie uzasadnione oraz pozwala zmiejszyć subiektywizm w interpretacji wyników badań. Dokładne poznanie i zrozumienie zasad działania oraz ograniczeń narzędzi wykorzystywanych do statystycznych interpretacji wyników badań śladów biologicznych w kryminalistyce jest kluczowym etapem poprzedzającym formułowanie wniosków płynących z tych analiz. Proces sprawdzenia wydajności programu LRmix Studio oraz wiarygodności i powtarzalności wyników obejmował pojedyncze profile oraz mieszaniny od dwóch i trzech osób. Wykonano 1971 porównań z profilami referencyjnymi. Określono poprawność generowanych prawdopodobieństw warunkowych oraz wyznaczono ograniczenia w postaci liczby zjawisk drop-out w profilu dowodowym, których przekroczenie może generować fałszywe wartości LR.
The source of DNA in a stain is never known with full certainty despite the fact that the evidential profile may match a DNA profile of a given person from the population. The statistical methods, including the likelihood ratio (LR) allow estimating the evidential power of the obtained result and assessing the ratio of the odds between competing hypotheses as to the origin of a DNA profile or mixture. Therefore using analyses based on probabilistic methods seems to be logically justified and allows reducing the subjectivism of interpretation of results. Thorough knowledge and understanding of the principles of operation and limitations of the tools used for statistical interpretation of the results of biological traces analyses in forensics is the key stage that precedes the formulation of conclusions. The process of checking the efficiency of LRmix Studio software as well as reliability and repeatability of results involved single profiles and mixtures from two and three persons. 1971 comparisons with referential profiles were performed. The correctness of generated conditional probabilities was determined and the limits, i.e. drop-outs number in the evidential profile whose exceeding might bring about false LR values were identified.
Źródło:
Problemy Kryminalistyki; 2019, 306; 33-43
0552-2153
Pojawia się w:
Problemy Kryminalistyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Unfolding spheres size distribution from linear sections with B-splines and EMDS algorithm
Autorzy:
Szkutnik, Z.
Powiązania:
https://bibliotekanauki.pl/articles/255515.pdf
Data publikacji:
2007
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
inverse problem
singular value expansion
stereology
discretization
quasi-maximum likelihood estimator
Opis:
The stereological problem of unfolding spheres size distribution from linear sections is formulated as a problem of inverse estimation of a Poisson process intensity function. A singular value expansion of the corresponding integral operator is given. The theory of recently proposed B-spline sieved quasi-maximum likelihood estimators is modified to make it applicable to the current problem. Strong L2-consistency is proved and convergence rates are given. The estimators are implemented with the recently proposed EMDS algorithm. Promising performance of this new methodology in finite samples is illustrated with a numerical example. Data grouping effects are also discussed.
Źródło:
Opuscula Mathematica; 2007, 27, 1; 151-165
1232-9274
2300-6919
Pojawia się w:
Opuscula Mathematica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Transmuted Kumaraswamy Distribution
Autorzy:
Khan, Muhammad Shuaib
King, Robert
Hudson, Irene Lena
Powiązania:
https://bibliotekanauki.pl/articles/973543.pdf
Data publikacji:
2016
Wydawca:
Główny Urząd Statystyczny
Tematy:
Kumaraswamy distribution
moments
order statistics
parameter estimation
maximum likelihood estimation
Opis:
The Kumaraswamy distribution is the most widely applied statistical distribution in hydrological problems and many natural phenomena. We propose a generalization of the Kumaraswamy distribution referred to as the transmuted Kumaraswamy (T K w) distribution. The new transmuted distribution is developed using the quadratic rank transmutation map studied by Shaw et al. (2009). A comprehensive account of the mathematical properties of the new distribution is provided. Explicit expressions are derived for the moments, moment generating function, entropy, mean deviation, Bonferroni and Lorenz curves, and formulated moments for order statistics. The T K w distribution parameters are estimated by using the method of maximum likelihood. Monte Carlo simulation is performed in order to investigate the performance of MLEs. The flood data and HIV/ AIDS data applications illustrate the usefulness of the proposed model.
Źródło:
Statistics in Transition new series; 2016, 17, 2; 183-210
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The role of the origin (automatic vs. reflective) of affective state for the effectiveness of persuasion based on strong vs. weak arguments
Autorzy:
Walkowiak, Magdalena T.
Imbir, Kamil K.
Powiązania:
https://bibliotekanauki.pl/articles/2127064.pdf
Data publikacji:
2019-04-08
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
Elaboration Likelihood Model
persuasion
Emotion Duality Model
reflective emotions
automatic emotions
information processing
Opis:
Previous research has focused on the influence of emotional valence on the effectiveness of per-suasion via the central route or the peripheral route. The purpose of this study was to answer the question of whether other dimensions of emotion, such as the origin of emotional charge (auto-matic vs. reflective) may also influence the effectiveness of persuasion. It was expected that reflective emotions would increase susceptibility to strong arguments, while automatic emotions would result in a lack of sensitivity to the quality of arguments. Emotional words of proven emotional quality were used to elicit affective states. They were chosen in order to contrast the different levels of emotional valence (negative, neutral, and positive) and the origin of emotion (automatic and reflective). It turned out that in the case of reflective conditions, a significantly higher effectiveness of persuasion was observed for strong arguments than for weak ones. In the case of automatic conditions, there was no difference in the effectiveness of persuasion depending on the quality of the arguments. There were also no differences related to emotional valence; however, the manipulation of affective states on emotional valence dimension turned out not to be effective. This suggests that the origin of emotion can be considered a factor influencing processing via the central or peripheral route to persuasion.
Źródło:
Roczniki Psychologiczne; 2018, 21, 1; 9-33
1507-7888
Pojawia się w:
Roczniki Psychologiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The odd power generalized Weibull-G power series class of distributions: properties and applications
Autorzy:
Oluyede, Broderick
Moakofi, Thatayaone
Chipepa, Fastel
Powiązania:
https://bibliotekanauki.pl/articles/2034112.pdf
Data publikacji:
2022-03-15
Wydawca:
Główny Urząd Statystyczny
Tematy:
Weibull-g distribution
power series
Poisson distribution
logarithmic distribution
maximum likelihood estimation
Opis:
We develop a new class of distributions, namely, the odd power generalizedWeibull-G power series (OPGW-GPS) class of distributions. We present some special classes of the proposed distribution. Structural properties, have also been derived. We conducted a simulation study to evaluate the consistency of the maximum likelihood estimates. Moreover, two real data examples on selected data sets, to illustrate the usefulness of the new class of distributions. The proposed model outperforms several non-nested models on selected data sets.
Źródło:
Statistics in Transition new series; 2022, 23, 1; 89-108
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The length-biased power hazard rate distribution: Some properties and applications
Autorzy:
Mustafa, Abdelfattah
Khan, M. I.
Powiązania:
https://bibliotekanauki.pl/articles/2106877.pdf
Data publikacji:
2022-06-14
Wydawca:
Główny Urząd Statystyczny
Tematy:
length-biased
power hazard rate distribution
maximum likelihood estimation
Opis:
In this article, the length-biased power hazard rate distribution has introduced and investigated several statistical properties. This distribution reports an extension of several probability distributions, namely: exponential, Rayleigh, Weibull, and linear hazard rate. The procedure of maximum likelihood estimation is taken for parameters. Finally, the applicability of the model is explored by three real data sets. To examine, the performance of the technique, a simulation study is extracted.
Źródło:
Statistics in Transition new series; 2022, 23, 2; 1-16
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Half-Logistic Odd Power Generalized Weibull-G Family of Distributions
Autorzy:
Peter, Peter O.
Chipepa, Fastel
Oluyede, Broderick
Makubate, Boikanyo
Powiązania:
https://bibliotekanauki.pl/articles/2119924.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
half logistic distribution
half logistic-G distribution
Weibull generalized-G distribution
maximum likelihood estimation
Opis:
We develop and study in detail a new family of distributions called Half- logistic Odd Power Generalized Weibull-G (HLOPGW-G) distribution, which is a linear combination of the exponentiated-G family of distributions. From the special cases considered, the model can fit heavy tailed data and has non-monotonic hazard rate functions. We further assess and demonstrate the performance of this family of distributions via simulation experiments. Real data examples are given to demonstrate the applicability of the proposed model compared to several other existing models.
Źródło:
Central European Journal of Economic Modelling and Econometrics; 2022, 1; 1-35
2080-0886
2080-119X
Pojawia się w:
Central European Journal of Economic Modelling and Econometrics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The errors-in-variable model in the optimal portfolio construction
Autorzy:
Czapkiewicz, A.
Machowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/375915.pdf
Data publikacji:
2007
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
maximum likelihood method
errors-in-variables model
portfolio
simulation study
Opis:
In the paper we consider a modification of Sharpe's method used in classical portfolio analysis for optimal portfolio building. The conventional theory assumes there is a linear relationship between asset's return and market portfolio return, while the influence of all the other factors is not included. We propose not to neglect them any more, but include them into a model. Since the factors in question are often hard to measure or even characterize, we treat them as a disturbances on random variables used by classical Sharpe's method. The key idea of the paper is the modification of the classical approach by application of the errors-in-variable model. We assume that both independent (market portfolio return) as well as dependent (given asset's return) variables are randomly distributed values related with each other by linear relationship and we build the model used for parameters' estimation. To verify the model, we performed an analysis based on archival data from Warsaw Stock Exchange. The results are also included.
Źródło:
Decision Making in Manufacturing and Services; 2007, 1, 1-2; 49-57
1896-8325
2300-7087
Pojawia się w:
Decision Making in Manufacturing and Services
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The em Algorithm and Its Implementation for the Estimation of Frequencies of snp-Haplotypes
Autorzy:
Polańska, J.
Powiązania:
https://bibliotekanauki.pl/articles/908153.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
genetyka
informatyka
algorithms
haplotypes
likelihood functions
gene frequency
Opis:
A haplotype analysis is becoming increasingly important in studying complex genetic diseases. Various algorithms and specialized computer software have been developed to statistically estimate haplotype frequencies from marker phenotypes in unrelated individuals. However, currently there are very few empirical reports on the performance of the methods for the recovery of haplotype frequencies. One of the most widely used methods of haplotype reconstruction is the Maximum Likelihood method, employing the Expectation-Maximization (EM) algorithm. The aim of this study is to explore the variability of the EM estimates of the haplotype frequency for real data. We analyzed haplotypes at the BLM, WRN, RECQL and ATM genes with 8-14 biallelic markers per gene in 300 individuals. We also re-analyzed the data presented by Mano et al. (2002). We studied the convergence speed, the shape of the loglikelihood hypersurface, and the existence of local maxima, as well as their relations with heterozygosity, the linkage disequilibrium and departures from the Hardy-Weinberg equilibrium. Our study contributes to determining practical values for algorithm sensitivities.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2003, 13, 3; 419-429
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies