Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "metoda wiarygodności" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
Analiza możliwości zastosowania hierarchicznych estymatorów wiarygodności wyższego rzędu w ubezpieczeniach komunikacyjnych
Analysis of Possibility of Application of Higher-Order Hierarchical Credibility Estimators in Automobile Insurance
Autorzy:
Topolewski, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/1365411.pdf
Data publikacji:
2015-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
ubezpieczenia komunikacyjne
metoda wiarygodności
estymatory hierarchiczne
automobile insurance
credibility
hierarchical estimators
Opis:
Praca dotyczy możliwości zastosowania estymatorów wiarygodności rzędu wyższego niż jeden, zwanych estymatorami hierarchicznymi, do oszacowania szkodowości a’posteriori w systemach ubezpieczeń komunikacyjnych uwzględniających historię szkodowości ubezpieczonego. W części pierwszej przedstawiona jest idea metody wiarygodności, a w części drugiej omówiony liniowy estymator wiarygodności. Część trzecia wprowadza odpowiednie dla badanego problemu modele ryzyka w postaci rozkładów liczby szkód, które zostają wykorzystane do wyprowadzenia odpowiednich estymatorów pierwszego rzędu. Część czwarta rozszerza rozważania z części trzeciej o estymatory hierarchiczne drugiego rzędu. W empirycznej części piątej zastosowano wcześniej przedstawione rozwiązania do oszacowania szkodowości dla przykładowego portfela ubezpieczeń, porównano uzyskane wyniki i wyciągnięto wnioski dotyczące możliwości zastosowana hierarchicznych estymatorów drugiego rzędu w ubezpieczeniach komunikacyjnych.
The work concerns the applicability of credibility estimators of order higher than one, called hierarchical estimators, to posterior estimates of claim ratio in motor insurance systems based on the history of the insured. The first part presents the idea of the credibility estimation method. In the second part the linear credibility estimator is discussed. The third part introduces appropriate for risk models in the form of claims distributions, which are used to derive the corresponding hierarchical estimates of the first order. The fourth section expands the discussion of the hierarchical estimators of the order two. In the empirical fifth part previously presented solutions are used to estimate the loss ratio for the sample insurance portfolio, results are discussed and conclusions concerning the possibility of application of second order hierarchical estimators into motor insurance are formulated.
Źródło:
Przegląd Statystyczny; 2015, 62, 2; 199-217
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie filtru cząsteczkowego w problemie identyfikacji układów automatyki
Employ a particle filter in the identification procedure
Autorzy:
Kozierski, P.
Powiązania:
https://bibliotekanauki.pl/articles/158697.pdf
Data publikacji:
2012
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Elektrotechniki
Tematy:
identyfikacja
metoda największej wiarygodności
filtr cząsteczkowy
oczekiwanie-maksymalizacja
identification
maximum likelihood method
particle filter
expectation-maximization
Opis:
W artykule przedstawiono sposób identyfikacji parametrycznej obiektów nieliniowych zapisanych w przestrzeni stanu. Identyfikacja wykorzystuje metodę największej wiarygodności (ML), z zastosowaniem filtru cząsteczkowego i algorytmu oczekiwanie-maksymalizacja (EM).
A way of parameter estimation of nonlinear dynamic systems in state-space form is presented. The identification uses Maximum Likelihood method (ML), Particle Filter approach and Expectation-Maximization algorithm (EM).
Źródło:
Prace Instytutu Elektrotechniki; 2012, 260; 157-169
0032-6216
Pojawia się w:
Prace Instytutu Elektrotechniki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Struktura cząstkowej jednolitości graczy a ich znaczenie w zgromadzeniu. Hybrydowe indeksy siły
Autorzy:
Jasiński, Mikołaj
Bożykowski, Marek
Powiązania:
https://bibliotekanauki.pl/articles/494284.pdf
Data publikacji:
2014-06-15
Wydawca:
Akademia Leona Koźmińskiego w Warszawie
Tematy:
gra prosta
indeks siły
indeks Shapleya-Shubika
wartość Banzhafa
gracz krytyczny
struktura cząstkowej jednolitości
metoda najwyższej wiarygodności
Opis:
W artykule przedstawiamy probabilistyczną interpretację indeksu Shapleya-Shubika i wartości Banzhafa oraz koncepcję struktury bliskości (in. struktury cząstkowej jednolitości) graczy. Na podstawie opisanego modelu struktury można wyznaczyć prawdopodobieństwa krytyczności graczy – tego, że ich zachowania będą decydowały o wynikach głosowań. Prawdopodobieństwa te są podstawą do wyznaczania rodziny hybrydowych indeksów siły, których skrajnymi przypadkami są: indeks Shapleya-Shubika i indeks Banzhafa. Ponadto proponujemy koncepcję odtwarzania struktury cząstkowej jednolitości opartą na estymacji metodą najwyższej wiarygodności. Przedstawiona koncepcja wychodzi z tych samych założeń co indeksy hybrydowe. Przedstawioną metodę ilustrujemy zarówno prostymi przykładami heurystycznymi, jak i wynikami badań rzeczywistych zachowań klubów parlamentarnych Sejmu RP 7. kadencji.
Źródło:
Decyzje; 2014, 21; 5-30
1733-0092
2391-761X
Pojawia się w:
Decyzje
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O aproksymacjach funkcji przejścia dla jednowymiarowych procesów dyfuzji
On Approximation of Transition Density for One-Dimensional Diffusion Processes
Autorzy:
Szczepocki, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1050519.pdf
Data publikacji:
2016-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
stochastyczne równania różniczkowe
procesy dyfuzji
estymacja metodą największej wiarygodności
stochastic differential equations
diffusion processes
maximum likelihood estimation
Opis:
Metody estymacji parametrów stochastycznych równań różniczkowych dla ciągłych procesów dyfuzji obserwowanych w dyskretnych odstępach czasu można podzielić na dwie kategorie: metody oparte na maksymalizacji funkcji wiarygodności i wykorzystujące uogólnioną metodę momentów. Zazwyczaj nie znamy jednak gęstości przejścia potrzebnej do konstrukcji funkcji wiarygodności, ani odpowiedniej ilości momentów teoretycznych, aby skonstruować odpowiednią liczbę warunków. Dlatego powstało wiele metod, które próbują przybliżyć nieznaną funkcję przejścia. Celem artykułu jest porównanie własności wybranych metod aproksymacji jednowymiarowych jednorodnych procesów dyfuzji.
Estimation methods for stochastic differentia equations driver by discretely sampled continuous diffusion processes may be split into two categories: maximum likelihood methods and methods based on the general method of moments. Usually, one does not know neither likelihood function nor theoretical moments of diffusion process and cannot construct estimators. Therefore many methods was developed to approximating unknown transition density. The aim of article is to compare properties of selected approaches, indicate their merits and limitations.
Źródło:
Przegląd Statystyczny; 2016, 63, 2; 173-190
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie metod estymacji parametru w klasie wybranych dwuwymiarowych kopuli archimedesowych
The comparison of parameter estimation methods in the class of some two-dimensional archimedean copulas
Autorzy:
Stryjek, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/588422.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Estymacja przedziałowa
Kanoniczna metoda największej wiarygodności
Kopula
Metoda minimalnej odległości
τ-Kendalla
Canonical maximum likelihood method
Copula
Interval estimation
Kendall’s τ
Minimum distance method
Opis:
Celem artykułu jest porównanie dokładności estymacji parametru kopuli za pomocą kanonicznej metody największej wiarygodności, metody kalibracji, metody estymacji przedziałowej i metody minimalnej odległości. Analiza polegała na komputerowej symulacji 250-elementowych prób z rozkładu o funkcji łączącej Claytona, Gumbela, Yagera i Farlie-Gumbel-Morgensterna dla 20 losowo wybranych parametrów tych kopuli. Kryterium porównania metod stanowiło obciążenie i błąd średniokwadratowy estymatorów.
The aim of the paper is to compare the accuracy of copula parameter estimation methods: canonical maximum likelihood method, method of calibration using Kendall’s [Tau], interval estimation method and minimum distance method. The analysis was based on computer simulations of samples (every sample consisted of 250 elements) generated from distributions described by Clayton, Gumbel, Yager and Farlie-Gumbel- -Morgenstern copulas and 20 randomly selected parameters for them. The methods were compared by the measures: bias and mean squared error of the estimator.
Źródło:
Studia Ekonomiczne; 2016, 297; 176-187
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie danych lotniczego skaningu laserowego i zdjęć lotniczych do klasyfikacji pokrycia terenu
Land cover classification using airborne laser scanning data and aerial images
Autorzy:
Borkowski, A.
Tymków, P.
Powiązania:
https://bibliotekanauki.pl/articles/130474.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
lotniczy skaning laserowy
zdjęcia lotnicze
klasyfikacja nadzorowana
sztuczne sieci neuronowe
metoda największej wiarygodności
airborne laser scanning (ALS)
aerial images
supervised classification
artificial neural networks
maximum likehood
k-nearest neighbour method
Opis:
Informacja bezpośrednia i pośrednia dotycząca powierzchni terenu i jego pokrycia zawarta w danych skaningu laserowego może być wykorzystana do klasyfikacji form pokrycia terenu. W artykule podjęto próbę oceny przydatności tego typu danych jako źródła informacji uzupełniających wektor cech, zbudowany na podstawie obrazów lotniczych, w procesie klasyfikacji pokrycia terenu. Wykorzystano dane skanowania laserowego pozyskane za pomocą systemu ScaLARS. Przeprowadzono szereg eksperymentów numerycznych polegających na klasyfikacji fragmentu obszaru doliny rzeki Widawy za pomocą różnych algorytmów klasyfikacji oraz przy różnych kombinacjach wektora cech branych pod uwagę. W testach wykorzystano jednokierunkowe sztuczne sieci neuronowe, metodę największej wiarygodności, oraz metodę k-najbliższych sąsiadów. Porównano jakość klasyfikacji opartej o następujące cechy: wartości kanałów RGB, parametry charakteryzujące teksturę, informacje o wysokości form pokrycia terenu estymowane na podstawie numerycznego modelu terenu oraz numerycznego modelu pokrycia terenu, model charakteryzujący rozrzut wartości wysokości danych skaningu zarejestrowanych na jednostce powierzchni oraz intensywność promienia laserowego. Ilościowa ocenę dokładności oparto o macierz niezgodności, obliczana na podstawie porównania otrzymanego wyniku klasyfikacji dla wektora testowego do wzorca wykonanego manualnie metoda digitalizacji. Najlepsze wyniki klasyfikacji otrzymano za pomocą klasyfikatora neuronowego. Stwierdzono ponadto, że zastąpienie modelu numerycznego pokrycia terenu wariancja wysokości surowych danych lotniczego skaningu laserowego daje poprawne rezultaty klasyfikacji przy znacznej redukcji obliczeń.
The direct and indirect information about terrain surface and land use contained in laser scanning data sets allow to provide the automatic classification of land cover. An attempt of using scanning data as a supplementary source for such classification based on aerial photos was performed in this article. A continuous-wave (CW) ScaLARS laser system was used to receive scanning data. Numerous experiments consisting in the classification of a part of Widawa River valley were carried out in order to find the best combination of data set and classification method. Three classification methods were used: multilayer neural networks, maximum likelihood classifier and k-nearest neighbour method. The classification was made and evaluated using: aerial images (RGB model), texture features, differential model of height of land cover, based on digital surface model (DSM), and digital terrain model (DTM), model of height dispersion represented by variance of measured points height in a regular grid and intensity image. In order to quantify the quality of the results, a confusion matrix was created for each testing pattern based on manual digitalized reference data. The best results are obtained by artificial neural network classifier. The use of variance of height, instead of differential model, gives satisfactory results, and the obtaining of this feature is easy and fast in comparison to DTM and DSM building process.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17a; 93-103
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Czym jest ontologiczna filozofia formalna?
Autorzy:
Biłat, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/15048354.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
filozofia formalna
filozofia ontologiczna
metoda aksjomatyczna
kryterium wiarygodności
logiczna teoria klas
teoria ontologiczna
teoria czasu wypełnionego
Źródło:
Przegląd Filozoficzny. Nowa Seria; 2016, 2; 499-514
1230-1493
Pojawia się w:
Przegląd Filozoficzny. Nowa Seria
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kryminalistyczna identyfikacja mówcy maskującego głos
Forensic identification of speaker with disguised voice
Autorzy:
Krzosek-Piwowarczyk, Izabela
Komosa, Olga
Maciejko, Waldemar
Powiązania:
https://bibliotekanauki.pl/articles/499820.pdf
Data publikacji:
2013
Wydawca:
Centralne Laboratorium Kryminalistyczne Policji
Tematy:
maskowanie
metoda językowa
automatyczne rozpoznawanie mówców
iloraz wiarygodności
rzetelność LR
PSOLA
wokoder fazowy
voice disguise
language method
automatic speaker recognition
likelihood ratio
LR reliability
phase vocoder
Opis:
Identyfikacja kryminalistyczna mówcy wymaga ekstrakcji cech osobniczych przenoszonych wraz z sygnałem mowy. Sprawcy przeróżnych przestępstw podejmują próby ukrycia tych cech. Jedna z najpopularniejszych technik maskowania polega na wykorzystaniu urządzenia modyfikującego częstotliwość tonu krtaniowego i jest oparta na metodach PSOLA lub PV. Metody te w trakcie resyntezy sygnału generują zniekształcenia, które muszą wpływać na obserwowane cechy. W ramach pracy zbadano wpływ zniekształceń wprowadzanych przez algorytmy modyfikacji tonu krtaniowego na językowe cechy osobnicze oraz skuteczność automatycznego systemu kryminalistycznej identyfikacji mówców wyrażoną za pomocą charakterystyk Tippetta.
Forensic speaker recognition is based on individual features which are conveyed with speech signal. Various crime offenders undertake attempts to disguise their individual features. One of the most common voice disguise method involves pitch shifting with PSOLA or PV methods. These methods distort speech signal during signal re-synthesis which has the influence on individual features. In hereby study, the Authors examined the effect of using pitch shifting algorithms on language individual features and effectiveness of forensic automatic speaker recognition which is assessed through Tippett plots.
Źródło:
Problemy Kryminalistyki; 2013, 280; 39-52
0552-2153
Pojawia się w:
Problemy Kryminalistyki
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies