Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "error distribution" wg kryterium: Temat


Tytuł:
Losowe właściwości błędu kwantowania w systemie pomiarowym
Random properties of quantization error in measuring system
Autorzy:
Jakubiec, J.
Powiązania:
https://bibliotekanauki.pl/articles/156424.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kwantowanie
rozkład błędu kwantowania
quantization
quantization error distribution
Opis:
Obliczanie niepewności wyników realizacji algorytmów przetwarzania w systemie pomiarowym wymaga losowego opisu błędu kwantowania. Podstawą uzyskiwania tego rodzaju opisu jest analiza właściwości układu realizującego kwantowanie. W pracy przedstawiono wstępne wyniki badań symulacyjnych wybranych rozwiązań kwantyzatorów przeprowadzonych przy użyciu metody Monte Carlo, co pozwala na uzyskanie histogramów charakteryzujących w pełni losowe właściwości błędu kwantowania.
Digital processing in measuring systems requires, shown in Fig. 1, digitalization of varying in time continuous signals. Quantization of samples is a measuring process, so it should be described in metrological categories. Complete information about inaccuracy of quantization can be given by probabilistic description of error sources arousing during this operation []. The paper deals with analysis of random properties of quantization errors on example of chosen realizations of quantizers. The analysis has been made by using Monte Carlo method, which permits to obtain, in a relatively simple way, large sets of data that can be presented as histograms. The investigated types of quantizers are shown in Figs. 2, 6 and 8, while the exemplary histograms in Figs. 4, 5, 7 and 9. The histograms can be divided into two categories. The first one describes properties of quantization errors in the situation when the quantized quantity changes randomly in its measuring range. The quantization error in this case has the rectangular or triangle distribution. The second kind of histograms shows properties of errors when the quantized quantity is constant in time. In this case the histograms contains one or two values only so the properties of the errors should be seen as deterministic. Moreover, the shape of histogram depends on the value of the quantized quantity. One may try to average a series of quantization results but the obtained the results vary dependently on the measure value, number of the series elements an kind of the quantize. The general conclusion is that in the second case there is necessary to continue investigations directed to the problems of averaging data obtained from ADC converters.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 1, 1; 8-11
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
VaR in risk analysis on DAM and models of volatility of variance
VaR w analizie ryzyka na RDN a modele zmienności wariancji
Autorzy:
Ganczarek, Alicja
Powiązania:
https://bibliotekanauki.pl/articles/907049.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Generalized Autoregressive Conditional Heteroscedasticity (GARCH)
Generalized Error Distribution (GED)
nonnal distribution
t-Student’s distribution
Value-at-Risk (VAR)
Conditional Value-at-Risk (CVaR)
failure test
Opis:
The aim of this paper is to describe and measure risk on the Day Ahead Marked (DAM) of the Polish Power Exchange. In this paper downside risk measures such as Vcilue-at-Risk (VaR) and Conditional Value-at-Risk (CVaR) are presented. These measures were estimated on the basis of the Generalized Autoregressive Conditional Heteroscedasticity (GARCH). They are applied to time series of the logarithmic rate of return of prices from the DAM from March to October 2003. The Kupiec test was used to choose an appropriate heteroscedasticity model to compute VaR and CVaR and to describe and measure risk on the DAM.
W pracy przeprowadzono analizę ryzyka na Rynku Dnia Następnego (RDN) Towarowej Giełdy Energii. Do pomiaru ryzyka zmiany ceny na RDN wykorzystano wartości zagrożone: Value-at-Risk (VaR) oraz Conditional Value-at-Risk (CVaR), oszacowane na podstawie modeli z warunkową wariancją: Generalized Autoregressive Conditional Heteroscedasticity (GARCH). Do oceny efektywności oszacowanych wartości VaR oraz CVaR wykorzystano test przekroczeń Kupca. Analizę ryzyka przeprowadzono na szeregach czasowych dziennych logarytmicznych stóp zwrotu cen energii elektrycznej notowanej na RDN w okresie od marca do października 2003.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2008, 216
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Testing of the Prediction Unbiasedness on the Basis of Janus Quotient
O testowaniu nieobciążoności predykcji na podstawie współczynnika Janusowego
Autorzy:
Wywiał, Janusz
Powiązania:
https://bibliotekanauki.pl/articles/1808297.pdf
Data publikacji:
2009-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
test statistic
prediction error
unbiasednees
Janus quotient
quadratic form of normally distributed vector
approximation of distribution function
residual variance
prediction variance
Test statystyczny
błąd predykcji
nieobciążoność
współczynnik Janusowy
forma
kwadratowa wektora o rozkładzie normalnym
aproksymacja funkcji dystrybuanty
wariancja resztowa
wariancja predykcji
Opis:
The problem of choosing the appropriate predictor is being considered. Generally, in this paper the analysis is focused on the problem of unbiasedness of the predictors. Several tests attempting to verify the unbiasedness of three predictors of the linear trend are proposed. They are based on some modifications of the well-known Janus quotient being a ratio of the variance of prediction errors and the residual variance. In general each of the considered test statistic can be represented as the ratio of two quadratic forms of normal vectors. These two quadratic forms can be dependent, so its distribution function has to be approximated. An example of testing hypothesis on unbiasedness is presented. The obtained results can be generalized in the case of prediction on the basis of regression models.
W pracy jest rozważany problem wyboru odpowiedniego predykatora. Przyjęto, że postulowanym kryterium tego wyboru jest jego nieobciążoność. W pracy są proponowane testy na nieobciążoność predykcji trzech predyktorów trendu liniowego. Punktem wyjścia konstrukcji sprawdzianów testów jest znany współczynnik Janusowy używany do oceny dokładności ciągów wyznaczanych prognoz, który jest ilorazem wariancji predykcji ex-post i wariancji resztowej. Z formalnego punktu widzenia każdy z rozważanych sprawdzianów testów jest ilorazem dwóch form kwadratowych wektora zmiennych o rozkładzie normalnym. Te formy kwadratowe mogą być zależne. Dlatego w celu wyznaczenia rozkładu prawdopodobieństwa sprawdzianu testu jest adaptowana jedna ze znanych metod pozwalających na przybliżone wyliczanie wartości jego dystrybuanty. Rozważania zilustrowano przykładem. Otrzymane w pracy wyniki można uogólnić na przypadek predykcji na podstawie modelu regresji.
Źródło:
Przegląd Statystyczny; 2009, 56, 2; 42-51
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An experimental analysis of the flow structure in various configurations of a circular-planar SOFC fuel channel
Analiza eksperymentalna struktury przepływu gazu w zróżnicowanychprzepływu gazu w zróżnicowanych geometriach kanału paliwowego ogniwa paliwowego typu SOFC
Autorzy:
Nowak, R.
Szmyd, J. S.
Powiązania:
https://bibliotekanauki.pl/articles/281000.pdf
Data publikacji:
2011
Wydawca:
Polskie Towarzystwo Mechaniki Teoretycznej i Stosowanej
Tematy:
particle image velocimetry
error analysis
flow distribution
SOFC
Opis:
In the presented paper, the authors focus on the analysis of flow structure in various configurations of a circular-planar SOFC fuel channel. The research was carried out on the premise that a proper channel design would help minimize the thermal stress in the cell, which is affected by the heat generated and consumed by the reforming, water gas-shift and hydrogen consumption reactions. For the measurement process, PIV method was used to calculate the velocity fields, and an extensive error analysis was done to evaluate the accuracy of the calculated velocities.
W zaprezentowanym artykule, tematem realizowanych badań jest analiza eksperymentalna struktury przepływu gazu w trzech modelach kanałów transportowych ogniwa paliwowego typu SOFC (Solid Oxide Fuel Cell). Celem badań było zaproponowanie geometrii kanału, która pozwoliłaby utrzymać jednorodny rozkład pola prędkości na powierzchniach elektrod w rzeczywistych warunkach pracy ogniwa. Dobór odpowiedniej geometrii kanałów transportowych jest istotny z punktu widzenia wydajności oraz bezpieczeństwa pracy ogniwa, ponieważ bezpośrednio wpływa na wydajność reakcji elektrochemicznych zachodzących w ogniwie oraz na rozkład temperatury w jego wnętrzu, uwarunkowany silnie egzotermicznymi reakcjami elektrodowymi oraz w przypadku wykorzystania paliwa węglowodorowego dodatkową, endotermiczną reakcją reformingu i egzotermiczną reakcją tlenku węgla z parą wodną. Na potrzeby eksperymentu zaprojektowano oraz wykonano z pleksi trzy przykładowe geometrie kanałów przepływowych. Badania eksperymentalne przeprowadzono w temperaturze pokojowej. Gazem wykorzystanym w badaniach było powietrze. Bazując na teorii podobieństwa ustalono wartości liczby Reynoldsa na poziomie odpowiadającym wielkościomliteraturowym, dzięki czemu otrzymane wyniki można traktować jako wiarygodne i oddające charakter przepływu paliwa w rzeczywistym ogniwie paliwowym. Profile prędkości wyznaczono wykorzystując bezinwazyjną metodę Particle Image Velocimetry. Ponadto, na podstawie analizy błędów określono zestaw parametrów obliczeniowych, dla których wyznaczone pole wektorowe charakteryzowało się największą dokładnością.
Źródło:
Journal of Theoretical and Applied Mechanics; 2011, 49, 2; 541-564
1429-2955
Pojawia się w:
Journal of Theoretical and Applied Mechanics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cumulative Sum Control Charts for Truncated Normal Distribution under Measurement Error
Autorzy:
Sankle, R.
Singh, J. R.
Mangal, I. K.
Powiązania:
https://bibliotekanauki.pl/articles/465820.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
Truncated Normal Distribution Measurement Error
ARL and CSCC
Opis:
In the present paper Cumulative Sum Control Chart (CSCC) for the truncated normal distribution under measurement error (r) is discussed. The sensitivity of the parameters of the V-Mask and the Average Run Length (ARL) is studied through numerical evaluation for different values of r.
Źródło:
Statistics in Transition new series; 2012, 13, 1; 95-106
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wnioskowanie o rzędzie kointegracji dla modelu VEC ze składnikiem losowym z rozkładu Su Johnsona
Inference on cointegration rank for a VEC model with the Su Johnson error distribution
Autorzy:
Kębłowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/422718.pdf
Data publikacji:
2013
Wydawca:
Główny Urząd Statystyczny
Tematy:
rozkład reszt o grubych ogonach
rozkład Johnsona
wnioskowanie małopróbkowe
rząd kointegracji
fat-tailed error distribution
Johnson distribution
small sample inference
cointegration rank
Opis:
Artykuł przedstawia wyniki analiz Monte Carlo własności małopróbkowych testów rzędu kointegracji dla modelu VEC ze składnikiem losowym pochodzącym z rozkładu skośnego, leptokurtycznego. Analiza przeprowadzana jest dla testu asymptotycznego, testów z poprawkami na liczbę stopni swobody, testu z poprawką Bartletta, testu bootstrapowego oraz testu bootstrapowego z poprawką Bartletta w roli surogatu podwójnego testu bootstrapowego. Wyniki eksperymentów wskazują, że testy liczby relacji kointegrujących oparte na regule ilorazu wiarygodności są odporne ze względu na rozmiar jak i moc testu, gdy składnik losowy pochodzi z rozkładu skośnego, leptokurtycznego, aproksymowanego rozkładem Su Johnsona, zamiast z wielowymiarowego rozkładu normalnego.
Performance of small-sample cointegration rank tests is investigated within the framework of a VEC model with skewed fat-tailed error distribution. The Monte Carlo analysis is conducted for: asymptotic test, tests with degrees-of-freedom corrections, test with Bartlett correction, bootstrap test, and bootstrap test with Bartlett correction, as a surrogate of double bootstrap test. The results indicate that the small-sample cointegration rank tests are robust to skewed fat-tailed error distribution, approximated by Su Johnson distribution, with respect to size and power of these tests.
Źródło:
Przegląd Statystyczny; 2013, 60, 2; 235-249
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A geometric accuracy design method of multi-axis NC machine tool for improving machining accuracy reliability
Metoda projektowania i poprawy niezawodności dokładności obróbczej wieloosiowej obrabiarki NC wykorzystująca pojęcie dokładności geometrycznej
Autorzy:
Cai, L.
Zhang, Z.
Cheng, Q.
Liu, Z.
Gu, P.
Powiązania:
https://bibliotekanauki.pl/articles/301459.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
machine tool
geometric error
accuracy distribution
machining accuracy reliability
multi-body system theory
obrabiarka
błąd geometryczny
rozkład dokładności
niezawodność dokładności obróbki
teoria układów wielomasowych
Opis:
The reliability of machining accuracy is of great significance to performance evaluation and optimization design of the machine tools. Different geometric errors have various influences on the machining accuracy of the machine tools. The main emphasis of this paper is to propose a generalized method to distribute geometric accuracy of component for improving machining accuracy reliability under certain design requirements. By applying MBS theory, a comprehensive volumetric model explaining how individual errors in the components of a machine affect its volumetric accuracy (the coupling relationship) was established. In order to reflect the ability to reach the required machining accuracy, the concept of machining accuracy reliability is proposed in this paper. Based on advanced first order and second moment (AFOSM) theory, reliability and sensitivity with single failure modes were obtained and the model of machining accuracy reliability and the model of machining accuracy sensitivity with multiple failure modes were developed. By taking machining accuracy reliability as a measure of the ability of machine tool and taking machining accuracy sensitivity as a reference of optimizing the basic parameters of machine tools to design a machine tool, an accuracy distribution method of machine tools for improving machining accuracy reliability with multiple failure modes was developed and a case study example for a five-axis NC machine tool was used to demonstrate the effectiveness of this method. It is identified that each improvement of the geometric errors leads to a decrease in the maximum values and mean values of possibility of failure, and the gaps among reliability sensitivity of geometric parameter errors improved also decreased. This study suggests that it is possible to obtain the relationships between geometric errors and specify the accuracy grades of main feeding components of mechanical assemblies for improving machining accuracy reliability.
Niezawodność w zakresie dokładności obróbki ma wielkie znaczenie dla oceny funkcjonowania oraz projektowania optymalizacyjnego obrabiarek. Różne błędy geometryczne mają różny wpływ na dokładność obrabiarek. Głównym celem niniejszej pracy jest zaproponowanie uogólnionej metody rozkładu dokładności geometrycznej elementów składowych obrabiarki, pozwalającej na poprawę niezawodności w zakresie dokładności obróbczej przy spełnieniu pewnych wymagań projektowych. Dzięki zastosowaniu teorii układów wielomasowych MBS, opracowano kompleksowy model wolumetryczny, który wyjaśnia, w jaki sposób pojedyncze błędy występujące w elementach składowych obrabiarki wpływają na jej dokładność wolumetryczną (relacja sprzężeń). Zaproponowane w prezentowanym artykule pojęcie niezawodności dokładności obróbki odnosi się do możliwości uzyskania przez urządzenie wymaganej dokładności obróbki W oparciu o zaawansowaną teorię estymacji momentów AFOSM (Advanced First Order and Second Moment therory), obliczono niezawodność i czułość dla przypadku wystąpienia pojedynczej przyczyny uszkodzenia oraz opracowano model niezawodności dokładności obróbki oraz model czułości dokładności obróbki dla przypadku wystąpienia wielu przyczyn uszkodzeń. Przyjmując niezawodność dokładności obróbki za miarę poprawnego działania obrabiarki oraz przyjmując czułość dokładności obróbki za punkt odniesienia dla optymalizacji projektowej podstawowych parametrów obrabiarek, opracowano metodę, opartą na rozkładzie dokładności obrabiarki, mającą na celu poprawę niezawodności dokładności obróbki dla przypadku wystąpienia wielu przyczyn uszkodzeń. Skuteczność metody wykazano na przykładzie pięcio-osiowej obrabiarki NC. Stwierdzono, że każda korekta błędu geometrycznego prowadzi do spadku maksymalnych i średnich wartości możliwości wystąpienia uszkodzenia oraz zmniejsza rozstęp między poszczególnymi czułościami niezawodnościowymi skorygowanych błędów parametrów geometrycznych. Przedstawione badania wskazują, że możliwe jest ustalenie związku pomiędzy błędami geometrycznymi oraz określenie stopni dokładności głównych elementów składowych zespołów mechanicznych odpowiedzialnych za ruch posuwowy obrabiarki w celu poprawy niezawodności dokładności obróbki.
Źródło:
Eksploatacja i Niezawodność; 2015, 17, 1; 143-155
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ROBUSTNESS OF TWEEDIE MODEL OF RESERVES WITH RESPECT TO DISTRIBUTION OF SEVERITY OF CLAIMS
Autorzy:
Boratyńska, Agata
Juszczak, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/453337.pdf
Data publikacji:
2015
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
loss reserves
Tweedie model
Poisson and gamma distribution
ε-contamination
generalized linear model
mean square error
bias
prediction
Opis:
The aim of the work is to discuss the robustness of estimation procedures and robustness of prediction in Tweedie's compound Poisson model. This model is applied to the claim reserving problem. The quality of parameter estimators and predictors is studied when the distribution of severity of claims is disturbed. The ε-contamination class of distributions is considered. The example, where errors of estimators are large is presented. The simulation methods, using the R programming environment, are applied.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2015, 16, 1; 53-74
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A physical model of separation process by means of jigs
Autorzy:
Surowiak, A.
Brozek, M.
Powiązania:
https://bibliotekanauki.pl/articles/110846.pdf
Data publikacji:
2016
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
jigging process
physical model
Maxwell distribution
probable error
imperfection
Opis:
In the case of ideal separation of minerals, partition into products is conducted according to a specific partition feature which is, for instance, the density of raw material. Usually, enrichment in a jig is described by means of the particle density as a partition feature. However, the degree of particle loosening in the jig's bed is influenced by, among others, the particle free settling velocity. After some time of the pulsating movement duration, particle segregation along the vertical axis according to the settling velocity will occur. It can be said that the particle free settling velocity constitutes a feature characteristic of the feed heterogeneous in terms of physical and geometric properties in the jigging process. In the article on the basis of heuristic considerations, a physical model of the partition function (recovery of the i-th fraction), in which interactions between particles in the working bed of the jig are taken into account, is derived. A cause of the formation of the mechanism of particle dispersion around equilibrium layers is given and the accuracy of particle partition for a narrow size fraction in two variations, i.e. in conditions when a partition feature is, accordingly, the particle density and settling velocity, is calculated. These calculations allowed for the analysis of causes of process and inherent dispersion formation which takes place during the jigging process.
Źródło:
Physicochemical Problems of Mineral Processing; 2016, 52, 1; 228-243
1643-1049
2084-4735
Pojawia się w:
Physicochemical Problems of Mineral Processing
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On non-existence of moment estimators of the GED power parameter
Autorzy:
Stawiarski, Bartosz
Powiązania:
https://bibliotekanauki.pl/articles/729730.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
Generalized Error Distribution
nonparametric bootstrap
bootstrap consistency
moment estimator
power parameter
Opis:
We reconsider the problem of the power (also called shape) parameter estimation within symmetric, zero-mean, unit-variance one-parameter Generalized Error Distribution family. Focusing on moment estimators for the parameter in question, through extensive Monte Carlo simulations we analyze the probability of non-existence of moment estimators for small and moderate samples, depending on the shape parameter value and the sample size. We consider a nonparametric bootstrap approach and prove its consistency. However, despite its established asymptotics, bootstrap does not substantially improve the statistical inference based on moment estimators once they fall into the non-existence area in case of small and moderate sample sizes.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2016, 36, 1-2; 5-23
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of the strategy combining monetary unit sampling and a Horvitz-Thompson estimator of error amount in auditing – results of a simulation study
Autorzy:
Janusz, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/1194460.pdf
Data publikacji:
2019-07-02
Wydawca:
Główny Urząd Statystyczny
Tematy:
audit sampling
Monetary Unit Sampling
Horvitz-Thompson estimator
error distribution
Opis:
Auditors need information on the performance of different statistical methods when applied to audit populations. The aim of the study was to examine the reliability and efficiency of a strategy combining systematic Monetary Unit Sampling and confidence intervals for the total error based on the Horvitz-Thompson estimator with normality assumption. This strategy is a possible alternative for testing audit populations with high error rates. Using real and simulated data sets, for the majority of populations, the interval coverage rate was lower than the assumed confidence level. In most cases confidence intervals were too wide to be of practical use to auditors. Confidence intervals tended to become wider as the observed error rate increased. Tests disclosed the distribution of the HorvitzThompson estimator was not normal. A detailed analysis of the distributions of the error amount in the examined real audit populations is also given.
Źródło:
Statistics in Transition new series; 2019, 20, 2; 85-106
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On statistical estimations of vehicle speed measurements
Autorzy:
Skeivalas, Jonas
Paršeliūnas, Eimuntas
Putrimas, Raimundas
Šlikas, Dominykas
Powiązania:
https://bibliotekanauki.pl/articles/220723.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
vehicle speed
speedometer
maximum permissible error
skew normal distribution
errors
Opis:
The accuracy of vehicle speed measured by a speedometer is analysed. The stress on the application of skew normal distribution is laid. The accuracy of measured vehicle speed depends on many error sources: construction of speedometer, measurement method, model inadequacy to real physical process, transferring information signal, external conditions, production process technology etc. The errors of speedometer are analysed in a complex relation to errors of the speed control gauges, whose functionality is based on the Doppler effect. Parameters of the normal distribution and skew normal distribution were applied in the errors analysis. It is shown that the application of maximum permissible errors to control the measuring results of vehicle speed gives paradoxical results when, in the case of skew normal distribution, the standard deviations of higher vehicle speeds are smaller than the standard deviations of lower speeds. In the case of normal distribution a higher speed has a greater standard deviation. For the speed measurements by Doppler speed gauges it is suggested to calculate the vehicle weighted average speed instead of the arithmetic average speed, what will correspond to most real dynamic changes of the vehicle speed parameters.
Źródło:
Metrology and Measurement Systems; 2019, 26, 3; 551-559
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Possible testing of geodetic equipment using the methods of mathematical statistics
Możliwość badania sprzętu geodezyjnego metodami statystyki matematycznej
Autorzy:
Czempas, Tomasz
Dwulit, Petro
Krupiński, Waldemar
Powiązania:
https://bibliotekanauki.pl/articles/100478.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
statistical compatibility test
statistical identity test
geodetic measurements
error distribution
testing of measurement correctness
statistical hypothesis
test zgodności statystycznej
test tożsamości statystycznej
pomiary geodezyjne
rozkład błędów
testowanie poprawności pomiaru
hipoteza statystyczna
Opis:
The work presents selected methods of mathematical statistics applied to the examination of the correctness of geodetic equipment operation. Specifically, measurements made with electronic total stations will be tested using statistical compatibility tests and identity tests of empirical measurement error distributions with the theoretical normal distribution N (0;1).
Praca prezentuje pewne sposoby statystyki matematycznej w zastosowaniu do badania poprawności działania sprzętu geodezyjnego. Konkretnie za pomocą statystycznych testów zgodności oraz testów identyczności rozkładów błędów pomiarów empirycznych z teoretycznym rozkładem normalnym N(0;1), zostaną przebadane pomiary wykonane tachimetrami elektronicznymi.
Źródło:
Geomatics, Landmanagement and Landscape; 2019, 2; 9-19
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sum of gamma and normal distribution
Autorzy:
Sitek, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/1931403.pdf
Data publikacji:
2020
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
mixture of probability distribution
statistical auditing
sum of gamma and normal distribution
accounting error
mieszanka rozkładu prawdopodobieństwa
audyt statystyczny
suma rozkładu gamma i normalnego
błąd księgowy
Opis:
Purpose: The article shows how to model audit errors using mixtures of probability distribution. Design/methodology/approach: In financial accounting, data about the economic activities of a given firm is collected and then summarized and reported in the form of financial statements. Auditing, on the other hand, is the independent verification of the fairness of these financial statements. An item in an audit sample produces two pieces of information: the book (recorded) amount and the audited (correct) amount. The difference between the two is called the error amount. The book amounts are treated as values of a random variable whose distribution is a mixture of the distributions of the correct amount and the true amount contaminated by error. The mixing coefficient is equal to the proportion of the items with non-zero errors amounts. Findings: The sum of normal and gamma distribution can be useful for modeling audit errors. Originality/value: In this paper, the method of moments is proposed to estimate mixtures of probability distribution, and we derive a formulation of the probability distribution of the sum of a normally distributed random variable and one with gamma distribution. This research could be useful in financial auditing.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2020, 143; 275-284
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparative BER Analysis of Free Space Optical System Using Wavelength Diversity over Exponentiated Weibull Channel
Autorzy:
Shah, Dhaval
Joshi, Hardik
Kothari, Dilipkumar
Powiązania:
https://bibliotekanauki.pl/articles/2055211.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
bit error rate
exponentiated weibull distribution
free space optics
FSO
wavelingth diversity
optimal combining
Opis:
Atmospheric turbulence is considered as major threat to Free Space Optical (FSO) communication as it causes irradiance and phase fluctuations of the transmitted signal which degrade the performance of FSO system. Wavelength diversity is one of the techniques to mitigate these effects. In this paper, the wavelength diversity technique is applied to FSO system to improve the performance under different turbulence conditions which are modeled using Exponentiated Weibull (EW) channel. In this technique, the data was communicated through 1.55 µm, 1.31 µm, and 0.85 µm carrier wavelengths. Optimal Combining (OC) scheme has been considered to receive the signals at receiver. Mathematical equation for average BER is derived for wavelength diversity based FSO system. Results are obtained for the different link length under different turbulence conditions. The obtained average BER results for different turbulence conditions characterized by EW channel is compared with the published result of average BER for different turbulence which is presented by classical channel model. A comparative BER analysis shows that maximum advantage of wavelength diversity technique is obtained when different turbulence conditions are modeled by EW channel.
Źródło:
International Journal of Electronics and Telecommunications; 2021, 67, 4; 665--672
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies