Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "statistical error" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
A simple formula for the net long-wave radiation flux in the Southern Baltic Sea
Autorzy:
Zapadka, T.
Wozniak, S.B.
Wozniak, B.
Powiązania:
https://bibliotekanauki.pl/articles/47670.pdf
Data publikacji:
2001
Wydawca:
Polska Akademia Nauk. Instytut Oceanologii PAN
Tematy:
statistical error
infrared radiation
Batlic Region
sea surface
Baltic Sea
long-wave radiation
atmosphere
Opis:
This paper discusses problems of estimating the net long-wave radiation flux at the sea surface on the basis of easily measurable meteorological quantities (air and sea surface temperatures, near-surface water vapour pressure, cloudiness). Empirical data and existing formulae are compared. Additionally, an improved formula for the southern Baltic region is introduced, with a systematic error of less than 1 W m−2 and a statistical error of less than 20 W m−2.
Źródło:
Oceanologia; 2001, 43, 3; 265-277
0078-3234
Pojawia się w:
Oceanologia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Noise and bias - some controversies raised by the book 'Noise: A Flaw in Human Judgment', written by Daniel Kahneman, Olivier Sibony, Cass R. Sunstein
Autorzy:
Szreder, Mirosław
Powiązania:
https://bibliotekanauki.pl/articles/2082251.pdf
Data publikacji:
2022-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
noise
bias
mean squared error
statistical inference
Opis:
The paper reviews and discusses the statistical aspects of the phenomenon called 'noise' which Daniel Kahneman, the Nobel Prize winning psychologist, and his colleagues present in their new book entitled 'Noise: A Flaw in Human Judgment'. Noise is understood by the authors as an unexpected and undesirable variation present in people's judgments. The variability of judgments influences decisions which are made on the basis of those judgments and, consequently, may have a negative impact on the operations of various institutions. This is the main concern presented and analyzed in this book. The objective of this paper is to look at the relationship between bias and noise - the two major components of the mean squared error (MSE) - from a different perspective which is absent in the book. Although the author agrees that each of the two components contributes equally to MSE, he claims that in some circumstances a reduction of noise can make accurate inference not less, but more difficult. It is justified that the actual impact of noise cannot be accurately determined without considering both bias and noise simultaneously.
Źródło:
Przegląd Statystyczny; 2022, 69, 1; 39-49
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Statistical process control of commercial force-sensing resistors
Autorzy:
Palacio Gómez, Carlos Andrés
Paredes-Madrid, Leonel
Garzon, Andrés Orlando
Powiązania:
https://bibliotekanauki.pl/articles/2173875.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
force sensing resistors
FSR
pressure sensor
statistical process control
hysteresis error
drift error
Opis:
The manufacturing and characterization of polymer nanocomposites is an active research trend nowadays. Nonetheless, statistical studies of polymer nanocomposites are not an easy task since they require several factors to consider, such as: large amount of samples manufactured from a standardized procedure and specialized equipment to address characterization tests in a repeatable fashion. In this manuscript, the experimental characterization of sensitivity, hysteresis error and drift error was carried out at multiple input voltages () for the following commercial brands of FSRs (force sensing resistors): Interlink FSR402 and Peratech SP200-10 sensors. The quotient between the mean and the standard deviation was used to determine dispersion in the aforementioned metrics. It was found that a low mean value in an error metric is typically accompanied by a comparatively larger dispersion, and similarly, a large mean value for a given metric resulted in lower dispersion; this observation was held for both sensor brands under the entire range of input voltages. In regard to sensitivity, both sensors showed similar dispersion in sensitivity for the whole range of input voltages. Sensors’ characterization was carried out in a tailored test bench capable of handling up to 16 sensors simultaneously; this let us speed up the characterization process.
Źródło:
Metrology and Measurement Systems; 2022, 29, 3; 469--481
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Szanse i iluzje dotyczące korzystania z dużych prób we wnioskowaniu statystycznym
Opportunities and illusions of using large samples in statistical inference
Autorzy:
Szreder, Mirosław
Powiązania:
https://bibliotekanauki.pl/articles/2106803.pdf
Data publikacji:
2022-08-31
Wydawca:
Główny Urząd Statystyczny
Tematy:
wnioskowanie statystyczne
błąd próbkowania
błąd losowy
liczebność próby
istotność statystyczna
p-value
statistical inference
sampling error
random error
sample size
statistical significance
Opis:
Teoria wnioskowania statystycznego jasno określa korzyści związane z dużą liczebnością próby badawczej. Wraz ze wzrostem wielkości próby maleje ilość błędów ocen szacowanych parametrów populacji (zwiększa się precyzja estymacji), a także rosną wartości mocy testów wykorzystywanych do weryfikacji hipotez statystycznych. Współczesne możliwości łatwego dotarcia do dużych prób badawczych (np. paneli internetowych), a także korzystania z coraz bardziej zaawansowanego i przyjaznego dla użytkownika oprogramowania statystycznego sprzyjają niedostrzeganiu zagrożeń dla wnioskowania statystycznego, jakie wiążą się z dużymi liczebnie próbami. Część badaczy ulega iluzji, że duża próba jest w stanie zniwelować i rozproszyć nie tylko błąd losowy, charakterystyczny dla każdej techniki losowania próby, lecz także błędy nielosowe. Znaczenie dużej liczebności próby jest ponadto jednym z ważnych aspektów toczącej się od kilkunastu lat dyskusji na temat istotności statystycznej (p-value) oraz problemów z jej rozstrzyganiem i interpretowaniem. Celem opracowania jest wskazanie i omówienie konsekwencji dostrzegania w dużych próbach statystycznych jedynie szans, a pomijanie wyzwań i zagrożeń wynikających z ich stosowania. W artykule pokazano, że duża liczebność próby, której doboru dokonano za pomocą techniki nieprobabilistycznej, nie może stanowić alternatywy dla wyboru losowego. W szczególności dotyczy to internetowych paneli wolontariuszy deklarujących chęć udziału w badaniu. Wskazano ponadto na znaczenie komponentu nielosowego w błędzie próbkowania, który nie jest malejącą funkcją liczebności próby. W odniesieniu zaś do współczesnych problemów weryfikacji hipotez nakreślono i zilustrowano przykładem naukowy i etyczny wymiar podążania za istotnością statystyczną z wykorzystaniem dużych liczebnie prób lub wielokrotnego próbkowania.
The theory of statistical inference clearly describes the benefits of large samples. The larger the sample size, the fewer standard errors of the estimated population parameters (the precision of the estimation improves) and the values of the power of statistical tests in hypothesis testing increase. Today’s easy access not only to large samples (e.g. web panels) but also to more advanced and user-friendly statistical software may obscure the potential threats faced by statistical inference based on large samples. Some researchers seem to be under the illusion that large samples can reduce both random errors, typical for any sampling technique, as well as non-random errors. Additionally, the role of a large sample size is an important aspect of the much discussed in the recent years issue of statistical significance (p-value) and the problems related to its determination and interpretation. The aim of the paper is to present and discuss the consequences of focusing solely on the advantages of large samples and ignoring any threats and challenges they pose to statistical inference. The study shows that a large-size sample collected using one of the non-random sampling techniques cannot be an alternative to random sampling. This particularly applies to online panels of volunteers willing to participate in a survey. The paper also shows that the sampling error may contain a non-random component which should not be regarded as a function of the sample size. As for the contemporary challenges related to testing hypotheses, the study discusses and exemplifies the scientific and ethical aspects of searching for statistical significance using large samples or multiple sampling.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2022, 67, 8; 1-16
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Possible testing of geodetic equipment using the methods of mathematical statistics
Możliwość badania sprzętu geodezyjnego metodami statystyki matematycznej
Autorzy:
Czempas, Tomasz
Dwulit, Petro
Krupiński, Waldemar
Powiązania:
https://bibliotekanauki.pl/articles/100478.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
statistical compatibility test
statistical identity test
geodetic measurements
error distribution
testing of measurement correctness
statistical hypothesis
test zgodności statystycznej
test tożsamości statystycznej
pomiary geodezyjne
rozkład błędów
testowanie poprawności pomiaru
hipoteza statystyczna
Opis:
The work presents selected methods of mathematical statistics applied to the examination of the correctness of geodetic equipment operation. Specifically, measurements made with electronic total stations will be tested using statistical compatibility tests and identity tests of empirical measurement error distributions with the theoretical normal distribution N (0;1).
Praca prezentuje pewne sposoby statystyki matematycznej w zastosowaniu do badania poprawności działania sprzętu geodezyjnego. Konkretnie za pomocą statystycznych testów zgodności oraz testów identyczności rozkładów błędów pomiarów empirycznych z teoretycznym rozkładem normalnym N(0;1), zostaną przebadane pomiary wykonane tachimetrami elektronicznymi.
Źródło:
Geomatics, Landmanagement and Landscape; 2019, 2; 9-19
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pomiar statusu osób na rynku pracy w Narodowym Spisie Powszechnym Ludności i Mieszkań 2011
Autorzy:
Lańduch, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/542095.pdf
Data publikacji:
2017
Wydawca:
Główny Urząd Statystyczny
Tematy:
statistical questionnaire
measurement error
index of consistency
latent class
kwestionariusz statystyczny
błąd pomiaru
indeks zgodności
klasa ukryta
Opis:
Wielokrotny pomiar statusu osób na rynku pracy z wykorzystaniem kwestionariusza statystycznego może posłużyć do zastosowania metod ilościowych do oceny jego jakości. W celu oceny jakości wyników badania stosuje się m.in. metody powtórnego, a także wielokrotnego pomiaru na wybranej próbie losowej. Na podstawie danych uzyskanych z Narodowego Spisu Powszechnego Ludności i Mieszkań przeprowadzonego w 2011 r. (NSP 2011), zaprezentowano zastosowanie współczynnika zgodności Cohena oraz analizy klasy ukrytej do oceny jakości klasyfikowania osoby na rynku pracy. Pytania kwestionariusza spisowego pozwoliły na ocenę statusu osób na rynku pracy zgodnie z rekomendacją Międzynarodowej Organizacji Pracy (MOP) i samooceny respondenta. W artykule przedstawiono tylko kwestię zgodności wyników uzyskanych w tych ujęciach w części spisu opartej na próbie losowej, pomijając wiele innych zagadnień dotyczących błędów losowych i nielosowych.
Multimeasurement of the person’s labour market status based on the statistical questionnaire may be used for the assessment of its quality with quantitative methods. In order to evaluate the measurement quality we employ among others, remeasurement or multiple measurements for a random sample of units. Based on the data from the National Population and Housing Census 2011, this article presents appliance of the Cohen’s coefficient of contingency and Latent Class Analysis for the assessment of respondent’s labour force classification. The questions in the census questionnaire enable the evaluation of persons’ labour market status according to International Labour Organisation (ILO) recommendation as well as give an opportunity to respondent’s self-assessment. The article focuses on the issue of results’ consistency obtained from these two types of information in the part of the Census based on a random sample. Many other aspects relating to random and non-random errors were omitted in the research.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2017, 2; 98-111
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena dokładności numerycznego modelu terenu zbudowanego z danych bezpośrednich
En evaluation in digital terrain model accuracy using direct survey data
Autorzy:
Suchocki, C.
Damięcka-Suchocka, M.
Błoch, P.
Stec, M.
Powiązania:
https://bibliotekanauki.pl/articles/341438.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Przyrodniczy we Wrocławiu
Tematy:
numeryczny model terenu NMT
GRID
TIN
błąd RMS
parametry statystyczne
digital terrain model (DTM)
grid
RMS error
statistical coefficients
Opis:
Podstawowym i szeroko rozpowszechnionym źródłem informacji o ukształtowaniu terenu jest Numeryczny Model Terenu (NMT). Jest on wykorzystywany w wielu dziedzinach naukowych i gospodarczych. Najczęściej powierzchnię terenu prezentuje się w postaci nieregularnej siatki trójkątów (TIN) lub regularnej siatki kwadratów (GRID). Współcześni użytkownicy NMT zgłaszają zapotrzebowanie na coraz wierniejsze zobrazowanie rzeczywistego ukształtowania terenu. Istotnym zagadnieniem staje się więc porównywanie jakości i dokładności numerycznego modelu TIN z modelem GRID. W pracy dokonano oceny dokładności Numerycznych Modeli Terenu zbudowanych z danych bezpośrednich. Dane te pozyskano z pomiaru techniką GPS RTK terenu o powierzchni około jednego hektara i deniwelacji około 12 m. Do badań wybrano model typu TIN oraz dwa modele typu GRID zbudowane algorytmami interpolacyjnymi: Natural Neighbor i Spline. Ocenę dokładności wszystkich modeli przeprowadzono na podstawie wartości błędu RMS oraz wybranych parametrów statystycznych.
A Digital Terrain Model (DTM) is an important, widely used source of information about the shape of the Earth which is integral to many scientific and economic fields. The surface of an area of land is usually represented in the form of a Triangular Irregular Network (TIN) or a regular grid of squares (GRID). Current users of DTM have been expressing a need for more accurate representations of physical land surfaces. Comparisons of the quality and accuracy of TIN and GRID models has become an important topic of interest. This paper presents an evaluation of the accuracy of Digital Terrain Models based on direct survey data. Data were gathered from GPS RTK measurements of a 1-hectare area with about 12m of elevation. One TIN and two GRID models were built using interpolation algorithms: Natural Neighbor and Spline. The assessment of the accuracy of the models was based on errors in the value of the RMS and selected statistical coefficients.
Źródło:
Acta Scientiarum Polonorum. Geodesia et Descriptio Terrarum; 2013, 12, 3; 17-26
1644-0668
Pojawia się w:
Acta Scientiarum Polonorum. Geodesia et Descriptio Terrarum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sum of gamma and normal distribution
Autorzy:
Sitek, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/1931403.pdf
Data publikacji:
2020
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
mixture of probability distribution
statistical auditing
sum of gamma and normal distribution
accounting error
mieszanka rozkładu prawdopodobieństwa
audyt statystyczny
suma rozkładu gamma i normalnego
błąd księgowy
Opis:
Purpose: The article shows how to model audit errors using mixtures of probability distribution. Design/methodology/approach: In financial accounting, data about the economic activities of a given firm is collected and then summarized and reported in the form of financial statements. Auditing, on the other hand, is the independent verification of the fairness of these financial statements. An item in an audit sample produces two pieces of information: the book (recorded) amount and the audited (correct) amount. The difference between the two is called the error amount. The book amounts are treated as values of a random variable whose distribution is a mixture of the distributions of the correct amount and the true amount contaminated by error. The mixing coefficient is equal to the proportion of the items with non-zero errors amounts. Findings: The sum of normal and gamma distribution can be useful for modeling audit errors. Originality/value: In this paper, the method of moments is proposed to estimate mixtures of probability distribution, and we derive a formulation of the probability distribution of the sum of a normally distributed random variable and one with gamma distribution. This research could be useful in financial auditing.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2020, 143; 275-284
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies