Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "rozkład normalny" wg kryterium: Temat


Tytuł:
Modelling income distributions based on theoretical distributions derived from normal distributions
Modelowanie rozkładu dochodów z wykorzystaniem rozkładów teoretycznych wywodzących się z rozkładu normalnego
Autorzy:
Sulewski, Piotr
Szymkowiak, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/18105042.pdf
Data publikacji:
2023-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
income modelling
EU-SILC
normal distribution
SU Johnson distribution
Dagum distribution
modelowanie dochodów
rozkład normalny
rozkład SU Johnsona
rozkład Daguma
Opis:
In income modelling studies, such well-known distributions as the Dagum, the lognormal or the Zenga distributions are often used as approximations of the observed distributions. The objective of the research described in the article is to verify the possibility of using other type of distributions, i.e. asymmetric distributions derived from normal distribution (ND) in the context of income modelling. Data from the 2011 EU-SILC survey on the monthly gross income per capita in Poland were used to assess the most important characteristics of the discussed distributions. The probability distributions were divided into two groups: I – distributions commonly used for income modelling (e.g. the Dagum distribution) and II – distributions derived from ND (e.g. the SU Johnson distribution). In addition to the visual evaluation of the usefulness of the analysed probability distributions, various numerical criteria were applied: information criteria for econometric models (such as the Akaike Information Criterion, Schwarz’s Bayesian Information Criterion and the Hannan-Quinn Information Criterion), measures of agreement, as well as empirical and theoretical characteristics, including a measure based on quantiles, specifically defined by the authors for the purposes of this article. The research found that the SU Johnson distribution (Group II), similarly to the Dagum distribution (Group I), can be successfully used for income modelling.
W badaniach nad modelowaniem dochodów do aproksymacji ich rozkładów bardzo często wykorzystuje się takie znane rozkłady, jak Daguma, log-normalny czy Zengi. Celem badania omawianego w artykule jest sprawdzenie możliwości posłużenia się innymi typami rozkładów, tj. rozkładami asymetrycznymi wywodzącymi się z rozkładu normalnego (ND), w kontekście modelowania dochodów. Najważniejsze charakterystyki rozpatrywanych rozkładów określono na podstawie danych z badania EU-SILC 2011 dotyczących miesięcznego dochodu brutto na mieszkańca w Polsce. Rozkłady prawdopodobieństwa podzielono na dwie grupy: I – rozkłady powszechnie stosowane do modelowania dochodów (np. rozkład Daguma) i II – rozkłady wywodzące się z ND (np. rozkład SU Johnsona). Oprócz wizualnej oceny przydatności analizowanych rozkładów prawdopodobieństwa zastosowano kryteria liczbowe, takie jak: kryteria informacyjne dla modeli ekonometrycznych (Akaike Information Criterion, Schwarz’s Bayesian Information Criterion oraz Hannan-Quinn Information Criterion), miary zgodności oraz charakterystyki empiryczne i teoretyczne, w tym specjalnie zdefiniowana na potrzeby artykułu autorska miara wykorzystująca kwantyle. Jak wynika z badania, rozkład SU Johnsona (II grupa), może być – tak jak rozkład Daguma (I grupa) – z powodzeniem wykorzystany do modelowania dochodów.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 6; 1-23
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of Python libraries for variance, normal distribution and Weibull distribution analysis in diagnosing and operating production systems
Zastosowanie bibliotek języka Python do analizy wariancji, rozkładu normalnego i rozkładu Weibulla w diagnostyce i eksploatacji systemów produkcyjnych
Autorzy:
Chmielowiec, Andrzej
Klich, Leszek
Powiązania:
https://bibliotekanauki.pl/articles/1955208.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
variance analysis
normal distribution
Weibull distribution
statistical analysis
python
analiza wariancji
rozkład normalny
rozkład Weibulla
analiza statystyczna
Opis:
The use of statistical methods in the diagnosis of production processes dates back to the beginning of the 20th century. Widespread computerization of processes made enterprises face the challenge of processing large sets of measurement data. The growing number of sensors on production lines requires the use of faster and more effective methods of both process diagnostics and finding connections between individual systems. This article is devoted to the use of Python libraries to effectively solve some problems related to the analysis of large data sets. The article is based on the experience related to data analysis in a large company in the automotive industry, whose annual production reaches 10 million units. The methods described in this publication were the basis for the initial analysis of production data in the plant, and the obtained results fed the production database and the created automatic anomaly detection system based on artificial intelligence algorithms.
Wykorzystywanie metod statystycznych w diagnostyce procesów produkcyjnych sięga swoimi korzeniami początków XX wieku. Powszechna informatyzacja procesów postawiła przedsiębiorstwa przed wyzwaniem przetwarzania dużych zbiorów danych pomiarowych. Rosnąca liczba czujników na liniach produkcyjnych wymaga stosowania szybszych i skuteczniejszych metod zarówno diagnostyki procesu, jak i znajdowania powiązań pomiędzy poszczególnymi systemami. Niniejszy artykuł został poświęcony wykorzystaniu bibliotek języka Python do efektywnego rozwiązywania niektórych problemów związanych z analizą dużych zbiorów danych pomiarowych. Artykuł powstał na bazie doświadczeń związanych z analizą danych w dużym przedsiębiorstwie branży motoryzacyjnej, którego roczna produkcja sięga 10 milionów sztuk. Opisane w niniejszej publikacji metody stanowiły podstawę wstępnej analizy danych produkcyjnych we wspomnianym zakładzie, a uzyskane wyniki zasiliły bazę danych produkcyjnych oraz tworzony system automatycznego wykrywania anomalii oparty na algorytmach sztucznej inteligencji.
Źródło:
Diagnostyka; 2021, 22, 4; 89-105
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A remark on the distribution of products of independent normal random variables
Autorzy:
Szczepański, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1402389.pdf
Data publikacji:
2020
Wydawca:
Państwowa Wyższa Szkoła Zawodowa w Tarnowie
Tematy:
normal distribution
Meijer G-functions
rozkład normalny
funkcja G. Meijera
Opis:
We present a proof of the explicit formula of the probability density function of the product of normally distributed independent random variables using the multiplicative convolution formula for Meijer G functions.
Źródło:
Science, Technology and Innovation; 2020, 10, 3; 30-37
2544-9125
Pojawia się w:
Science, Technology and Innovation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie generatorów liczb pseudolosowych
Comparison of normal random number generators
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/962662.pdf
Data publikacji:
2019
Wydawca:
Główny Urząd Statystyczny
Tematy:
rozkład normalny
generator liczb pseudolosowych
symulacje Mon-te Carlo
normal distribution
pseudo-random number generator
monte carlo simulation
Opis:
Losowanie prób w badaniach statystycznych i w obliczeniach numerycznych, jak również symulacyjne badanie modeli probabilistycznych właściwie we wszystkich dziedzinach wiedzy wymagają wyposażenia komputera w generatory liczb pseudolosowych. Głównym celem pracy jest porównanie generatorów liczb pseudolosowych normalnych na podstawie ich analizy dokonanej za pomocą różnego rodzaju kryteriów. Zbadano właściwości 12 generatorów liczb pseudolosowych o rozkładzie normalnym. Zaproponowano rozszerzenie rodziny generatorów o dwa tzw. generatory aplikacyjne oraz przyjęcie nowego podejścia do sprawdzania jakości generatorów. Przedstawiono narzędzie przygotowane w języku C++ oraz w języku Visual Basic for Application (VBA) do prowadzenia samodzielnych badań z użyciem generatorów. Symulacje Monte Carlo przeprowadzono w języku C++, a obliczenia wykonano w edytorze VBA przy użyciu arkusza kalkulacyjnego Microsoft Excel 2016. Analiza uzyskanych wyników wskazuje, że najlepsze właściwości mają generatory: MP Monty Pythona, R, Biegun oraz Ziggurat. Najmniej użyteczne okazują się generatory: BM Boxa-Mullera, Wallace’a, Iloraz oraz Excel.
The sampling in statistical surveys and numerical calculations as well as simulation testing of probabilistic models in virtually all fields of knowledge require a computer endowed with pseudorandom numbers generators. The main goal of the study is to compare the normal random number generators using various criteria. The properties of 12 random number generators for a normal distribution were investigated. Then, the family of generators was extended by two so-called application generators and a new approach for checking the quality of generators was adopted. A ready-made tool prepared in C++ and in Visual Basic for Application (VBA) for conducting self-contained research using generators was presented. All Monte Carlo simulations were carried out in C++, while the calculations were performed in the VBA editor using the Microsoft Excel 2016 spreadsheet. The analysis of the obtained results shows that the generators with best properties are: MP Monty Python, R, Biegun and Ziggurat. The worst generators, are: BM Box-Muller, Wallace, Iloraz and Excel.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2019, 64, 7; 5-31
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verification of the Methods for Calculating the Probable Maximum Flow in the Widawa River in the Aspect of Water Management in the Michalice Reservoir
Weryfikacja metod obliczania przepływów maksymalnych prawdopodobnych w rzece Widawie w aspekcie gospodarki wodnej zbiornika Michalice
Autorzy:
Gruss, Łukasz
Wiatkowski, Mirosław
Buta, Bogna
Tomczyk, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/1811751.pdf
Data publikacji:
2019
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
water reservoirs
log-normal distribution
Pearson type III distribution
Weibull distribution
maximum flow estimation
Flood Frequency Analysis
IMGW method
zbiorniki wodne
rozkład logarytmiczno-normalny
rozkład Pearsona III typu
rozkład Weibulla
wyznaczanie przepływów maksymalnych
metoda IMGW
Opis:
Flows with a given probability of exceedance are important from the point of view of water management, especially in water reservoirs. By determining these flows, it is possible to design a reservoir adapted to local conditions that will operate in line with the assumed function. Various methods exist in the world for determining the probable maximum flows; these methods are based on various assumptions. The aim of the article is to verify and assess the applicability of the Flood Frequency Analysis (FFA) and the IMGW method for use in catchments of controlled rivers where a retention reservoir was built during the hydrological observation period. This is important in updating the water management instructions and in designing new retention reservoirs. The authors undertook to investigate whether a series of maximum flows prepared for the IMGW method allows one to recognize the regime change, caused by the construction of the retention reservoir, in the water gauge Zbytowa profile on the Widawa River, using the Mann-Kendall test. The following distributions were used in the study: Pearson type III, log-normal and Weibull. The Mann-Kendall test showed homogeneity of three observational series: 1971-2000, 2001-2017 and 1971-2017 prepared for the FFA method despite the fact that in 2001 the Michalice retention reservoir was commissioned on the Widawa river and the water management in the basin changed this watercourse. However, the observational series prepared for the IMGW method were homogenous only prior to the construction of the reservoir (1971-2000). The observational series prepared in this way enabled the Mann-Kandall test to exclude the homogeneous series caused by the regime change as a result of the construction and operation of the Michalice retention reservoir. Only after the construction of the retention reservoir the observational series from the winter half-year were homogeneous. This is due to the fact that the flows in the winter half-year are definitely lower than those in the summer half-year. The best-fitting distribution for the empirical distribution for the Widawa (the Zbytowa profile) in the analyzed series is a log-normal distribution that can be used to calculate the probable maximum flows needed to update the reservoir's water management instructions. The Wilcoxon test showed no difference between the calculation methods analyzed and used to estimate the probable maximum flows in the Zbytowa profile on the Widawa river. Therefore, as a method for calculating the probable maximum flows for the Widawa river (the Zbytowa profile) in the aspect of managing the Michalice reservoir or some other river with controlled catchment and parameters similar to those of the Widawa (in the Zbytowa profile), one can recommend either of the two analyzed methods: both FFA and IMGW.
Przepływy o zadanym prawdopodobieństwie przewyższenia są istotne z punktu widzenia gospodarowania wodami na zbiornikach wodnych. Dzięki wyznaczeniu tych przepływów możliwe jest zaprojektowanie zbiornika dostosowanego do lokalnych warunków, który będzie funkcjonował zgodnie z założoną funkcją. Na świecie obowiązują różne metody wyznaczania przepływów maksymalnych prawdopodobnych, które bazują na odmiennych założeniach. Celem artykułu jest weryfikacja i ocena możliwości zastosowania metody Flood Frequency Analysis (FFA) i metody IMGW do zastosowania w zlewniach rzek kontrolowanych, na których w okresie obserwacji hydrologicznej wybudowano zbiornik retencyjny. Ma to znaczenie w aktualizacji instrukcji gospodarowania wodą oraz w projektowaniu nowych zbiorników retencyjnych. Autorzy podjęli się zbadania czy serie przepływów maksymalnych przygotowane dla metody IMGW pozwalają na rozpoznanie zmiany reżimu, w rzece Widawie w przekroju Zbytowa, przy pomocy testu Manna-Kendalla, spowodowanej wybudowaniem zbiornika retencyjnego. W pracy wykorzystano następujące rozkłady: Pearsona typ III, logarytmiczno-normalnego oraz rozkład Weibulla. Test Manna-Kendalla wykazał jednorodności trzech serii obserwacyjnych: 1971-2000, 2001-2017 i 1971-2017 przygotowanych dla metody FFA pomimo, że na rzece Widawie w 2001 roku został oddany do eksploatacji zbiornik retencyjny Michalice i zmieniło się gospodarowanie wodą w zlewni tego cieku. Natomiast serie obserwacyjne sporządzone dla metody IMGW były jednorodne jedynie przed budową zbiornika (okres 1971-2000). Tak przygotowana seria obserwacyjna umożliwiła testowi Manna-Kandalla wykluczyć serie jednorodne spowodowane zmianą reżimu na skutek wybudowania i pracy zbiornika retencyjnego Michalice. Jedynie po budowie zbiornika retencyjnego serie obserwacyjne z półrocza zimowego były jednorodne. Jest to spowodowane tym, że przepływy w półroczu zimowym są zdecydowanie niższe niż przepływy w półroczu letnim. Najbardziej dopasowanym rozkładem zmiennej Qmax dla rzeki Widawy (profil Zbytowa) w analizowanych seriach jest rozkład logarytmiczno-normalny, który może zostać wykorzystany do obliczeń przepływów maksymalnych prawdopodobnych potrzebnych do aktualizacji instrukcji gospodarki wodnej zbiornika. Test Wilcoxona wykazał, brak różnic pomiędzy analizowanymi metodami obliczeniowymi użytymi do obliczeń maksymalnych przepływów o określonym prawdopodobieństwie przewyższenia rzeki Widawy (profil Zbytowa), dlatego też jako metodę do obliczania przepływów maksymalnych prawdopodobnych w zlewni rzeki Widawy w profilu Zbytowa w aspekcie gospodarowania wodami zbiornika retencyjnego Michalice lub innej rzeki o zlewni kontrolowanej o podobnych parametrach zlewni co zlewnia rzeki Widawa (profil Zbytowa), można wskazać obie analizowane metody: FFA i IMGW.
Źródło:
Rocznik Ochrona Środowiska; 2019, Tom 21, cz. 1; 566-585
1506-218X
Pojawia się w:
Rocznik Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Normal Distribution of Returns of Warsaw Stock Exchange Indexes
Rozkład normalny stóp zwrotu indeksów Giełdy Papierów Wartościowych w Warszawie
Autorzy:
Borowski, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/525820.pdf
Data publikacji:
2018-05-08
Wydawca:
Uniwersytet Warszawski. Wydawnictwo Naukowe Wydziału Zarządzania
Tematy:
normal distribution
return rates
stock indexes
ranking of equity indexes
rozkład normalny
stopy zwrotu
indeksy giełdowe
ranking indeksów giełdowych
Opis:
The paper verified the hypothesis regarding a normal distribution of returns of Warsaw Stock Exchange indexes for the following time intervals: daily, weekly, monthly, quarterly and yearly. The analyzed rates of return were calculated in the following outlines: closing-closing, opening-opening, opening-closing and overnight. The verification of statistical hypotheses was conducted with the use of the following seven statistical tests: Kolmogorov-Smirnov, Lilliefors, Shapiro-Wilk, Chi-squared, Cramer von Mises, Watson, Anderson-Darling. The analyzed indexes were ranked due to the convergence of their return to the normal distribution with the use of the following tests: Jarque-Bera, Shapiro-Wilk and D’Agostino-Pearson.
W artykule zweryfikowano hipotezę o normalności rozkładu stóp zwrotu indeksów publikowanych przez Giełdę Papierów Wartościowych w Warszawie. Badanie przeprowadzono dla stóp zwrotu: dziennych, tygodniowych, miesięcznych, kwartalnych i rocznych oraz uwzględniono stopy zwrotu liczone w ujęciu: zamknięcie–zamknięcie, zamknięcie–otwarcie, otwarcie–otwarcie i otwarcie–zamknięcie (overnight). Weryfikacja hipotez statystycznych została przeprowadzona za pomocą następujących siedmiu testów: Kolmogorova-Smirnova, Lillieforsa, Shapiro-Wilka, Chi-kwadrat, Cramera von Misesa, Watsona, Andersona- Darlinga. Stworzony został również ranking analizowanych indeksów giełdowych z wykorzystaniem trzech testów statystycznych: Jarque-Bera, Shapiro-Wilka and D’Agostino-Pearsona.
Źródło:
Problemy Zarządzania; 2018, 2/2018 (74); 11-45
1644-9584
Pojawia się w:
Problemy Zarządzania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie karty kontrolnej w standardowym trybie pracy w SPC (Statistical Process Control)
Application of the Controlcard in the Standard Operatingmode in SPC (Statistical Process Control)
Autorzy:
MALSKA, WIESŁAWA
Powiązania:
https://bibliotekanauki.pl/articles/455443.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rzeszowski
Tematy:
jakość produktu
karta kontrolna
statystyczne sterowanie procesami produkcji
rozkład normalny zmiennych losowych
product quality
control card
statistical control of production processes
normal distri-bution of random variables
Opis:
W artykule zaprezentowano przykład zastosowania karty kontrolnej w standardowym trybie pracy w SPC. Nowoczesne przedsiębiorstwo produkcyjne powinno posiadać sprawnie funkcjonujący system zarządzania jakością wyrobów. Podstawową rolę w takim systemie odgrywa SPC (Statistical Process Control), czyli statystyczne sterowanie procesami. Po wstąpieniu Polski do UE problematyka jakości stała się ważnym zagadnieniem w praktyce produkcyjnej firm. W zależności od branży przemysłu stosuje się różne metody sprawdzania jakości produktów w działach jakości. Sprawdzanie jakości produktów może odbywać się na wybranym etapie lub wszystkich etapach całego procesu technologicznego lub tylko na etapie produktu finalnego. SPC jest najczęściej stosowaną metodą statystycznego sterowania procesem produkcyjnym przeznaczoną do gromadzenia i prezentacji danych opisujących zmienność warunków i charakterystyk przebiegu całego procesu produkcyjnego. Głównym celem stosowania SPC jest zmniejszanie zmienności parame-trów na wejściu i wyjściu procesu produkcyjnego, a następnie usuwanie przyczyn ich występowa-nia. W ramach SPC bada się, z jakim rozproszeniem wyników pomiarów wykonywany jest proces produkcji i jaka jest jego zdolność do spełnienia wymagań określonych w specyfikacji technicznej danego wyrobu. Współczesne programy statystycznego wspomagania gromadzenia i analizy danych oferują narzędzia przeznaczone do zagadnień związanych z jakością. Do często wykorzystywanych należy program STATISTICA umożliwiający m.in. prowadzenie tzw. kart kontrolnych procesu, które służą do oceny liczbowej lub oceny alternatywnej próbek poddanych kontroli i podlegających ocenie.
The article presents an example of the use of a control card in the standard operating mode in SPC. A modern production enterprise should have an efficiently functioning product quality management system. The basic role in such a system is played by SPC (Statistical Process Control), or statistical process control. After Poland's accession to the EU, the issue of quality has become an important issue in the production practice of companies. Depending on the industry, different methods of checking the quality of products in quality departments have been applied. Product quality checking can take place at the selected stage or all stages of the entire technological pro-cess or only at the stage of the final product. SPC (Statistical Process Control) is the most com-monly used method of statistical control of the production process intended for the collection and presentation of data describing the variability of conditions and characteristics of the course of the entire production process. The main purpose of using SPC is to reduce the variability of parameters at the entry and exit of the production process, and then to eliminate the reasons for their occurrence. As part of the SPC, it is examined with what dispersion of the measurement results the production process is performed and what is its ability to meet the requirements specified in the technical specification of a given product. Modern statistical data collection support and data analysis programs offer tools dedicated to quality issues. Frequently used programs include the STATISTICA program that allows, among other things, running the socalled process control charts, which are used for numerical evaluation or alternative evaluation of samples subjected to control and subject to evaluation
Źródło:
Edukacja-Technika-Informatyka; 2018, 9, 2; 318-324
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Critical values of driver response time and its impact on reducing reliability and safety in road traffic
Krytyczne wartości czasu reakc ji kierowcy i ich wpływ na obniżenie niezawodności i bezpieczeństwa ruchu drogowego
Autorzy:
Kornacki, A.
Wawrzosek, J.
Bochniak, A.
Szymanek, A.
Pawlak, H.
Powiązania:
https://bibliotekanauki.pl/articles/1365618.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
driver response time
reliability of road traffic
outliers
Akaike information criterion
log-normal
distribution
czas reakcji kierowcy
niezawodność ruchu drogowego
obserwacje odstające
kryterium
informacyjne Akaike
rozkład logarytmiczno-normalny
Opis:
Road traffic is among the most dangerous types of human activity. The main causes of road accidents are driver fatigue, poor physical and mental condition of drivers and overestimating one’s skills while driving. This study focuses on the estimation of driver response time, as the basis of a hypothetical system that uses short and long-range radars, which determines the physical and mental condition of a driver, based on the analysis of „acceleration noise” of the vehicle following its predecessor. This work highlights serious consequences of the fact that driver response time is described by means of a distribution with heavy tails, and thus may be a source of hazard in the driver-vehicle system. Extremes of driver response time were treated as outliers in this study. Their detection was attained by using the Akaike information criterion [1, 2], which is an alternative to conventional methods of testing hypotheses. Untypical, on account of their outlying nature, values are interpreted as critical driver response time values which potentially endanger the reliability of driving.
Ruch drogowy należy do najbardziej niebezpiecznych rodzajów działalności człowieka. Główne przyczyny wypadków drogowych to zmęczenie kierowców, zły stan psychofizyczny kierujących oraz przecenianie swoich umiejętności podczas prowadzenia pojazdu. W niniejszej pracy skupiono uwagę na estymacji czasu reakcji kierowców, jako podstawie hipotetycznego systemu wykorzystującego radary dalekiego i krótkiego zasięgu a określającego stan psychofizyczny kierowcy w oparciu o analizę „szumu przyspieszeń” pojazdu podążającego za poprzednikiem. Wskazuje się na groźne konsekwencje faktu, że czas reakcji kierowcy jest opisywany rozkładem z ciężkimi ogonami, gdyż z tego powodu może być źródłem zagrożenia w układzie kierowca-pojazd. Skrajne wartości czasu reakcji kierowców potraktowano w pracy, jako wartości odstające. Do ich wykrycia zastosowano kryterium informacyjne Akaike [1, 2] co stanowi alternatywę w stosunku do klasycznych metod testowania hipotez. Nietypowe, bo odstające wartości interpretuje się, jako krytyczne czasy reakcji kierowców potencjalnie zagrażające niezawodności jazdy.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 1; 142-148
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ROZKŁAD NORMALNY STÓP ZWROTU Z AKCJI WCHODZĄCYCH W SKŁAD NASTĘPUJĄCYCH INDEKSÓW GIEŁDOWYCH: WIG20, MWIG40 I SWIG80
NORMAL DISTRIBUTION OF RETURNS OF COMPONENTS OF THE FOLLOWING WSE INDEXES: WIG20, MWIG40 AND SWIG80
Autorzy:
Borowski, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/453634.pdf
Data publikacji:
2017
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
rozkład normalny
stopy zwrotu
indeksy giełdowe
ranking spółek
normal distribution
return rates
stock indices
ranking of companies
Opis:
W artykule zweryfikowana została teza o normalności rozkłdu stóp zwrotu cen akcji komponentów indeksów giełdowych tj. w dnu 17.10.2017 r.) do dnia 31.03.2017 r., dla stóp zwrotu w ujęciu: zamknięcie-zamknięcie, otwarcie-otwarcie, otwarcie-zamknięcie i overnight. Z wykorzystaniem testów Jarque-Bera, Shapiro-Wilka i D’Agostino-Pearsona podjęcto próbę stworzenia rankingu spółek ze względu na zbieżność rozkładu ich stóp zwrotu do rozkładu normalnego.
The article verified the hypothesis regarding normal distribution of returns of shares - components of the following Warsaw Stock Exchange indexes Keywords: normal distribution, return rates, stock indices, ranking of companies
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2017, 18, 4; 541-560
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie metody Monte Carlo do określenia niepewności pomiaru mocy optycznej emitera półprzewodnikowego
Utilization of Monte Carlo method for determining the uncertainty of semi-conductor emitter’s optical power measurement
Autorzy:
Prorok, M.
Makal, J.
Powiązania:
https://bibliotekanauki.pl/articles/266619.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
metoda Monte Carlo
niepewność pomiaru
rozkład normalny
generacja wyników pomiarowych
Monte Carlo method
measurement uncertainty
normal distribution
measurements generation
Opis:
W artykule przedstawiono sposób wykorzystania metody Monte Carlo do określenia przedziału ufności pomiaru w przypadku wyznaczania wartości mocy optycznej emitera półprzewodnikowego. Na podstawie niewielkiej serii (3-30) pomiarów wartości mocy optycznej w układzie świetlno-optycznym przeprowadzono analizę niepewności wg GUM (Guide Uncertainty Measurement), określając wartość niepewności rozszerzonej. Następnie, wykorzystując silnik matematyczny, przeprowadzono procedurę generacji próbek pomiarowych i wyznaczono przedział rozszerzenia. Na zakończenie, porównano obie metody obliczeniowe i przedstawiono wypływające z niego wnioski.
Monte Carlo method, as the statistic device is widely used even in complex engineering problems and metrology, the algorithms used to evaluate these technical issues base on set of pseudorandom numbers. This paper contains of the way to use Monte Carlo method to generate any number of measurements. Basing on small series of optical power measurements (3-30) in the optical light system, the GUM (Guide Uncertainty Measurement) analysis was performed to estimate extended uncertainty range. Calculated parameter, connected with the final measurement result, specifying measurements scatter is boundary value for procedure initialization in mathematical engine. The method’s usefulness is especially noticeable in case of artificial widening measurements number, which preserve their characteristic normal distribution (the Gauss distribution) in the continuous probability distribution.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2017, 54; 187-190
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie tablic dwudzielczych z wykorzystaniem dwuwymiarowego rozkładu normalnego uciętego
Generating the two-way contingency tables using the truncated two-dimensional normal distribution
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/589453.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Dwuwymiarowy rozkład normalny ucięty
Metoda Monte Carlo
Tablica dwudzielcza
Test niezależności
Generating of Monte Carlo
Independence test
Truncated two-dimensional normal distribution
Two-way contingency tables
Opis:
W artykule zaprezentowano procedurę generowania liczb losowych o dwuwymiarowym rozkładzie normalnym uciętym (DRNU). Opisano algorytm generowania tablicy dwudzielczej, wykorzystując próbę realizacji zmiennej losowej DRNU. Przedstawioną teorię wzbogacono konkretnymi przykładami, zrealizowanymi w edytorze VBA arkusza kalkulacyjnego Microsoft Excel.
The procedure to generate random numbers of the truncated two-dimensional normal distribution (DRNU) was presented. The generating of two-way contingency table using random variable of DRNU was described. The presented theory has been enriched with specific examples, that were implemented in the VBA editor of spreadsheet Microsoft Excel.
Źródło:
Studia Ekonomiczne; 2016, 288; 71-87
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Handling of uncertainties in attributing thermoshock in fibrous concrete strength: a probabilistic approach
Postępowanie w przypadku niepewności w przypisywaniu szoku termicznego w wytrzymałości betonu włóknistego: podejście probabilistyczne
Autorzy:
Elangovan, G
Rajanandhini, V. M.
Powiązania:
https://bibliotekanauki.pl/articles/231435.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
beton włóknisty
rozkład normalny
prawdopodobieństwo
kontrola jakości
niezawodność
szok termiczny
fibrous concrete
normal distribution
probability
quality control
reliability
thermoshock
Opis:
Hallmark professionalism in probabilistic analysis is to quantify the uncertainties involved in construction materials subject to intrinsic randomness in its physical and mechanical properties and is now gaining popularity in civil engineering arena. As well, knowledge of behaviour of materials is continuously evolving and its statistical descriptors are also changing when more and more data collected or even data updated and hence reliability analysis has to be carried out with the updated data as a continuous process. As per the committee report ACI 544.2R, it is found that there is no attempt made for probabilistic relation between cube compressive strength and cylinder compressive strength for fiber reinforced concrete. In consequence of this report, a robust relation between cube and cylinder of experimentally conducted compressive strength was established by Monte-Carlo simulation technique for different types of fibrous concrete like steel, alkali resistant glass and polyester fibrous concrete before and after thermoshock considering various uncertainties. Nevertheless simulated probabilistic modals, characteristic modals, optimized factor of safety and allowable designed cylinder compressive strength have been developed from the drawn probability of failure graph, which exhibits robust performance in realistic Civil Engineering materials and structures.
Większość krajów korzysta z sześciennych próbek, a kilka innych używa próbek cylindrycznych w celu ustalenia wytrzymałości na ściskanie betonu. Na ogół wytrzymałość na ściskanie cylindra jest nieuczciwie ustalana jako 0,8 wytrzymałości sześcianu na ściskanie, ale doświadczenia wykazały, że nie ma unikalnego związku między wytrzymałością sześcianu a wytrzymałością cylindra. Podobna sytuacja występuje również w przypadku betonu włóknistego. Zgodnie z raportem komisji Amerykańskiego Instytutu Betonu ACI 544.2R okazuje się, że nie podjęto próby wykazania probabilistycznego związku między wytrzymałością sześcianu na ściskanie a wytrzymałością cylindra w przypadku żelbetu. Obecnie wytrzymałość materiałów konstrukcyjnych jest wymagana, ponieważ gaszenie pożaru wodą prowadzi do szoku termicznego. Przewidywanie wytrzymałości próbki sześciennej lub cylindrycznej przed i po szoku termicznym jest wymagane w przypadku betonu włóknistego różnych typów.
Źródło:
Archives of Civil Engineering; 2016, 62, 4/I; 17-33
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Matematičeskaâ modelʹ i ocenka riska likvidacii požara
Мathematical Model and Risk Evaluation for Firefighting
Model matematyczny i ocena ryzyka zwalczania pożaru
Autorzy:
Vasiľev, N. I.
Movchan, I. A.
Powiązania:
https://bibliotekanauki.pl/articles/373029.pdf
Data publikacji:
2016
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
fire
extinguishing a fire
probability of extinguishing a fire
mathematical model
Weibull exponential distribution
normal distribution
information technology
pożar
zwalczanie pożaru
ryzyko zwalczania pożaru
model matematyczny
rozkład Weibulla
rozkład wykładniczy
rozkład normalny
technologie informacyjne
Opis:
Aim: The purpose of this article is to identify risks during firefighting operations, utilizing the basic principles of reliability theory, but also functional probability models, for all stages of the firefighting processes. With the aid of acquired data, develop a mathematical model to describe uncertainties associated with various phases of firefighting and define the influence of component parts, through projects and programmes for each operational element, on the overall outcome in the fight with a fire. Methodology: The article utilised a complex approach to identify the probability of overcoming a fire within required timescales, by taking account of all tasks associated with the process. The probabilistic description of each component was based on the use of standard time for the completion of a given task. In order to determine each component of risk, the study utilised Weibull’s distribution, exponential and normal laws of distribution. During the selection of distribution laws use was made of statistical modelling methods to determine the confidence levels for each operational task. Results: Study results facilitate identification of weak areas in the operational performance of teams engaged in firefighting. From an analysis of factors influencing the quality of performance, adverse performance can be eliminated and consequently the effectiveness of firefighting can be significantly improved. Illustratively, the project development of access road selection and use of optimal routes within the operational boundary systems, to determine resource needs in fighting fires and by taking account of predicted timescales for undisturbed burning, will significantly reduce the probability value of failure in extinguishing fires within appropriate/desired time scales. Conclusions: The proposed method for determining the probability of combating fires enables, on the basis of statistical data dealing with lead time for extinguishing fires, the conduct of work analysis for firefighting teams and to diagnose their weaknesses. Analysis of results reveals that the main weakness in team performance is the time taken for the journey to an incident location. Calculations indicate that, in order to reduce the time taken to locate and extinguish the fire, and clear the site of the incident, it is necessary to have at disposal an optimal number of firefighting teams.
Cel: Celem artykułu jest opracowanie metody określenia ryzyka procesu zwalczania pożaru w chronionym obiekcie z wykorzystaniem podstawowych założeń teorii niezawodności, a także funkcjonalnych modeli ryzyka dla każdej operacji taktycznej w procesie zwalczania pożaru. Następnie, z wykorzystaniem otrzymanych danych, opracowanie modelu matematycznego ryzyka zwalczania pożaru oraz określenie wpływu składowych ryzyka operacji taktycznych na zabezpieczenie poprzez projekty i programy każdej operacji taktycznej wpływającej na skuteczność zwalczania pożaru. Metody: W artykule wykorzystano kompleksowe podejście do określenia ryzyka przy zwalczaniu pożaru w wymaganym czasie z uwzględnieniem wszystkich operacji taktycznych związanych z tym procesem. Jako podstawę określenia każdej składowej ryzyka wykorzystano normatywny czas na wykonanie danej operacji taktycznej. Do określenia każdej składowej ryzyka wykorzystano zależności rozkładu Weibulla, rozkładu prawa wykładniczego i normalnego. Przy wyborze prawa rozkładu posługiwano się metodą modelowania statystycznego parametrów niezawodności każdej operacji taktycznej. Wyniki: Wyniki badania pozwalają określić słabe punkty w działaniach zespołów ratowniczo-gaśniczych. Dzięki analizie czynników wpływających na jakość pracy można będzie wyeliminować te negatywne i przez to znacząco zwiększać skuteczność zwalczania pożarów. Przykładowo opracowanie projektu wyboru optymalnych dróg dojazdowych do granic obsługiwanego przez daną jednostkę obszaru pozwala skrócić czas dojazdu na miejsce zdarzenia o 30-35%, a zastosowanie zautomatyzowanych systemów obliczania sił i środków potrzebnych do zwalczania pożarów z uwzględnieniem prognozowanego czasu niezakłóconego spalania znacząco zmniejsza wartość ryzyka nieugaszenia pożaru w odpowiednim/wymaganym czasie. Wnioski: Zaproponowana metoda określenia ryzyka przy zwalczaniu pożaru pozwala, na podstawie danych statystycznych na temat czasu gaszenia pożarów, przeprowadzić analizę pracy zespołów ratowniczo-gaśniczych i zdiagnozować jej słabe punkty. Wyniki analizy ryzyka przy zwalczaniu pożaru pokazują, że głównym słabym punktem w pracy zespołów jest czas dojazdu na miejsce zdarzenia. Aby zmniejszyć czas lokalizacji, gaszenia i dogaszania pożaru, jak pokazały wyniki obliczeń, należy dysponować optymalną liczbę zespołów ratowniczo-gaśniczych.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2016, 41, 1; 47-54
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wybranych rozkładów prawdopodobieństwa wartości ekstremalnych do szacowania ryzyka wystąpienia zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku
Application of selected probability distributions of extreme values to flood risk assessment in the Odra River catchment in Lower Silesia
Autorzy:
Kuźmiński, Ł.
Szałata, Ł.
Zwoździak, J.
Powiązania:
https://bibliotekanauki.pl/articles/237592.pdf
Data publikacji:
2016
Wydawca:
Polskie Zrzeszenie Inżynierów i Techników Sanitarnych
Tematy:
ryzyko powodziowe
roczny przepływ maksymalny
rozkład empiryczny
rozkład Gumbela
rozkład Frecheta
rozkład logarytmiczno-normalny
flood risk
maximum annual flow
empirical distribution
Gumbel distribution
Frechet distribution
lognormal distribution
Opis:
Analizie poddano maksymalne dobowe przepływy w Odrze zmierzone w latach 1971–2013 w stacji hydrologicznej w Malczycach. Z całego zbioru danych wyselekcjonowano maksymalne przepływy roczne i do ich rozkładu empirycznego dopasowano trzy rozkłady teoretyczne – Gumbela, Frecheta i logarytmiczno-normalny. Przedstawiony przykład analizy probabilistycznej zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku może być skutecznym narzędziem w ocenie wystąpienia ryzyka powodziowego. Otrzymane w ten sposób wyniki mogą zostać wykorzystane do szacowania prawdopodobieństwa wystąpienia określonych zdarzeń związanych z zagrożeniem powodziowym, a także do porównywania wybranych obszarów dorzecza pod względem zagrożenia powodziowego.
The maximum daily flows in the Oder river from the period of 1971 to 2013 were analyzed in Malczyce hydrological station. From the entire data set the maximum annual flows were selected and their empirical distributions were fitted against the three theoretical distribution models: Gumbel, Frechet and the lognormal. The presented case of probabilistic flood risk analysis for the Oder catchment in Lower Silesia may become an effective flood risk assessment tool. The results may be employed to probability assessment of certain events related to flood risk and also to compare the flood risk in selected catchment regions.
Źródło:
Ochrona Środowiska; 2016, 38, 3; 35-39
1230-6169
Pojawia się w:
Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozkład wielkości podłoża do zarodkowania heterogenicznego fazy pierwotnej stopu Al-Cu
Size Distribution of Substrate to Heterogenous Nucleation of Primary Phase in Al-Cu Alloy
Autorzy:
Lelito, J.
Gracz, B.
Żak, P. L.
Suchy, J. S.
Szucki, M.
Malinowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/380896.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
rozkład logarytmiczno-normalny
rozkład Oldfielda
rozkład eksponecjalny
zarodkowanie heterogeniczne
stop Al-Cu
longnormal distribution
heterogenous nucleation
Al-Cu alloy
Opis:
Rozwój komputeryzacji spowodował duży postęp w numerycznym modelowaniu krystalizacji stopów odlewniczych. Możliwe staje się prognozowanie mikrostruktury odlewów. W tym celu konieczna jest znajomość równań opisujących rozkłady wielkości podłoża do zarodkowania heterogenicznego ziaren bądź funkcji gęstości ziaren w zależności od przechłodzenia. W pracy zamieszczono obliczenia dla modelu wykładniczego i eksponencjalnego gęstości ziaren w funkcji przechłodzenia maksymalnego. Dodatkowo przeprowadzono również obliczenia dla logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego. Zasadniczym celem tej pracy jest wyznaczenie w powyższych równaniach, parametrów dopasowania krzepnącego stopu Al-Cu na podstawie badań doświadczalnych zamieszczonych w literaturze [7]. W przypadku logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego, parametry występujące w tym równaniu zostały wyznaczone za pomocą algorytmu numerycznego. Tak wyznaczone rozkłady zostały następnie zestawione na wykresie z danymi eksperymentalnymi w celu ich porównania.
The development of computerization caused a lot of progress in numerical modeling of alloys crystallization. It becomes possible to predict casting microstructure. For this purpose, it is necessary to know the equations describing the size distribution of the substrate to the heterogeneous nucleation of grains or grains density function dependence on supercooling. The paper presents calculations for Oldfield and exponential model of grain density as a function of the maximum supercooling. In addition, calculations were also performed for the log-normal distribution of the substrate size to heterogeneous nucleation of primary phase. The main aim of this work is to determine the fitting parameters of Al-Cu alloy solidifying based on experimental studies published in the literature [7] for above equations. In the case of log-normal size distribution of substrate for heterogeneous nucleation, the parameters present in the equation were determined using a numerical algorithm. Thanks to these schedules were then summarized in the graph of experimental data for comparison.
Źródło:
Archives of Foundry Engineering; 2015, 15, 4 spec.; 83-86
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies