Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "rozkład normalny" wg kryterium: Temat


Wyświetlanie 1-30 z 30
Tytuł:
Ocena dokładności oszacowania wskaźnika standaryzowanego opadu (SPI) wyznaczonego za pomocą różnych rozkładów prawdopodobieństwa
Assessment of accuracy of precipitation index (SPI) determined by different probability distributions
Autorzy:
Gąsiorek, E.
Musiał, E.
Rojek, M.
Powiązania:
https://bibliotekanauki.pl/articles/400663.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
wskaźnik standaryzowanego opadu
rozkład gamma
rozkład normalny
rozkład log-normalny
standardized precipitation index
gamma distribution
normal distribution
lognormal distribution
Opis:
Stosowanie różnych metod obliczania wskaźnika standaryzowanego opadu (SPI) związane jest z otrzymywaniem różnych jego przybliżeń. Metody oparte na rozkładzie normalnym i jego transformacjach oraz na rozkładzie gamma dają podobne wyniki, stąd można je stosować zamiennie. Metoda oparta na rozkładzie logarytmiczno-normalnym daje wyraźnie różne wartości tego wskaźnika szczególnie dla wartości ekstremalnych SPI. Pojawia się wobec tego problem, która z metod daje rozkład lepiej dopasowany do danych empirycznych. Celem tej pracy jest uporządkowanie powyższych metod ze względu na stopień dopasowania do danych empirycznych z Obserwatorium Agro- i Hydrometeorologii we Wrocławiu Swojcu z wielolecia 1964–2009.
The use of different calculating methods to compute the standardized precipitation index (SPI) results in various approximations. Methods based on normal distribution and its transformations, as well as on gamma distribution, give similar results and may be used equally, whereas the lognormal distribution fitting method is significantly discrepant, especially for extreme values of SPI. Therefore, it is problematic which method gives the distribution optimally fitted to empirical data. The aim of this study is to categorize the above mentioned methods according to the degree of approximation to empirical data from the Observatory of Agro- and Hydrometeorology in Wrocław-Swojec from 1964–2009 years.
Źródło:
Inżynieria Ekologiczna; 2014, 40; 92-99
2081-139X
2392-0629
Pojawia się w:
Inżynieria Ekologiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wskaźnik standaryzowanego opadu (SPI) wyznaczony z zastosowaniem rozkładu log-normalnego
Standardized precipitation index (SPI) calculated with the use of log-normal distribution
Autorzy:
Gąsiorek, E.
Musiał, E.
Rojek, M.
Powiązania:
https://bibliotekanauki.pl/articles/399901.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
wskaźnik standaryzowanego opadu
rozkład gamma
rozkład normalny
rozkład log-normalny
standardized precipitation index
gamma distribution
normal distribution
log-normal distribution
Opis:
Praca jest kontynuacją badań przeprowadzonych na podstawie danych z Obserwatorium Agro- i Hydrometeorologii UP Wrocław-Swojec z okresu 1964–2009 i opublikowanych w czasopiśmie „Infrastruktura i Ekologia Terenów Wiejskich” nr 3/III/2012, str. 197–208. Tematyką opublikowanej pracy są dwie metody wyznaczania wskaźnika standaryzowanego opadu. Pierwsza z nich polega na wyznaczeniu SPI bezpośrednio z dopasowanego rozkładu gamma, któremu podlegają miesięczne sumy opadów w wieloleciu 1964–2009 we Wrocławiu, druga na zastosowaniu transformacji prowadzących do rozkładu normalnego. W prezentowanej pracy autorzy wyznaczają wskaźnik standaryzowanego opadu (SPI) stosując rozkład logarytmiczno-normalny i dokonują oceny tak wyznaczonego wskaźnika na tle wskaźników wyznaczonych za pomocą rozkładu gamma i rozkładu normalnego. Celem pracy była analiza porównawcza otrzymanych wartości współczynników SPI otrzymanych trzema różnymi metodami
The problem analyzed in this paper is the continuation of research conducted on data from Wrocław-Swojec agro- and hydrometeorology observatory in 1964–2009 period and published in “Infrastruktura i Ekologia Terenów Wiejskich” nr 3/III/2012, pp. 197–208. The paper concerns two methods of calculation of standardized precipitation index (SPI). The first one extracts SPI directly from gamma distribution, since monthly precipitation sums in the 1964–2009 period in Wrocław are gamma distributed. The second method is based on the transformations of data leading to normal distribution. The authors calculate SPI with the use of log-normal distribution and confront it with values obtained by gamma and normal distributions. The aim of this paper is to comparatively assess the SPI values obtained with those three different methods.
Źródło:
Inżynieria Ekologiczna; 2014, 39; 62-73
2081-139X
2392-0629
Pojawia się w:
Inżynieria Ekologiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wyznaczanie wskaźnika standaryzowanego opadu (SPI) z zastosowaniem rozkładu gamma
Calculation of standardized precipitation index (SPI) with the use of gamma distribution
Autorzy:
Gasiorek, E.
Musial, E.
Powiązania:
https://bibliotekanauki.pl/articles/886398.pdf
Data publikacji:
2014
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
opady atmosferyczne
wskaznik standaryzowanego opadu
rozklad gamma
rozklad normalny
suma opadow
Źródło:
Scientific Review Engineering and Environmental Sciences; 2014, 23, 3[65]
1732-9353
Pojawia się w:
Scientific Review Engineering and Environmental Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A remark on the distribution of products of independent normal random variables
Autorzy:
Szczepański, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1402389.pdf
Data publikacji:
2020
Wydawca:
Państwowa Wyższa Szkoła Zawodowa w Tarnowie
Tematy:
normal distribution
Meijer G-functions
rozkład normalny
funkcja G. Meijera
Opis:
We present a proof of the explicit formula of the probability density function of the product of normally distributed independent random variables using the multiplicative convolution formula for Meijer G functions.
Źródło:
Science, Technology and Innovation; 2020, 10, 3; 30-37
2544-9125
Pojawia się w:
Science, Technology and Innovation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wskaźnika standaryzowanego opadu (SPI) wyznaczonego za pomocą rozkładu gamma i rozkładu normalnego dla miesięcznych sum opadów
The comparison of standardized precipitation index (SPI) evaluated by gamma and normal distribution for monthly precipitation sums
Autorzy:
Gasiorek, E.
Grzadziel, M.
Musial, E.
Rojek, M.
Powiązania:
https://bibliotekanauki.pl/articles/62570.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Stowarzyszenie Infrastruktura i Ekologia Terenów Wiejskich PAN
Tematy:
warunki opadowe
suma opadow
sumy miesieczne
wskaznik standaryzowanego opadu
rozklad gamma
rozklad normalny
Opis:
W pracy przedstawiono dwie metody obliczania wskaźnika standaryzowanego opadu (SPI-standardized precipitation index) [McKee i in. 1993, 1995]. Pierwsza z nich jest oparta na fakcie, że empiryczne rozkłady częstości miesięcznych sum opadów najczęściej podlegają rozkładowi gamma (Kaczmarek 1970). Weryfikacja hipotezy o zgodności empirycznych rozkładów miesięcznych sum opadów w wieloleciu 1964-2009 we Wrocławiu-Swojcu z rozkładem gamma, po-twierdziła ten fakt. Druga metoda wyznaczania wskaźnika standaryzowanego opadu polega na obliczeniu wielkości: , gdzie: F jest dystrybuantą rozkładu gamma z parametrami estymowanymi na podstawie analizowanego zbioru danych, a dystrybuantą standardowego rozkładu normalnego (McKee i in. 1993,1995). W praktyce często wykorzystywany jest następujący fakt: dla zmiennej losowej X o rozkładzie gamma, zmienna ma w przybliżeniu rozkład normalny (Krishnamoorthy K. i in. 2008). W celu wyznaczenia współczynnika SPI stosowane są również transformacje: oraz . Za pomocą dwóch prezentowanych metod wyznaczono wskaźniki standaryzowanego opadu (SPI) dla miesięcznych sum opadów w wieloleciu 1964-2009. Następnie porównano ze sobą oceny warunków opadowych dla miesięcznych sum za pomocą SPI, wyznaczonego z zastosowaniem rozkładu gamma i rozkładu normalnego. Stwierdzono, że klasyfikację warunków opadowych za pomocą wskaźnika SPI można przeprowadzić korzystając zarówno z rozkładu gamma jak i z rozkładu normalnego.
In the study two methods of counting SPI (standardized precipitation index) are given (McKee i in. 1993, 1995). The first of them is based on the fact that empirical distributions of monthly precipitation sums are usually gamma distributed (Kaczmarek 1970). The verification of goodness-of fit test hypothesis of empirical distribution of monthly precipitation sums in the years 1964-2009 in Wrocław- Swojec, with gamma distribution, confirmed that. The second method of SPI evaluation relies on counting the value: x = Φ − 1 ( F ( x )) , where F is a distribution function of gamma distribution with parameters estimated on the basis of analyzed data set, and Φ is a distribution function of standardized normal distribution (McKee i in. 1993,1995). In practice, the following fact is often taken into account: for a random variable X gamma distributed, variable Z = 3 X has approximately normal distribution (Krishnamoorthy K. i in. 2008). In order to estimate SPI, other transformations are tested: x →3 c + x and x →ln x .. With the use of those two methods, SPI for monthly precipitation sums in the years 1964- 2009 were evaluated. Then, precipitation conditions for monthly precipitation sums, assessed by SPI counted with the use of gamma or normal distribution, were compared. It has been shown that the precipitation conditions may be classified with the use of SPI based both on gamma and normal distributions.
Źródło:
Infrastruktura i Ekologia Terenów Wiejskich; 2012, 3/III
1732-5587
Pojawia się w:
Infrastruktura i Ekologia Terenów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Valorization of the noise content in photogrammetric images using wavelets
Waloryzacja zawartości szumów w obrazach fotogrametrycznych z wykorzystaniem falek
Autorzy:
Pyka, K.
Powiązania:
https://bibliotekanauki.pl/articles/385326.pdf
Data publikacji:
2008
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
transformacja falkowa
szum obrazowy
rozkład normalny
kurtoza
wavelets transform
image noise
normal distribution
Opis:
In the paper the use of wavelet transformation for valorization of noise content in photogrammetric images is proposed. At first noise in the digital images and applied methods of noise removing is described synthetically. Then the most important features of wavelet transformation are presented through the comparison with Fourier transformation, widely used in the similar problems. Valorization of the noise content was based on the observation given in literature, stating that the noise changes the shape of the transform detail components histograms. The fragments of aerial photographs and high-resolution satellite images were used as a research material. The researches confirmed the possibility to define the noise content indicators based on the analysis of the wavelet detail coefficients distribution shape. It was found that investigation of the wavelet components histograms shape can be employed for the comparison of the radiometric changes occurred during radiometric and geometric processing of the images.
W pracy zaproponowano zastosowanie transformacji falkowej do waloryzacji zawartości szumów losowych występujących w obrazach fotogrametrycznych. Najpierw omówiono syntetycznie problem szumów w obrazach cyfrowych oraz stosowane metody ich usuwania. Następnie przedstawiono najważniejsze cechy transformacji falkowej, poprzez porównanie do powszechnie stosowanej - w podobnych zagadnieniach - transformacji Fouriera. Waloryzacje zawartości szumów oparto na podanych w literaturze spostrzeżeniach, że szum zmienia kształt histogramów komponentów detalicznych transformaty falkowej. Jako materiał badawczy wykorzystano fragmenty zdjęć lotniczych i wysokorozdzielczych obrazów satelitarnych. Badania potwierdziły możliwość formułowania wskaźników zawartości szumów, opartych na analizie kształtu rozkładów współczynników detali falkowych. Stwierdzono, że badanie kształtu histogramów komponentów falkowych może być zastosowane do porównywania zmian radiometrycznych następujących podczas radiometrycznego i geometrycznego przetwarzania obrazów.
Źródło:
Geomatics and Environmental Engineering; 2008, 2, 1; 59-65
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Statystyczna analiza strugi urobku generowanej przez koparkę kołową
Statistical analysis of a stream of mined rock generated by bucket wheel excavator
Autorzy:
Czaplicki, J.
Powiązania:
https://bibliotekanauki.pl/articles/170834.pdf
Data publikacji:
2014
Wydawca:
Poltegor-Instytut Instytut Górnictwa Odkrywkowego
Tematy:
struga urobku
właściwości statystyczne
rozkład normalny
stream of mined rock
statistical properties
normal distribution
Opis:
Przedmiotem rozważań w niniejszej pracy jest strumień urobku generowany przez koparkę kołową, mając na uwadze jego właściwości statystyczne. Informacja o zidentyfikowanych własnościach stanowiła podstawę do wyboru modelu opisującego ten strumień. Analiza została dokonana w oparciu o dane kopalniane, jakie zebrano przy realizacji pracy doktorskiej wykonywanej na Politechnice Wrocławskiej. W literaturze opisującej wnioskowanie o właściwościach strumienia na podstawie zebranego materiału, zaprezentowano nieco inne rezultaty aniżeli w niniejszej pracy.
A subject of consideration here is a stream of excavated rock won by BWE taking into account statistical properties of the stream. Information on the identified properties was a ground to select an appropriate model that describes the stream. Statistical analysis was done basing on data collected from the field investigation that was carried out to accomplish Ph.D. dissertation realised on Wrocław Technical University. In literature describing statistical inference on the properties of the stream a different approach and results are presented than that described here.
Źródło:
Górnictwo Odkrywkowe; 2014, 55, 1; 22-28
0043-2075
Pojawia się w:
Górnictwo Odkrywkowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of Python libraries for variance, normal distribution and Weibull distribution analysis in diagnosing and operating production systems
Zastosowanie bibliotek języka Python do analizy wariancji, rozkładu normalnego i rozkładu Weibulla w diagnostyce i eksploatacji systemów produkcyjnych
Autorzy:
Chmielowiec, Andrzej
Klich, Leszek
Powiązania:
https://bibliotekanauki.pl/articles/1955208.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
variance analysis
normal distribution
Weibull distribution
statistical analysis
python
analiza wariancji
rozkład normalny
rozkład Weibulla
analiza statystyczna
Opis:
The use of statistical methods in the diagnosis of production processes dates back to the beginning of the 20th century. Widespread computerization of processes made enterprises face the challenge of processing large sets of measurement data. The growing number of sensors on production lines requires the use of faster and more effective methods of both process diagnostics and finding connections between individual systems. This article is devoted to the use of Python libraries to effectively solve some problems related to the analysis of large data sets. The article is based on the experience related to data analysis in a large company in the automotive industry, whose annual production reaches 10 million units. The methods described in this publication were the basis for the initial analysis of production data in the plant, and the obtained results fed the production database and the created automatic anomaly detection system based on artificial intelligence algorithms.
Wykorzystywanie metod statystycznych w diagnostyce procesów produkcyjnych sięga swoimi korzeniami początków XX wieku. Powszechna informatyzacja procesów postawiła przedsiębiorstwa przed wyzwaniem przetwarzania dużych zbiorów danych pomiarowych. Rosnąca liczba czujników na liniach produkcyjnych wymaga stosowania szybszych i skuteczniejszych metod zarówno diagnostyki procesu, jak i znajdowania powiązań pomiędzy poszczególnymi systemami. Niniejszy artykuł został poświęcony wykorzystaniu bibliotek języka Python do efektywnego rozwiązywania niektórych problemów związanych z analizą dużych zbiorów danych pomiarowych. Artykuł powstał na bazie doświadczeń związanych z analizą danych w dużym przedsiębiorstwie branży motoryzacyjnej, którego roczna produkcja sięga 10 milionów sztuk. Opisane w niniejszej publikacji metody stanowiły podstawę wstępnej analizy danych produkcyjnych we wspomnianym zakładzie, a uzyskane wyniki zasiliły bazę danych produkcyjnych oraz tworzony system automatycznego wykrywania anomalii oparty na algorytmach sztucznej inteligencji.
Źródło:
Diagnostyka; 2021, 22, 4; 89-105
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza metod generowania zmiennych wejściowych dla probabilistycznych modeli procesów transportowych
Analysis of methods of generating input variables for probabilistic models of transport processes
Autorzy:
Kawalec, P.
Powiązania:
https://bibliotekanauki.pl/articles/198673.pdf
Data publikacji:
2013
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
liczba losowa
generator sprzętowy
rozkład wykładniczy
rozkład normalny
HDL
FPGA
random number
hardware generator
exponential distribution
normal distribution
Opis:
W artykule przedstawiono analizę podstawowych metod generowania liczb losowych, wskazując na zalety sprzętowej realizacji takich generatorów. Wykorzystując generatory zbudowane na dwóch LFSR-ach opracowano i zbudowano szesnastokanałowy generator liczb pseudolosowych w strukturze FPGA. Zaproponowano wykorzystanie takiego generatora do budowy sprzętowych generatorów liczb losowych o rozkładach wykładniczym i normalnym.
The article presents basic methods of random number generation indicating the advantages of hardware solutions. With the use of generators built on two linear feedback shift registers (LFSR), a 16-channel generator of pseudo-random numbers has been designed and constructed within the FPGA structure. On the basis of this multi-channel generator, hardware generators have been designed of a given distribution. The designed generators of exponential and normal distribution have been presented in detail.
Źródło:
Zeszyty Naukowe. Transport / Politechnika Śląska; 2013, 80; 65-77
0209-3324
2450-1549
Pojawia się w:
Zeszyty Naukowe. Transport / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling income distributions based on theoretical distributions derived from normal distributions
Modelowanie rozkładu dochodów z wykorzystaniem rozkładów teoretycznych wywodzących się z rozkładu normalnego
Autorzy:
Sulewski, Piotr
Szymkowiak, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/18105042.pdf
Data publikacji:
2023-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
income modelling
EU-SILC
normal distribution
SU Johnson distribution
Dagum distribution
modelowanie dochodów
rozkład normalny
rozkład SU Johnsona
rozkład Daguma
Opis:
In income modelling studies, such well-known distributions as the Dagum, the lognormal or the Zenga distributions are often used as approximations of the observed distributions. The objective of the research described in the article is to verify the possibility of using other type of distributions, i.e. asymmetric distributions derived from normal distribution (ND) in the context of income modelling. Data from the 2011 EU-SILC survey on the monthly gross income per capita in Poland were used to assess the most important characteristics of the discussed distributions. The probability distributions were divided into two groups: I – distributions commonly used for income modelling (e.g. the Dagum distribution) and II – distributions derived from ND (e.g. the SU Johnson distribution). In addition to the visual evaluation of the usefulness of the analysed probability distributions, various numerical criteria were applied: information criteria for econometric models (such as the Akaike Information Criterion, Schwarz’s Bayesian Information Criterion and the Hannan-Quinn Information Criterion), measures of agreement, as well as empirical and theoretical characteristics, including a measure based on quantiles, specifically defined by the authors for the purposes of this article. The research found that the SU Johnson distribution (Group II), similarly to the Dagum distribution (Group I), can be successfully used for income modelling.
W badaniach nad modelowaniem dochodów do aproksymacji ich rozkładów bardzo często wykorzystuje się takie znane rozkłady, jak Daguma, log-normalny czy Zengi. Celem badania omawianego w artykule jest sprawdzenie możliwości posłużenia się innymi typami rozkładów, tj. rozkładami asymetrycznymi wywodzącymi się z rozkładu normalnego (ND), w kontekście modelowania dochodów. Najważniejsze charakterystyki rozpatrywanych rozkładów określono na podstawie danych z badania EU-SILC 2011 dotyczących miesięcznego dochodu brutto na mieszkańca w Polsce. Rozkłady prawdopodobieństwa podzielono na dwie grupy: I – rozkłady powszechnie stosowane do modelowania dochodów (np. rozkład Daguma) i II – rozkłady wywodzące się z ND (np. rozkład SU Johnsona). Oprócz wizualnej oceny przydatności analizowanych rozkładów prawdopodobieństwa zastosowano kryteria liczbowe, takie jak: kryteria informacyjne dla modeli ekonometrycznych (Akaike Information Criterion, Schwarz’s Bayesian Information Criterion oraz Hannan-Quinn Information Criterion), miary zgodności oraz charakterystyki empiryczne i teoretyczne, w tym specjalnie zdefiniowana na potrzeby artykułu autorska miara wykorzystująca kwantyle. Jak wynika z badania, rozkład SU Johnsona (II grupa), może być – tak jak rozkład Daguma (I grupa) – z powodzeniem wykorzystany do modelowania dochodów.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 6; 1-23
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A vessel braking time as a normal random variable
Czas hamowania jako zmienna losowa o rozkładzie normalnym
Autorzy:
Kasyk, L.
Powiązania:
https://bibliotekanauki.pl/articles/359445.pdf
Data publikacji:
2010
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
ruch statków
metoda splotów
zmienna losowa
rozkład normalny
vessel traffic
convolution method
random variable
normal distribution
Opis:
In convolution method of the determination of vessel traffic stream parameters, it is indispensable to know the distribution of braking time. In this paper, on base of simulations trials, the fitting the type of the probability distribution to data of vessel braking times has been done. To achieve this goal the chi square Pearson test has been used.
W metodzie splotów, związanej z wyznaczaniem parametrów strumienia ruchu statków, potrzebna jest znajomość rozkładu prawdopodobieństwa zmiennej losowej, którą jest czas hamowania. W niniejszym artykule, na podstawie prób symulacyjnych, dopasowano rozkład prawdopodobieństwa czasu hamowania. W tym celu wykorzystano test chi kwadrat Pearsona.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2010, 20 (92); 67-70
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ROZKŁAD NORMALNY STÓP ZWROTU Z AKCJI WCHODZĄCYCH W SKŁAD NASTĘPUJĄCYCH INDEKSÓW GIEŁDOWYCH: WIG20, MWIG40 I SWIG80
NORMAL DISTRIBUTION OF RETURNS OF COMPONENTS OF THE FOLLOWING WSE INDEXES: WIG20, MWIG40 AND SWIG80
Autorzy:
Borowski, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/453634.pdf
Data publikacji:
2017
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
rozkład normalny
stopy zwrotu
indeksy giełdowe
ranking spółek
normal distribution
return rates
stock indices
ranking of companies
Opis:
W artykule zweryfikowana została teza o normalności rozkłdu stóp zwrotu cen akcji komponentów indeksów giełdowych tj. w dnu 17.10.2017 r.) do dnia 31.03.2017 r., dla stóp zwrotu w ujęciu: zamknięcie-zamknięcie, otwarcie-otwarcie, otwarcie-zamknięcie i overnight. Z wykorzystaniem testów Jarque-Bera, Shapiro-Wilka i D’Agostino-Pearsona podjęcto próbę stworzenia rankingu spółek ze względu na zbieżność rozkładu ich stóp zwrotu do rozkładu normalnego.
The article verified the hypothesis regarding normal distribution of returns of shares - components of the following Warsaw Stock Exchange indexes Keywords: normal distribution, return rates, stock indices, ranking of companies
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2017, 18, 4; 541-560
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie generatorów liczb pseudolosowych
Comparison of normal random number generators
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/962662.pdf
Data publikacji:
2019
Wydawca:
Główny Urząd Statystyczny
Tematy:
rozkład normalny
generator liczb pseudolosowych
symulacje Mon-te Carlo
normal distribution
pseudo-random number generator
monte carlo simulation
Opis:
Losowanie prób w badaniach statystycznych i w obliczeniach numerycznych, jak również symulacyjne badanie modeli probabilistycznych właściwie we wszystkich dziedzinach wiedzy wymagają wyposażenia komputera w generatory liczb pseudolosowych. Głównym celem pracy jest porównanie generatorów liczb pseudolosowych normalnych na podstawie ich analizy dokonanej za pomocą różnego rodzaju kryteriów. Zbadano właściwości 12 generatorów liczb pseudolosowych o rozkładzie normalnym. Zaproponowano rozszerzenie rodziny generatorów o dwa tzw. generatory aplikacyjne oraz przyjęcie nowego podejścia do sprawdzania jakości generatorów. Przedstawiono narzędzie przygotowane w języku C++ oraz w języku Visual Basic for Application (VBA) do prowadzenia samodzielnych badań z użyciem generatorów. Symulacje Monte Carlo przeprowadzono w języku C++, a obliczenia wykonano w edytorze VBA przy użyciu arkusza kalkulacyjnego Microsoft Excel 2016. Analiza uzyskanych wyników wskazuje, że najlepsze właściwości mają generatory: MP Monty Pythona, R, Biegun oraz Ziggurat. Najmniej użyteczne okazują się generatory: BM Boxa-Mullera, Wallace’a, Iloraz oraz Excel.
The sampling in statistical surveys and numerical calculations as well as simulation testing of probabilistic models in virtually all fields of knowledge require a computer endowed with pseudorandom numbers generators. The main goal of the study is to compare the normal random number generators using various criteria. The properties of 12 random number generators for a normal distribution were investigated. Then, the family of generators was extended by two so-called application generators and a new approach for checking the quality of generators was adopted. A ready-made tool prepared in C++ and in Visual Basic for Application (VBA) for conducting self-contained research using generators was presented. All Monte Carlo simulations were carried out in C++, while the calculations were performed in the VBA editor using the Microsoft Excel 2016 spreadsheet. The analysis of the obtained results shows that the generators with best properties are: MP Monty Python, R, Biegun and Ziggurat. The worst generators, are: BM Box-Muller, Wallace, Iloraz and Excel.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2019, 64, 7; 5-31
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Handling of uncertainties in attributing thermoshock in fibrous concrete strength: a probabilistic approach
Postępowanie w przypadku niepewności w przypisywaniu szoku termicznego w wytrzymałości betonu włóknistego: podejście probabilistyczne
Autorzy:
Elangovan, G
Rajanandhini, V. M.
Powiązania:
https://bibliotekanauki.pl/articles/231435.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
beton włóknisty
rozkład normalny
prawdopodobieństwo
kontrola jakości
niezawodność
szok termiczny
fibrous concrete
normal distribution
probability
quality control
reliability
thermoshock
Opis:
Hallmark professionalism in probabilistic analysis is to quantify the uncertainties involved in construction materials subject to intrinsic randomness in its physical and mechanical properties and is now gaining popularity in civil engineering arena. As well, knowledge of behaviour of materials is continuously evolving and its statistical descriptors are also changing when more and more data collected or even data updated and hence reliability analysis has to be carried out with the updated data as a continuous process. As per the committee report ACI 544.2R, it is found that there is no attempt made for probabilistic relation between cube compressive strength and cylinder compressive strength for fiber reinforced concrete. In consequence of this report, a robust relation between cube and cylinder of experimentally conducted compressive strength was established by Monte-Carlo simulation technique for different types of fibrous concrete like steel, alkali resistant glass and polyester fibrous concrete before and after thermoshock considering various uncertainties. Nevertheless simulated probabilistic modals, characteristic modals, optimized factor of safety and allowable designed cylinder compressive strength have been developed from the drawn probability of failure graph, which exhibits robust performance in realistic Civil Engineering materials and structures.
Większość krajów korzysta z sześciennych próbek, a kilka innych używa próbek cylindrycznych w celu ustalenia wytrzymałości na ściskanie betonu. Na ogół wytrzymałość na ściskanie cylindra jest nieuczciwie ustalana jako 0,8 wytrzymałości sześcianu na ściskanie, ale doświadczenia wykazały, że nie ma unikalnego związku między wytrzymałością sześcianu a wytrzymałością cylindra. Podobna sytuacja występuje również w przypadku betonu włóknistego. Zgodnie z raportem komisji Amerykańskiego Instytutu Betonu ACI 544.2R okazuje się, że nie podjęto próby wykazania probabilistycznego związku między wytrzymałością sześcianu na ściskanie a wytrzymałością cylindra w przypadku żelbetu. Obecnie wytrzymałość materiałów konstrukcyjnych jest wymagana, ponieważ gaszenie pożaru wodą prowadzi do szoku termicznego. Przewidywanie wytrzymałości próbki sześciennej lub cylindrycznej przed i po szoku termicznym jest wymagane w przypadku betonu włóknistego różnych typów.
Źródło:
Archives of Civil Engineering; 2016, 62, 4/I; 17-33
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Normal Distribution of Returns of Warsaw Stock Exchange Indexes
Rozkład normalny stóp zwrotu indeksów Giełdy Papierów Wartościowych w Warszawie
Autorzy:
Borowski, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/525820.pdf
Data publikacji:
2018-05-08
Wydawca:
Uniwersytet Warszawski. Wydawnictwo Naukowe Wydziału Zarządzania
Tematy:
normal distribution
return rates
stock indexes
ranking of equity indexes
rozkład normalny
stopy zwrotu
indeksy giełdowe
ranking indeksów giełdowych
Opis:
The paper verified the hypothesis regarding a normal distribution of returns of Warsaw Stock Exchange indexes for the following time intervals: daily, weekly, monthly, quarterly and yearly. The analyzed rates of return were calculated in the following outlines: closing-closing, opening-opening, opening-closing and overnight. The verification of statistical hypotheses was conducted with the use of the following seven statistical tests: Kolmogorov-Smirnov, Lilliefors, Shapiro-Wilk, Chi-squared, Cramer von Mises, Watson, Anderson-Darling. The analyzed indexes were ranked due to the convergence of their return to the normal distribution with the use of the following tests: Jarque-Bera, Shapiro-Wilk and D’Agostino-Pearson.
W artykule zweryfikowano hipotezę o normalności rozkładu stóp zwrotu indeksów publikowanych przez Giełdę Papierów Wartościowych w Warszawie. Badanie przeprowadzono dla stóp zwrotu: dziennych, tygodniowych, miesięcznych, kwartalnych i rocznych oraz uwzględniono stopy zwrotu liczone w ujęciu: zamknięcie–zamknięcie, zamknięcie–otwarcie, otwarcie–otwarcie i otwarcie–zamknięcie (overnight). Weryfikacja hipotez statystycznych została przeprowadzona za pomocą następujących siedmiu testów: Kolmogorova-Smirnova, Lillieforsa, Shapiro-Wilka, Chi-kwadrat, Cramera von Misesa, Watsona, Andersona- Darlinga. Stworzony został również ranking analizowanych indeksów giełdowych z wykorzystaniem trzech testów statystycznych: Jarque-Bera, Shapiro-Wilka and D’Agostino-Pearsona.
Źródło:
Problemy Zarządzania; 2018, 2/2018 (74); 11-45
1644-9584
Pojawia się w:
Problemy Zarządzania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie metody Monte Carlo do określenia niepewności pomiaru mocy optycznej emitera półprzewodnikowego
Utilization of Monte Carlo method for determining the uncertainty of semi-conductor emitter’s optical power measurement
Autorzy:
Prorok, M.
Makal, J.
Powiązania:
https://bibliotekanauki.pl/articles/266619.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
metoda Monte Carlo
niepewność pomiaru
rozkład normalny
generacja wyników pomiarowych
Monte Carlo method
measurement uncertainty
normal distribution
measurements generation
Opis:
W artykule przedstawiono sposób wykorzystania metody Monte Carlo do określenia przedziału ufności pomiaru w przypadku wyznaczania wartości mocy optycznej emitera półprzewodnikowego. Na podstawie niewielkiej serii (3-30) pomiarów wartości mocy optycznej w układzie świetlno-optycznym przeprowadzono analizę niepewności wg GUM (Guide Uncertainty Measurement), określając wartość niepewności rozszerzonej. Następnie, wykorzystując silnik matematyczny, przeprowadzono procedurę generacji próbek pomiarowych i wyznaczono przedział rozszerzenia. Na zakończenie, porównano obie metody obliczeniowe i przedstawiono wypływające z niego wnioski.
Monte Carlo method, as the statistic device is widely used even in complex engineering problems and metrology, the algorithms used to evaluate these technical issues base on set of pseudorandom numbers. This paper contains of the way to use Monte Carlo method to generate any number of measurements. Basing on small series of optical power measurements (3-30) in the optical light system, the GUM (Guide Uncertainty Measurement) analysis was performed to estimate extended uncertainty range. Calculated parameter, connected with the final measurement result, specifying measurements scatter is boundary value for procedure initialization in mathematical engine. The method’s usefulness is especially noticeable in case of artificial widening measurements number, which preserve their characteristic normal distribution (the Gauss distribution) in the continuous probability distribution.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2017, 54; 187-190
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda szybkiego szacowania rozkładów wielkości flokuł
Application of momentum method for the rapid estimation of self-adjusting size distribution of floes
Autorzy:
Dyląg, M.
Rosiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/2072367.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
rozkład wielkości flokuł
rekonstrukcja rozkładu wielkości cząstek
rozkład normalny
rozkład Gaudina-Melloya
floe size distribution
reconstruction of particle size distribution
normal distribution
Gaudin-Melloy distribution
Opis:
W pracy przedstawiono wyniki analizy porównawczej dotyczącej zastosowania metody momentów w dwóch wariantach opartych o wykorzystanie rozkładu normalnego oraz Gaudina-Melloya do rekonstrukcji tworzonych rozkładów wielkości cząstek.
Results of comparative calculations dealing with the application of momentum method are presented in the paper. Hereby two different size distributions models based on the normal distribution and the Gaudin-Melloy distribution are used for the reconstruction of particle size distribution.
Źródło:
Inżynieria i Aparatura Chemiczna; 2013, 5; 412--414
0368-0827
Pojawia się w:
Inżynieria i Aparatura Chemiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozkład wielkości podłoża do zarodkowania heterogenicznego fazy pierwotnej stopu Al-Cu
Size Distribution of Substrate to Heterogenous Nucleation of Primary Phase in Al-Cu Alloy
Autorzy:
Lelito, J.
Gracz, B.
Żak, P. L.
Suchy, J. S.
Szucki, M.
Malinowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/380896.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
rozkład logarytmiczno-normalny
rozkład Oldfielda
rozkład eksponecjalny
zarodkowanie heterogeniczne
stop Al-Cu
longnormal distribution
heterogenous nucleation
Al-Cu alloy
Opis:
Rozwój komputeryzacji spowodował duży postęp w numerycznym modelowaniu krystalizacji stopów odlewniczych. Możliwe staje się prognozowanie mikrostruktury odlewów. W tym celu konieczna jest znajomość równań opisujących rozkłady wielkości podłoża do zarodkowania heterogenicznego ziaren bądź funkcji gęstości ziaren w zależności od przechłodzenia. W pracy zamieszczono obliczenia dla modelu wykładniczego i eksponencjalnego gęstości ziaren w funkcji przechłodzenia maksymalnego. Dodatkowo przeprowadzono również obliczenia dla logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego. Zasadniczym celem tej pracy jest wyznaczenie w powyższych równaniach, parametrów dopasowania krzepnącego stopu Al-Cu na podstawie badań doświadczalnych zamieszczonych w literaturze [7]. W przypadku logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego, parametry występujące w tym równaniu zostały wyznaczone za pomocą algorytmu numerycznego. Tak wyznaczone rozkłady zostały następnie zestawione na wykresie z danymi eksperymentalnymi w celu ich porównania.
The development of computerization caused a lot of progress in numerical modeling of alloys crystallization. It becomes possible to predict casting microstructure. For this purpose, it is necessary to know the equations describing the size distribution of the substrate to the heterogeneous nucleation of grains or grains density function dependence on supercooling. The paper presents calculations for Oldfield and exponential model of grain density as a function of the maximum supercooling. In addition, calculations were also performed for the log-normal distribution of the substrate size to heterogeneous nucleation of primary phase. The main aim of this work is to determine the fitting parameters of Al-Cu alloy solidifying based on experimental studies published in the literature [7] for above equations. In the case of log-normal size distribution of substrate for heterogeneous nucleation, the parameters present in the equation were determined using a numerical algorithm. Thanks to these schedules were then summarized in the graph of experimental data for comparison.
Źródło:
Archives of Foundry Engineering; 2015, 15, 4 spec.; 83-86
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Termografia w diagnostyce rehabilitacyjnej
Thermography in the diagnosis of rehabilitation
Autorzy:
Skomudek, A.
Skomudek, W.
Powiązania:
https://bibliotekanauki.pl/articles/153476.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termografia
zabiegi fizjoterapeutyczne
zabieg pomostowania aortalno-wieńcowego
analiza statystyczna
rozkład normalny
thermography
physiotherapy
surgery coronary artery bypass grafting
statistical analysis
normal distribution
Opis:
Praca dotyczy oceny możliwości zastosowania pomiarów termograficznych w diagnostyce procesu rehabilitacyjnego u osób po zabiegu pomostowania aortalno-wieńcowego, czyli po wykonaniu zabiegu wstawienia bypassów. Termogramy uzyskane w trakcie przeprowadzonych pomiarów laboratoryjnych wykazały możliwość zastosowania tej techniki pomiarowej w procesie diagnostycznym, prowadzonym w trakcie rehabilitacji kardiologicznej. W trakcie badań potwierdzono możliwość zastosowania diagnostyki termowizyjnej do oceny skuteczności różnych zabiegów fizjoterapeutycznych stosowanych w procesie rehabilitacji.
The aim of the paper is to present the possibility of application of thermography measurements to the diagnostics of rehabilitation process of patients after coronary artery bypass graft surgery. The thermograms obtained during laboratory measurements show the applicability of this measuring technique to the diagnostic process, carried out in the course of cardiac rehabilitation [1, 2]. During the study the applicability of diagnostic thermal imaging to evaluate the effectiveness of a variety of physical therapy used in the rehabilitation process was confirmed. The thermograms obtained during tests after the application of physical stimuli in the form of an intensive effort to support the changes in the metabolic processes of a tissue located under the skin and changes in the local blood flow are reflected in the heat map of the skin (Fig. 1, Tab. 1). The elements of descriptive statistical diagnostics (analysis of the structure, correlations, dynamic) and the methods of statistical inference (estimation and verification) are significant enrichment of the analysis of the test results obtained in the form of thermal images. The use of thermal imaging diagnostic techniques and statistical analysis of the results of observations enables ongoing assessment of the effectiveness of rehabilitation activities (Fig. 3). Basing on the thermal image, the impact of the streamlining of the process used and the intensity of the temperature distribution, to visualize the gradient, can be seen. The thermograms obtained from the tests reflect the therapy results in the heat map of the skin.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 9, 9; 875-878
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Possibility of pore size distribution application to the description of air-entrained concrete porosity structure
Możliwość stosowania rozkładu wielkości porów do opisu parametrów struktury porowatości betonów napowietrzonych
Autorzy:
Wawrzeńczyk, J.
Kozak, W.
Kłak, A.
Powiązania:
https://bibliotekanauki.pl/articles/402006.pdf
Data publikacji:
2014
Wydawca:
Politechnika Świętokrzyska w Kielcach. Wydawnictwo PŚw
Tematy:
air-entrained concrete
air pore size distribution
log-normal distribution
beton napowietrzony
rozkład wielkości porów powietrza
rozkład log-normalny
Opis:
Air void size and number distribution constitutes a major characteristic, which substantially contributes to building up concrete resistance to cyclic freezing and thawing. The standard pore spacing factor L is based on the Powers model. Due to the assumptions made in the model, it may not be able to represent the real structure of air pores in the concrete. Consequently, it is necessary to look for other methods to describe this structure. The sought model needs to account for variability in sizes of pore chords and pore random spacing in the paste. The paper analyses the distribution type and compares porosity characteristics obtained with measurements, and on the basis of the distribution. The analysis aims to assess if it is possible to substitute chords in the 0 to 400 μm range with their distribution. Another purpose of the analysis is to compare air pore structure parameters obtained by computations on raw data with the results received on the basis of pore size distribution for a given concrete.
Źródło:
Structure and Environment; 2014, 6, 1; 5-12
2081-1500
Pojawia się w:
Structure and Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie tablic dwudzielczych z wykorzystaniem dwuwymiarowego rozkładu normalnego uciętego
Generating the two-way contingency tables using the truncated two-dimensional normal distribution
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/589453.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Dwuwymiarowy rozkład normalny ucięty
Metoda Monte Carlo
Tablica dwudzielcza
Test niezależności
Generating of Monte Carlo
Independence test
Truncated two-dimensional normal distribution
Two-way contingency tables
Opis:
W artykule zaprezentowano procedurę generowania liczb losowych o dwuwymiarowym rozkładzie normalnym uciętym (DRNU). Opisano algorytm generowania tablicy dwudzielczej, wykorzystując próbę realizacji zmiennej losowej DRNU. Przedstawioną teorię wzbogacono konkretnymi przykładami, zrealizowanymi w edytorze VBA arkusza kalkulacyjnego Microsoft Excel.
The procedure to generate random numbers of the truncated two-dimensional normal distribution (DRNU) was presented. The generating of two-way contingency table using random variable of DRNU was described. The presented theory has been enriched with specific examples, that were implemented in the VBA editor of spreadsheet Microsoft Excel.
Źródło:
Studia Ekonomiczne; 2016, 288; 71-87
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Matematičeskaâ modelʹ i ocenka riska likvidacii požara
Мathematical Model and Risk Evaluation for Firefighting
Model matematyczny i ocena ryzyka zwalczania pożaru
Autorzy:
Vasiľev, N. I.
Movchan, I. A.
Powiązania:
https://bibliotekanauki.pl/articles/373029.pdf
Data publikacji:
2016
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
fire
extinguishing a fire
probability of extinguishing a fire
mathematical model
Weibull exponential distribution
normal distribution
information technology
pożar
zwalczanie pożaru
ryzyko zwalczania pożaru
model matematyczny
rozkład Weibulla
rozkład wykładniczy
rozkład normalny
technologie informacyjne
Opis:
Aim: The purpose of this article is to identify risks during firefighting operations, utilizing the basic principles of reliability theory, but also functional probability models, for all stages of the firefighting processes. With the aid of acquired data, develop a mathematical model to describe uncertainties associated with various phases of firefighting and define the influence of component parts, through projects and programmes for each operational element, on the overall outcome in the fight with a fire. Methodology: The article utilised a complex approach to identify the probability of overcoming a fire within required timescales, by taking account of all tasks associated with the process. The probabilistic description of each component was based on the use of standard time for the completion of a given task. In order to determine each component of risk, the study utilised Weibull’s distribution, exponential and normal laws of distribution. During the selection of distribution laws use was made of statistical modelling methods to determine the confidence levels for each operational task. Results: Study results facilitate identification of weak areas in the operational performance of teams engaged in firefighting. From an analysis of factors influencing the quality of performance, adverse performance can be eliminated and consequently the effectiveness of firefighting can be significantly improved. Illustratively, the project development of access road selection and use of optimal routes within the operational boundary systems, to determine resource needs in fighting fires and by taking account of predicted timescales for undisturbed burning, will significantly reduce the probability value of failure in extinguishing fires within appropriate/desired time scales. Conclusions: The proposed method for determining the probability of combating fires enables, on the basis of statistical data dealing with lead time for extinguishing fires, the conduct of work analysis for firefighting teams and to diagnose their weaknesses. Analysis of results reveals that the main weakness in team performance is the time taken for the journey to an incident location. Calculations indicate that, in order to reduce the time taken to locate and extinguish the fire, and clear the site of the incident, it is necessary to have at disposal an optimal number of firefighting teams.
Cel: Celem artykułu jest opracowanie metody określenia ryzyka procesu zwalczania pożaru w chronionym obiekcie z wykorzystaniem podstawowych założeń teorii niezawodności, a także funkcjonalnych modeli ryzyka dla każdej operacji taktycznej w procesie zwalczania pożaru. Następnie, z wykorzystaniem otrzymanych danych, opracowanie modelu matematycznego ryzyka zwalczania pożaru oraz określenie wpływu składowych ryzyka operacji taktycznych na zabezpieczenie poprzez projekty i programy każdej operacji taktycznej wpływającej na skuteczność zwalczania pożaru. Metody: W artykule wykorzystano kompleksowe podejście do określenia ryzyka przy zwalczaniu pożaru w wymaganym czasie z uwzględnieniem wszystkich operacji taktycznych związanych z tym procesem. Jako podstawę określenia każdej składowej ryzyka wykorzystano normatywny czas na wykonanie danej operacji taktycznej. Do określenia każdej składowej ryzyka wykorzystano zależności rozkładu Weibulla, rozkładu prawa wykładniczego i normalnego. Przy wyborze prawa rozkładu posługiwano się metodą modelowania statystycznego parametrów niezawodności każdej operacji taktycznej. Wyniki: Wyniki badania pozwalają określić słabe punkty w działaniach zespołów ratowniczo-gaśniczych. Dzięki analizie czynników wpływających na jakość pracy można będzie wyeliminować te negatywne i przez to znacząco zwiększać skuteczność zwalczania pożarów. Przykładowo opracowanie projektu wyboru optymalnych dróg dojazdowych do granic obsługiwanego przez daną jednostkę obszaru pozwala skrócić czas dojazdu na miejsce zdarzenia o 30-35%, a zastosowanie zautomatyzowanych systemów obliczania sił i środków potrzebnych do zwalczania pożarów z uwzględnieniem prognozowanego czasu niezakłóconego spalania znacząco zmniejsza wartość ryzyka nieugaszenia pożaru w odpowiednim/wymaganym czasie. Wnioski: Zaproponowana metoda określenia ryzyka przy zwalczaniu pożaru pozwala, na podstawie danych statystycznych na temat czasu gaszenia pożarów, przeprowadzić analizę pracy zespołów ratowniczo-gaśniczych i zdiagnozować jej słabe punkty. Wyniki analizy ryzyka przy zwalczaniu pożaru pokazują, że głównym słabym punktem w pracy zespołów jest czas dojazdu na miejsce zdarzenia. Aby zmniejszyć czas lokalizacji, gaszenia i dogaszania pożaru, jak pokazały wyniki obliczeń, należy dysponować optymalną liczbę zespołów ratowniczo-gaśniczych.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2016, 41, 1; 47-54
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie karty kontrolnej w standardowym trybie pracy w SPC (Statistical Process Control)
Application of the Controlcard in the Standard Operatingmode in SPC (Statistical Process Control)
Autorzy:
MALSKA, WIESŁAWA
Powiązania:
https://bibliotekanauki.pl/articles/455443.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rzeszowski
Tematy:
jakość produktu
karta kontrolna
statystyczne sterowanie procesami produkcji
rozkład normalny zmiennych losowych
product quality
control card
statistical control of production processes
normal distri-bution of random variables
Opis:
W artykule zaprezentowano przykład zastosowania karty kontrolnej w standardowym trybie pracy w SPC. Nowoczesne przedsiębiorstwo produkcyjne powinno posiadać sprawnie funkcjonujący system zarządzania jakością wyrobów. Podstawową rolę w takim systemie odgrywa SPC (Statistical Process Control), czyli statystyczne sterowanie procesami. Po wstąpieniu Polski do UE problematyka jakości stała się ważnym zagadnieniem w praktyce produkcyjnej firm. W zależności od branży przemysłu stosuje się różne metody sprawdzania jakości produktów w działach jakości. Sprawdzanie jakości produktów może odbywać się na wybranym etapie lub wszystkich etapach całego procesu technologicznego lub tylko na etapie produktu finalnego. SPC jest najczęściej stosowaną metodą statystycznego sterowania procesem produkcyjnym przeznaczoną do gromadzenia i prezentacji danych opisujących zmienność warunków i charakterystyk przebiegu całego procesu produkcyjnego. Głównym celem stosowania SPC jest zmniejszanie zmienności parame-trów na wejściu i wyjściu procesu produkcyjnego, a następnie usuwanie przyczyn ich występowa-nia. W ramach SPC bada się, z jakim rozproszeniem wyników pomiarów wykonywany jest proces produkcji i jaka jest jego zdolność do spełnienia wymagań określonych w specyfikacji technicznej danego wyrobu. Współczesne programy statystycznego wspomagania gromadzenia i analizy danych oferują narzędzia przeznaczone do zagadnień związanych z jakością. Do często wykorzystywanych należy program STATISTICA umożliwiający m.in. prowadzenie tzw. kart kontrolnych procesu, które służą do oceny liczbowej lub oceny alternatywnej próbek poddanych kontroli i podlegających ocenie.
The article presents an example of the use of a control card in the standard operating mode in SPC. A modern production enterprise should have an efficiently functioning product quality management system. The basic role in such a system is played by SPC (Statistical Process Control), or statistical process control. After Poland's accession to the EU, the issue of quality has become an important issue in the production practice of companies. Depending on the industry, different methods of checking the quality of products in quality departments have been applied. Product quality checking can take place at the selected stage or all stages of the entire technological pro-cess or only at the stage of the final product. SPC (Statistical Process Control) is the most com-monly used method of statistical control of the production process intended for the collection and presentation of data describing the variability of conditions and characteristics of the course of the entire production process. The main purpose of using SPC is to reduce the variability of parameters at the entry and exit of the production process, and then to eliminate the reasons for their occurrence. As part of the SPC, it is examined with what dispersion of the measurement results the production process is performed and what is its ability to meet the requirements specified in the technical specification of a given product. Modern statistical data collection support and data analysis programs offer tools dedicated to quality issues. Frequently used programs include the STATISTICA program that allows, among other things, running the socalled process control charts, which are used for numerical evaluation or alternative evaluation of samples subjected to control and subject to evaluation
Źródło:
Edukacja-Technika-Informatyka; 2018, 9, 2; 318-324
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Log-Normal Distribution of Heterogeneous Nucleation Substrate in the AZ91/SiCp Composite
Autorzy:
Gracz, B.
Żak, P. L.
Szucki, M.
Lelito, J.
Powiązania:
https://bibliotekanauki.pl/articles/379492.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
AZ91/SiCp composite
heterogeneous nucleation
log-normal distribution
substrate distribution
kompozyt AZ91/SiCp
zarodkowanie heterogeniczne
rozkład log-normalny
rozkład podłoża
Opis:
The aim in this work is to develop a log-normal distribution of heterogeneous nucleation substrates for the composite based on AZ91 alloy reinforced by SiC particles. The computational algorithm allowing the restore of the nucleation substrates distribution was used. The experiment was performed for the AZ91 alloy containing 4%wt. of SiC particles. Obtained from experiment, the grains density of magnesium primary phase and supercooling were used to algorithm as input data.
Źródło:
Archives of Foundry Engineering; 2013, 13, 3 spec.; 35-38
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wybranych rozkładów prawdopodobieństwa wartości ekstremalnych do szacowania ryzyka wystąpienia zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku
Application of selected probability distributions of extreme values to flood risk assessment in the Odra River catchment in Lower Silesia
Autorzy:
Kuźmiński, Ł.
Szałata, Ł.
Zwoździak, J.
Powiązania:
https://bibliotekanauki.pl/articles/237592.pdf
Data publikacji:
2016
Wydawca:
Polskie Zrzeszenie Inżynierów i Techników Sanitarnych
Tematy:
ryzyko powodziowe
roczny przepływ maksymalny
rozkład empiryczny
rozkład Gumbela
rozkład Frecheta
rozkład logarytmiczno-normalny
flood risk
maximum annual flow
empirical distribution
Gumbel distribution
Frechet distribution
lognormal distribution
Opis:
Analizie poddano maksymalne dobowe przepływy w Odrze zmierzone w latach 1971–2013 w stacji hydrologicznej w Malczycach. Z całego zbioru danych wyselekcjonowano maksymalne przepływy roczne i do ich rozkładu empirycznego dopasowano trzy rozkłady teoretyczne – Gumbela, Frecheta i logarytmiczno-normalny. Przedstawiony przykład analizy probabilistycznej zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku może być skutecznym narzędziem w ocenie wystąpienia ryzyka powodziowego. Otrzymane w ten sposób wyniki mogą zostać wykorzystane do szacowania prawdopodobieństwa wystąpienia określonych zdarzeń związanych z zagrożeniem powodziowym, a także do porównywania wybranych obszarów dorzecza pod względem zagrożenia powodziowego.
The maximum daily flows in the Oder river from the period of 1971 to 2013 were analyzed in Malczyce hydrological station. From the entire data set the maximum annual flows were selected and their empirical distributions were fitted against the three theoretical distribution models: Gumbel, Frechet and the lognormal. The presented case of probabilistic flood risk analysis for the Oder catchment in Lower Silesia may become an effective flood risk assessment tool. The results may be employed to probability assessment of certain events related to flood risk and also to compare the flood risk in selected catchment regions.
Źródło:
Ochrona Środowiska; 2016, 38, 3; 35-39
1230-6169
Pojawia się w:
Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The application of Box–Cox transformation to determine the Standardised Precipitation Index (SPI), the Standardised Discharge Index (SDI) and to identify drought events: Case study in Eastern Kujawy (Central Poland)
Wykorzystanie przekształcenia Boxa–Coxa do wyznaczenia wskaźnika standaryzowanego opadu (SPI), wskaźnika standaryzowanego przepływu (SDI) oraz identyfikacji okresów suchych na przykładzie wschodniej części Kujaw (centralna Polska)
Autorzy:
Bartczak, A.
Glazik, R.
Tyszkowski, S.
Powiązania:
https://bibliotekanauki.pl/articles/292851.pdf
Data publikacji:
2014
Wydawca:
Instytut Technologiczno-Przyrodniczy
Tematy:
Box–Cox transformation
Eastern Kujawy
Gaussian distribution
meteorological drought
moving trend
SDI
SPI
variance homogeneity
homogeniczność szeregów
Kujawy Wschodnie
okresy suche
przekształcenie Boxa-Coxa
rozkład normalny
trend kroczący
Opis:
The article presents the results of research into the transformation of series of hydro-meteorological data for determining dry periods with the Standardised Precipitation Index (SPI) and the Standardised Discharge Index (SDI). Time series from eight precipitation stations and five series of river discharge data in Eastern Kujawy (central Poland) were analysed for 1951–2010. The frequency distribution of the series for their convergence with the normal distribution was tested with the Shapiro–Wilk test and homogeneity with the Bartlett’s test. The transformation of the series was done with the Box–Cox technique, which made it possible to homogenise the series in terms of variance. In Poland, the technique has never been used to determine the SPI. After the transformation the distributions of virtually all series complied with the normal distribution and were homogeneous. Moreover, a statistically significant correlation between the λ transformation parameter and the skewness of the series of monthly precipitation was observed. It was similar for the series of mean monthly discharges in the winter half-year and the hydrological year. The analysis indicates an alternate occurrence of dry and wet periods both in case of precipitation and run-offs. Drought periods coincided with low flow periods. Thus, the fluctuations tend to affect the development of agriculture more than long-term ones.
W artykule przedstawiono wyniki badań dotyczących transformacji szeregów danych hydrometeorologicznych w celu zidentyfikowania okresów suchych za pomocą wskaźnika standaryzowanego opadu (SPI) oraz wskaźnika standaryzowanego przepływu (SDI). Analizie poddano szeregi z ośmiu posterunków opadowych oraz pięciu szeregów przepływów rzecznych z obszaru wschodniej części Kujaw (centralna Polska). Zakres analiz obejmował lata 1951–2010. Sprawdzenie rozkładu częstości szeregów pod kątem ich zgodności z rozkładem normalnym wykonano za pomocą testu Shapiro–Wilka, a homogeniczność szeregów zbadano testem Bartletta. Do przekształceń szeregów wybrano metodę Boxa–Coxa, której do tej pory nie stosowano do wyznaczania wskaźnika SPI. Praktycznie rozkłady wszystkich szeregów po przekształceniu wykazywały rozkład zgodny z rozkładem normalnym i były homogeniczne. Stwierdzono statystycznie istotny związek korelacyjny między parametrem transformacji λ a skośnością szeregów miesięcznych sum opadów. Podobny związek stwierdzono w odniesieniu do szeregów średnich miesięcznych przepływów w półroczu zimowym i roku hydrologicznym. W efekcie obliczono wskaźniki SPI oraz SDI, a następnie zidentyfikowano okresy suche w okresach wegetacyjnych w badanym wieloleciu. Terminy występowania susz atmosferycznych były analogiczne z okresami występowania susz hydrologicznych. Prawdopodobnie fluktuacje, a także krótkookresowe tendencje opadów mają większe znaczenie dla rozwoju rolnictwa na tym obszarze niż ich tendencje wieloletnie.
Źródło:
Journal of Water and Land Development; 2014, 22; 3-15
1429-7426
2083-4535
Pojawia się w:
Journal of Water and Land Development
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola i sens aproksymacji krzywych składu ziarnowego surowców mineralnych
A role and sense of approximation of grain composition of raw materials
Autorzy:
Saramak, D.
Tumidajski, T.
Powiązania:
https://bibliotekanauki.pl/articles/349565.pdf
Data publikacji:
2006
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
aproksymacja krzywych składu ziarnowego
rozkład logarytmiczno-normalny
rozkład logistyczny
analityczne wyznaczanie powierzchni właściwej
approximation of grain composition curves
logarithmic-normal distribution
logistic distribution
analytical determination of specific surface
Opis:
Artykuł porusza problemy dotyczące zagadnień aproksymacji krzywych składu ziarnowego surowców mineralnych oraz wykorzystania ich wyników do określania powierzchni właściwej materiałów uziarnionych. W artykule zostały przedstawione teoretyczne uwarunkowania związane ze sposobami aproksymacji krzywych składu ziarnowego oraz wzory aproksymujące krzywe składu ziarnowego opisane rozkładami logarytmiczno-normalnym i logistycznym. Dokonano też aproksymacji dla wymienionych rozkładów. Przedstawiono też sposoby obliczania powierzchni właściwej materiałów drobno uziamionych z wykorzystaniem wyników aproksymacji za pomocą rozwinięcia w szereg potęgowy Taylora.
The article describes problems concerning matters of approximation of grain size curves of mineral raw materials and also ways of using these results for description of specific surface of grained materials. In the article there were presented theoretical conditions connected with manners of approximation of grain size curves and approximation formulas for grain size curves described by logarithmic-normal distribution and logistic distribution. It was also made an approximation of these distributions, as well ways of calculation of specific surface of fine grained materials with using Taylor's power sequence based on approximation results were presented.
Źródło:
Górnictwo i Geoinżynieria; 2006, 30, 3/1; 301-313
1732-6702
Pojawia się w:
Górnictwo i Geoinżynieria
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verification of the Methods for Calculating the Probable Maximum Flow in the Widawa River in the Aspect of Water Management in the Michalice Reservoir
Weryfikacja metod obliczania przepływów maksymalnych prawdopodobnych w rzece Widawie w aspekcie gospodarki wodnej zbiornika Michalice
Autorzy:
Gruss, Łukasz
Wiatkowski, Mirosław
Buta, Bogna
Tomczyk, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/1811751.pdf
Data publikacji:
2019
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
water reservoirs
log-normal distribution
Pearson type III distribution
Weibull distribution
maximum flow estimation
Flood Frequency Analysis
IMGW method
zbiorniki wodne
rozkład logarytmiczno-normalny
rozkład Pearsona III typu
rozkład Weibulla
wyznaczanie przepływów maksymalnych
metoda IMGW
Opis:
Flows with a given probability of exceedance are important from the point of view of water management, especially in water reservoirs. By determining these flows, it is possible to design a reservoir adapted to local conditions that will operate in line with the assumed function. Various methods exist in the world for determining the probable maximum flows; these methods are based on various assumptions. The aim of the article is to verify and assess the applicability of the Flood Frequency Analysis (FFA) and the IMGW method for use in catchments of controlled rivers where a retention reservoir was built during the hydrological observation period. This is important in updating the water management instructions and in designing new retention reservoirs. The authors undertook to investigate whether a series of maximum flows prepared for the IMGW method allows one to recognize the regime change, caused by the construction of the retention reservoir, in the water gauge Zbytowa profile on the Widawa River, using the Mann-Kendall test. The following distributions were used in the study: Pearson type III, log-normal and Weibull. The Mann-Kendall test showed homogeneity of three observational series: 1971-2000, 2001-2017 and 1971-2017 prepared for the FFA method despite the fact that in 2001 the Michalice retention reservoir was commissioned on the Widawa river and the water management in the basin changed this watercourse. However, the observational series prepared for the IMGW method were homogenous only prior to the construction of the reservoir (1971-2000). The observational series prepared in this way enabled the Mann-Kandall test to exclude the homogeneous series caused by the regime change as a result of the construction and operation of the Michalice retention reservoir. Only after the construction of the retention reservoir the observational series from the winter half-year were homogeneous. This is due to the fact that the flows in the winter half-year are definitely lower than those in the summer half-year. The best-fitting distribution for the empirical distribution for the Widawa (the Zbytowa profile) in the analyzed series is a log-normal distribution that can be used to calculate the probable maximum flows needed to update the reservoir's water management instructions. The Wilcoxon test showed no difference between the calculation methods analyzed and used to estimate the probable maximum flows in the Zbytowa profile on the Widawa river. Therefore, as a method for calculating the probable maximum flows for the Widawa river (the Zbytowa profile) in the aspect of managing the Michalice reservoir or some other river with controlled catchment and parameters similar to those of the Widawa (in the Zbytowa profile), one can recommend either of the two analyzed methods: both FFA and IMGW.
Przepływy o zadanym prawdopodobieństwie przewyższenia są istotne z punktu widzenia gospodarowania wodami na zbiornikach wodnych. Dzięki wyznaczeniu tych przepływów możliwe jest zaprojektowanie zbiornika dostosowanego do lokalnych warunków, który będzie funkcjonował zgodnie z założoną funkcją. Na świecie obowiązują różne metody wyznaczania przepływów maksymalnych prawdopodobnych, które bazują na odmiennych założeniach. Celem artykułu jest weryfikacja i ocena możliwości zastosowania metody Flood Frequency Analysis (FFA) i metody IMGW do zastosowania w zlewniach rzek kontrolowanych, na których w okresie obserwacji hydrologicznej wybudowano zbiornik retencyjny. Ma to znaczenie w aktualizacji instrukcji gospodarowania wodą oraz w projektowaniu nowych zbiorników retencyjnych. Autorzy podjęli się zbadania czy serie przepływów maksymalnych przygotowane dla metody IMGW pozwalają na rozpoznanie zmiany reżimu, w rzece Widawie w przekroju Zbytowa, przy pomocy testu Manna-Kendalla, spowodowanej wybudowaniem zbiornika retencyjnego. W pracy wykorzystano następujące rozkłady: Pearsona typ III, logarytmiczno-normalnego oraz rozkład Weibulla. Test Manna-Kendalla wykazał jednorodności trzech serii obserwacyjnych: 1971-2000, 2001-2017 i 1971-2017 przygotowanych dla metody FFA pomimo, że na rzece Widawie w 2001 roku został oddany do eksploatacji zbiornik retencyjny Michalice i zmieniło się gospodarowanie wodą w zlewni tego cieku. Natomiast serie obserwacyjne sporządzone dla metody IMGW były jednorodne jedynie przed budową zbiornika (okres 1971-2000). Tak przygotowana seria obserwacyjna umożliwiła testowi Manna-Kandalla wykluczyć serie jednorodne spowodowane zmianą reżimu na skutek wybudowania i pracy zbiornika retencyjnego Michalice. Jedynie po budowie zbiornika retencyjnego serie obserwacyjne z półrocza zimowego były jednorodne. Jest to spowodowane tym, że przepływy w półroczu zimowym są zdecydowanie niższe niż przepływy w półroczu letnim. Najbardziej dopasowanym rozkładem zmiennej Qmax dla rzeki Widawy (profil Zbytowa) w analizowanych seriach jest rozkład logarytmiczno-normalny, który może zostać wykorzystany do obliczeń przepływów maksymalnych prawdopodobnych potrzebnych do aktualizacji instrukcji gospodarki wodnej zbiornika. Test Wilcoxona wykazał, brak różnic pomiędzy analizowanymi metodami obliczeniowymi użytymi do obliczeń maksymalnych przepływów o określonym prawdopodobieństwie przewyższenia rzeki Widawy (profil Zbytowa), dlatego też jako metodę do obliczania przepływów maksymalnych prawdopodobnych w zlewni rzeki Widawy w profilu Zbytowa w aspekcie gospodarowania wodami zbiornika retencyjnego Michalice lub innej rzeki o zlewni kontrolowanej o podobnych parametrach zlewni co zlewnia rzeki Widawa (profil Zbytowa), można wskazać obie analizowane metody: FFA i IMGW.
Źródło:
Rocznik Ochrona Środowiska; 2019, Tom 21, cz. 1; 566-585
1506-218X
Pojawia się w:
Rocznik Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probabilistic Model of the Fatigue Durability of Knitted Fabrics Produced from Standard Smooth and Fancy Flame Cotton Yarns
Probabilistyczny model trwałości zmęczeniowej dzianin wytworzonych z przędz bawełnianych gładkich i płomykowych
Autorzy:
Drobina, R.
Powiązania:
https://bibliotekanauki.pl/articles/233264.pdf
Data publikacji:
2013
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Biopolimerów i Włókien Chemicznych
Tematy:
knitted fabric
fatigue durability
probabilistic model
Weibull’s expansion
lognormal expansion
dzianina
zmęczeniowa trwałość
probabilistyczny model
teoria Weibulla
logarytmiczno-normalny rozkład
Opis:
The possibility of the introduction of probabilistic models based on Weibull’s theory applied to modelling the problems of fatigue durability and reliable structures as well as models based on log-normal distribution is presented. It was found that the assessment of the quality of knitted fabrics on the basis of classic static durability is not sufficient and it can often lead to incorrect conclusions, having no grounds in real conditions of use. The question of the fatigue durability of knitted fabrics produced from standard smooth and fancy flame cotton yarns was considered. Quantitative description by means of probabilistic and statistical models was proposed. Attention was mainly given to working out probabilistic models based on graphic methods, enabling verification of experimental data.
Przedstawiono możliwość wprowadzenia modeli probabilistycznych opartych na teorii Weibulla zastosowanych do modelowania problemów wytrzymałości zmęczeniowej i struktur niezawodnościowych, a także modeli bazujących na rozkładzie logarytmiczno-normalnym. Stwierdzono, że ocenianie jakości dzianin na podstawie klasycznej wytrzymałości statycznej nie jest wystarczające i często może prowadzić do błędnych wniosków i nie mieć uzasadnienia w rzeczywistych warunkach użytkowania. Rozpatrzono zagadnienie trwałości zmęczeniowej dzianin o splocie lewo-prawym wytworzonych z przędz bawełnianych, zarówno gładkich, jak i ozdobnych. Zaproponowano ich kwantytatywny opis za pośrednictwem modeli statystycznych i probabilistycznych, z zamiarem uzyskania największej konwergencji rezultatów uzyskanych teoretycznie, z wynikami badań otrzymanymi drogą eksperymentu. Główną uwagę skoncentrowano na opracowaniu modeli probabilistycznych bazujących na metodach graficznych, umożliwiających weryfikację danych eksperymentalnych trwałości zmęczeniowej uwzględniających aspekty fizykalne procesów przędzalniczych.
Źródło:
Fibres & Textiles in Eastern Europe; 2013, 4 (100); 75-84
1230-3666
2300-7354
Pojawia się w:
Fibres & Textiles in Eastern Europe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Critical values of driver response time and its impact on reducing reliability and safety in road traffic
Krytyczne wartości czasu reakc ji kierowcy i ich wpływ na obniżenie niezawodności i bezpieczeństwa ruchu drogowego
Autorzy:
Kornacki, A.
Wawrzosek, J.
Bochniak, A.
Szymanek, A.
Pawlak, H.
Powiązania:
https://bibliotekanauki.pl/articles/1365618.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
driver response time
reliability of road traffic
outliers
Akaike information criterion
log-normal
distribution
czas reakcji kierowcy
niezawodność ruchu drogowego
obserwacje odstające
kryterium
informacyjne Akaike
rozkład logarytmiczno-normalny
Opis:
Road traffic is among the most dangerous types of human activity. The main causes of road accidents are driver fatigue, poor physical and mental condition of drivers and overestimating one’s skills while driving. This study focuses on the estimation of driver response time, as the basis of a hypothetical system that uses short and long-range radars, which determines the physical and mental condition of a driver, based on the analysis of „acceleration noise” of the vehicle following its predecessor. This work highlights serious consequences of the fact that driver response time is described by means of a distribution with heavy tails, and thus may be a source of hazard in the driver-vehicle system. Extremes of driver response time were treated as outliers in this study. Their detection was attained by using the Akaike information criterion [1, 2], which is an alternative to conventional methods of testing hypotheses. Untypical, on account of their outlying nature, values are interpreted as critical driver response time values which potentially endanger the reliability of driving.
Ruch drogowy należy do najbardziej niebezpiecznych rodzajów działalności człowieka. Główne przyczyny wypadków drogowych to zmęczenie kierowców, zły stan psychofizyczny kierujących oraz przecenianie swoich umiejętności podczas prowadzenia pojazdu. W niniejszej pracy skupiono uwagę na estymacji czasu reakcji kierowców, jako podstawie hipotetycznego systemu wykorzystującego radary dalekiego i krótkiego zasięgu a określającego stan psychofizyczny kierowcy w oparciu o analizę „szumu przyspieszeń” pojazdu podążającego za poprzednikiem. Wskazuje się na groźne konsekwencje faktu, że czas reakcji kierowcy jest opisywany rozkładem z ciężkimi ogonami, gdyż z tego powodu może być źródłem zagrożenia w układzie kierowca-pojazd. Skrajne wartości czasu reakcji kierowców potraktowano w pracy, jako wartości odstające. Do ich wykrycia zastosowano kryterium informacyjne Akaike [1, 2] co stanowi alternatywę w stosunku do klasycznych metod testowania hipotez. Nietypowe, bo odstające wartości interpretuje się, jako krytyczne czasy reakcji kierowców potencjalnie zagrażające niezawodności jazdy.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 1; 142-148
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-30 z 30

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies