Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "rozkład normalny" wg kryterium: Temat


Tytuł:
Possibility of pore size distribution application to the description of air-entrained concrete porosity structure
Możliwość stosowania rozkładu wielkości porów do opisu parametrów struktury porowatości betonów napowietrzonych
Autorzy:
Wawrzeńczyk, J.
Kozak, W.
Kłak, A.
Powiązania:
https://bibliotekanauki.pl/articles/402006.pdf
Data publikacji:
2014
Wydawca:
Politechnika Świętokrzyska w Kielcach. Wydawnictwo PŚw
Tematy:
air-entrained concrete
air pore size distribution
log-normal distribution
beton napowietrzony
rozkład wielkości porów powietrza
rozkład log-normalny
Opis:
Air void size and number distribution constitutes a major characteristic, which substantially contributes to building up concrete resistance to cyclic freezing and thawing. The standard pore spacing factor L is based on the Powers model. Due to the assumptions made in the model, it may not be able to represent the real structure of air pores in the concrete. Consequently, it is necessary to look for other methods to describe this structure. The sought model needs to account for variability in sizes of pore chords and pore random spacing in the paste. The paper analyses the distribution type and compares porosity characteristics obtained with measurements, and on the basis of the distribution. The analysis aims to assess if it is possible to substitute chords in the 0 to 400 μm range with their distribution. Another purpose of the analysis is to compare air pore structure parameters obtained by computations on raw data with the results received on the basis of pore size distribution for a given concrete.
Źródło:
Structure and Environment; 2014, 6, 1; 5-12
2081-1500
Pojawia się w:
Structure and Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Matematičeskaâ modelʹ i ocenka riska likvidacii požara
Мathematical Model and Risk Evaluation for Firefighting
Model matematyczny i ocena ryzyka zwalczania pożaru
Autorzy:
Vasiľev, N. I.
Movchan, I. A.
Powiązania:
https://bibliotekanauki.pl/articles/373029.pdf
Data publikacji:
2016
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
fire
extinguishing a fire
probability of extinguishing a fire
mathematical model
Weibull exponential distribution
normal distribution
information technology
pożar
zwalczanie pożaru
ryzyko zwalczania pożaru
model matematyczny
rozkład Weibulla
rozkład wykładniczy
rozkład normalny
technologie informacyjne
Opis:
Aim: The purpose of this article is to identify risks during firefighting operations, utilizing the basic principles of reliability theory, but also functional probability models, for all stages of the firefighting processes. With the aid of acquired data, develop a mathematical model to describe uncertainties associated with various phases of firefighting and define the influence of component parts, through projects and programmes for each operational element, on the overall outcome in the fight with a fire. Methodology: The article utilised a complex approach to identify the probability of overcoming a fire within required timescales, by taking account of all tasks associated with the process. The probabilistic description of each component was based on the use of standard time for the completion of a given task. In order to determine each component of risk, the study utilised Weibull’s distribution, exponential and normal laws of distribution. During the selection of distribution laws use was made of statistical modelling methods to determine the confidence levels for each operational task. Results: Study results facilitate identification of weak areas in the operational performance of teams engaged in firefighting. From an analysis of factors influencing the quality of performance, adverse performance can be eliminated and consequently the effectiveness of firefighting can be significantly improved. Illustratively, the project development of access road selection and use of optimal routes within the operational boundary systems, to determine resource needs in fighting fires and by taking account of predicted timescales for undisturbed burning, will significantly reduce the probability value of failure in extinguishing fires within appropriate/desired time scales. Conclusions: The proposed method for determining the probability of combating fires enables, on the basis of statistical data dealing with lead time for extinguishing fires, the conduct of work analysis for firefighting teams and to diagnose their weaknesses. Analysis of results reveals that the main weakness in team performance is the time taken for the journey to an incident location. Calculations indicate that, in order to reduce the time taken to locate and extinguish the fire, and clear the site of the incident, it is necessary to have at disposal an optimal number of firefighting teams.
Cel: Celem artykułu jest opracowanie metody określenia ryzyka procesu zwalczania pożaru w chronionym obiekcie z wykorzystaniem podstawowych założeń teorii niezawodności, a także funkcjonalnych modeli ryzyka dla każdej operacji taktycznej w procesie zwalczania pożaru. Następnie, z wykorzystaniem otrzymanych danych, opracowanie modelu matematycznego ryzyka zwalczania pożaru oraz określenie wpływu składowych ryzyka operacji taktycznych na zabezpieczenie poprzez projekty i programy każdej operacji taktycznej wpływającej na skuteczność zwalczania pożaru. Metody: W artykule wykorzystano kompleksowe podejście do określenia ryzyka przy zwalczaniu pożaru w wymaganym czasie z uwzględnieniem wszystkich operacji taktycznych związanych z tym procesem. Jako podstawę określenia każdej składowej ryzyka wykorzystano normatywny czas na wykonanie danej operacji taktycznej. Do określenia każdej składowej ryzyka wykorzystano zależności rozkładu Weibulla, rozkładu prawa wykładniczego i normalnego. Przy wyborze prawa rozkładu posługiwano się metodą modelowania statystycznego parametrów niezawodności każdej operacji taktycznej. Wyniki: Wyniki badania pozwalają określić słabe punkty w działaniach zespołów ratowniczo-gaśniczych. Dzięki analizie czynników wpływających na jakość pracy można będzie wyeliminować te negatywne i przez to znacząco zwiększać skuteczność zwalczania pożarów. Przykładowo opracowanie projektu wyboru optymalnych dróg dojazdowych do granic obsługiwanego przez daną jednostkę obszaru pozwala skrócić czas dojazdu na miejsce zdarzenia o 30-35%, a zastosowanie zautomatyzowanych systemów obliczania sił i środków potrzebnych do zwalczania pożarów z uwzględnieniem prognozowanego czasu niezakłóconego spalania znacząco zmniejsza wartość ryzyka nieugaszenia pożaru w odpowiednim/wymaganym czasie. Wnioski: Zaproponowana metoda określenia ryzyka przy zwalczaniu pożaru pozwala, na podstawie danych statystycznych na temat czasu gaszenia pożarów, przeprowadzić analizę pracy zespołów ratowniczo-gaśniczych i zdiagnozować jej słabe punkty. Wyniki analizy ryzyka przy zwalczaniu pożaru pokazują, że głównym słabym punktem w pracy zespołów jest czas dojazdu na miejsce zdarzenia. Aby zmniejszyć czas lokalizacji, gaszenia i dogaszania pożaru, jak pokazały wyniki obliczeń, należy dysponować optymalną liczbę zespołów ratowniczo-gaśniczych.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2016, 41, 1; 47-54
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A remark on the distribution of products of independent normal random variables
Autorzy:
Szczepański, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1402389.pdf
Data publikacji:
2020
Wydawca:
Państwowa Wyższa Szkoła Zawodowa w Tarnowie
Tematy:
normal distribution
Meijer G-functions
rozkład normalny
funkcja G. Meijera
Opis:
We present a proof of the explicit formula of the probability density function of the product of normally distributed independent random variables using the multiplicative convolution formula for Meijer G functions.
Źródło:
Science, Technology and Innovation; 2020, 10, 3; 30-37
2544-9125
Pojawia się w:
Science, Technology and Innovation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie tablic dwudzielczych z wykorzystaniem dwuwymiarowego rozkładu normalnego uciętego
Generating the two-way contingency tables using the truncated two-dimensional normal distribution
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/589453.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Dwuwymiarowy rozkład normalny ucięty
Metoda Monte Carlo
Tablica dwudzielcza
Test niezależności
Generating of Monte Carlo
Independence test
Truncated two-dimensional normal distribution
Two-way contingency tables
Opis:
W artykule zaprezentowano procedurę generowania liczb losowych o dwuwymiarowym rozkładzie normalnym uciętym (DRNU). Opisano algorytm generowania tablicy dwudzielczej, wykorzystując próbę realizacji zmiennej losowej DRNU. Przedstawioną teorię wzbogacono konkretnymi przykładami, zrealizowanymi w edytorze VBA arkusza kalkulacyjnego Microsoft Excel.
The procedure to generate random numbers of the truncated two-dimensional normal distribution (DRNU) was presented. The generating of two-way contingency table using random variable of DRNU was described. The presented theory has been enriched with specific examples, that were implemented in the VBA editor of spreadsheet Microsoft Excel.
Źródło:
Studia Ekonomiczne; 2016, 288; 71-87
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling income distributions based on theoretical distributions derived from normal distributions
Modelowanie rozkładu dochodów z wykorzystaniem rozkładów teoretycznych wywodzących się z rozkładu normalnego
Autorzy:
Sulewski, Piotr
Szymkowiak, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/18105042.pdf
Data publikacji:
2023-06-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
income modelling
EU-SILC
normal distribution
SU Johnson distribution
Dagum distribution
modelowanie dochodów
rozkład normalny
rozkład SU Johnsona
rozkład Daguma
Opis:
In income modelling studies, such well-known distributions as the Dagum, the lognormal or the Zenga distributions are often used as approximations of the observed distributions. The objective of the research described in the article is to verify the possibility of using other type of distributions, i.e. asymmetric distributions derived from normal distribution (ND) in the context of income modelling. Data from the 2011 EU-SILC survey on the monthly gross income per capita in Poland were used to assess the most important characteristics of the discussed distributions. The probability distributions were divided into two groups: I – distributions commonly used for income modelling (e.g. the Dagum distribution) and II – distributions derived from ND (e.g. the SU Johnson distribution). In addition to the visual evaluation of the usefulness of the analysed probability distributions, various numerical criteria were applied: information criteria for econometric models (such as the Akaike Information Criterion, Schwarz’s Bayesian Information Criterion and the Hannan-Quinn Information Criterion), measures of agreement, as well as empirical and theoretical characteristics, including a measure based on quantiles, specifically defined by the authors for the purposes of this article. The research found that the SU Johnson distribution (Group II), similarly to the Dagum distribution (Group I), can be successfully used for income modelling.
W badaniach nad modelowaniem dochodów do aproksymacji ich rozkładów bardzo często wykorzystuje się takie znane rozkłady, jak Daguma, log-normalny czy Zengi. Celem badania omawianego w artykule jest sprawdzenie możliwości posłużenia się innymi typami rozkładów, tj. rozkładami asymetrycznymi wywodzącymi się z rozkładu normalnego (ND), w kontekście modelowania dochodów. Najważniejsze charakterystyki rozpatrywanych rozkładów określono na podstawie danych z badania EU-SILC 2011 dotyczących miesięcznego dochodu brutto na mieszkańca w Polsce. Rozkłady prawdopodobieństwa podzielono na dwie grupy: I – rozkłady powszechnie stosowane do modelowania dochodów (np. rozkład Daguma) i II – rozkłady wywodzące się z ND (np. rozkład SU Johnsona). Oprócz wizualnej oceny przydatności analizowanych rozkładów prawdopodobieństwa zastosowano kryteria liczbowe, takie jak: kryteria informacyjne dla modeli ekonometrycznych (Akaike Information Criterion, Schwarz’s Bayesian Information Criterion oraz Hannan-Quinn Information Criterion), miary zgodności oraz charakterystyki empiryczne i teoretyczne, w tym specjalnie zdefiniowana na potrzeby artykułu autorska miara wykorzystująca kwantyle. Jak wynika z badania, rozkład SU Johnsona (II grupa), może być – tak jak rozkład Daguma (I grupa) – z powodzeniem wykorzystany do modelowania dochodów.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 6; 1-23
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie generatorów liczb pseudolosowych
Comparison of normal random number generators
Autorzy:
Sulewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/962662.pdf
Data publikacji:
2019
Wydawca:
Główny Urząd Statystyczny
Tematy:
rozkład normalny
generator liczb pseudolosowych
symulacje Mon-te Carlo
normal distribution
pseudo-random number generator
monte carlo simulation
Opis:
Losowanie prób w badaniach statystycznych i w obliczeniach numerycznych, jak również symulacyjne badanie modeli probabilistycznych właściwie we wszystkich dziedzinach wiedzy wymagają wyposażenia komputera w generatory liczb pseudolosowych. Głównym celem pracy jest porównanie generatorów liczb pseudolosowych normalnych na podstawie ich analizy dokonanej za pomocą różnego rodzaju kryteriów. Zbadano właściwości 12 generatorów liczb pseudolosowych o rozkładzie normalnym. Zaproponowano rozszerzenie rodziny generatorów o dwa tzw. generatory aplikacyjne oraz przyjęcie nowego podejścia do sprawdzania jakości generatorów. Przedstawiono narzędzie przygotowane w języku C++ oraz w języku Visual Basic for Application (VBA) do prowadzenia samodzielnych badań z użyciem generatorów. Symulacje Monte Carlo przeprowadzono w języku C++, a obliczenia wykonano w edytorze VBA przy użyciu arkusza kalkulacyjnego Microsoft Excel 2016. Analiza uzyskanych wyników wskazuje, że najlepsze właściwości mają generatory: MP Monty Pythona, R, Biegun oraz Ziggurat. Najmniej użyteczne okazują się generatory: BM Boxa-Mullera, Wallace’a, Iloraz oraz Excel.
The sampling in statistical surveys and numerical calculations as well as simulation testing of probabilistic models in virtually all fields of knowledge require a computer endowed with pseudorandom numbers generators. The main goal of the study is to compare the normal random number generators using various criteria. The properties of 12 random number generators for a normal distribution were investigated. Then, the family of generators was extended by two so-called application generators and a new approach for checking the quality of generators was adopted. A ready-made tool prepared in C++ and in Visual Basic for Application (VBA) for conducting self-contained research using generators was presented. All Monte Carlo simulations were carried out in C++, while the calculations were performed in the VBA editor using the Microsoft Excel 2016 spreadsheet. The analysis of the obtained results shows that the generators with best properties are: MP Monty Python, R, Biegun and Ziggurat. The worst generators, are: BM Box-Muller, Wallace, Iloraz and Excel.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2019, 64, 7; 5-31
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Termografia w diagnostyce rehabilitacyjnej
Thermography in the diagnosis of rehabilitation
Autorzy:
Skomudek, A.
Skomudek, W.
Powiązania:
https://bibliotekanauki.pl/articles/153476.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termografia
zabiegi fizjoterapeutyczne
zabieg pomostowania aortalno-wieńcowego
analiza statystyczna
rozkład normalny
thermography
physiotherapy
surgery coronary artery bypass grafting
statistical analysis
normal distribution
Opis:
Praca dotyczy oceny możliwości zastosowania pomiarów termograficznych w diagnostyce procesu rehabilitacyjnego u osób po zabiegu pomostowania aortalno-wieńcowego, czyli po wykonaniu zabiegu wstawienia bypassów. Termogramy uzyskane w trakcie przeprowadzonych pomiarów laboratoryjnych wykazały możliwość zastosowania tej techniki pomiarowej w procesie diagnostycznym, prowadzonym w trakcie rehabilitacji kardiologicznej. W trakcie badań potwierdzono możliwość zastosowania diagnostyki termowizyjnej do oceny skuteczności różnych zabiegów fizjoterapeutycznych stosowanych w procesie rehabilitacji.
The aim of the paper is to present the possibility of application of thermography measurements to the diagnostics of rehabilitation process of patients after coronary artery bypass graft surgery. The thermograms obtained during laboratory measurements show the applicability of this measuring technique to the diagnostic process, carried out in the course of cardiac rehabilitation [1, 2]. During the study the applicability of diagnostic thermal imaging to evaluate the effectiveness of a variety of physical therapy used in the rehabilitation process was confirmed. The thermograms obtained during tests after the application of physical stimuli in the form of an intensive effort to support the changes in the metabolic processes of a tissue located under the skin and changes in the local blood flow are reflected in the heat map of the skin (Fig. 1, Tab. 1). The elements of descriptive statistical diagnostics (analysis of the structure, correlations, dynamic) and the methods of statistical inference (estimation and verification) are significant enrichment of the analysis of the test results obtained in the form of thermal images. The use of thermal imaging diagnostic techniques and statistical analysis of the results of observations enables ongoing assessment of the effectiveness of rehabilitation activities (Fig. 3). Basing on the thermal image, the impact of the streamlining of the process used and the intensity of the temperature distribution, to visualize the gradient, can be seen. The thermograms obtained from the tests reflect the therapy results in the heat map of the skin.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 9, 9; 875-878
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola i sens aproksymacji krzywych składu ziarnowego surowców mineralnych
A role and sense of approximation of grain composition of raw materials
Autorzy:
Saramak, D.
Tumidajski, T.
Powiązania:
https://bibliotekanauki.pl/articles/349565.pdf
Data publikacji:
2006
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
aproksymacja krzywych składu ziarnowego
rozkład logarytmiczno-normalny
rozkład logistyczny
analityczne wyznaczanie powierzchni właściwej
approximation of grain composition curves
logarithmic-normal distribution
logistic distribution
analytical determination of specific surface
Opis:
Artykuł porusza problemy dotyczące zagadnień aproksymacji krzywych składu ziarnowego surowców mineralnych oraz wykorzystania ich wyników do określania powierzchni właściwej materiałów uziarnionych. W artykule zostały przedstawione teoretyczne uwarunkowania związane ze sposobami aproksymacji krzywych składu ziarnowego oraz wzory aproksymujące krzywe składu ziarnowego opisane rozkładami logarytmiczno-normalnym i logistycznym. Dokonano też aproksymacji dla wymienionych rozkładów. Przedstawiono też sposoby obliczania powierzchni właściwej materiałów drobno uziamionych z wykorzystaniem wyników aproksymacji za pomocą rozwinięcia w szereg potęgowy Taylora.
The article describes problems concerning matters of approximation of grain size curves of mineral raw materials and also ways of using these results for description of specific surface of grained materials. In the article there were presented theoretical conditions connected with manners of approximation of grain size curves and approximation formulas for grain size curves described by logarithmic-normal distribution and logistic distribution. It was also made an approximation of these distributions, as well ways of calculation of specific surface of fine grained materials with using Taylor's power sequence based on approximation results were presented.
Źródło:
Górnictwo i Geoinżynieria; 2006, 30, 3/1; 301-313
1732-6702
Pojawia się w:
Górnictwo i Geoinżynieria
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Valorization of the noise content in photogrammetric images using wavelets
Waloryzacja zawartości szumów w obrazach fotogrametrycznych z wykorzystaniem falek
Autorzy:
Pyka, K.
Powiązania:
https://bibliotekanauki.pl/articles/385326.pdf
Data publikacji:
2008
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
transformacja falkowa
szum obrazowy
rozkład normalny
kurtoza
wavelets transform
image noise
normal distribution
Opis:
In the paper the use of wavelet transformation for valorization of noise content in photogrammetric images is proposed. At first noise in the digital images and applied methods of noise removing is described synthetically. Then the most important features of wavelet transformation are presented through the comparison with Fourier transformation, widely used in the similar problems. Valorization of the noise content was based on the observation given in literature, stating that the noise changes the shape of the transform detail components histograms. The fragments of aerial photographs and high-resolution satellite images were used as a research material. The researches confirmed the possibility to define the noise content indicators based on the analysis of the wavelet detail coefficients distribution shape. It was found that investigation of the wavelet components histograms shape can be employed for the comparison of the radiometric changes occurred during radiometric and geometric processing of the images.
W pracy zaproponowano zastosowanie transformacji falkowej do waloryzacji zawartości szumów losowych występujących w obrazach fotogrametrycznych. Najpierw omówiono syntetycznie problem szumów w obrazach cyfrowych oraz stosowane metody ich usuwania. Następnie przedstawiono najważniejsze cechy transformacji falkowej, poprzez porównanie do powszechnie stosowanej - w podobnych zagadnieniach - transformacji Fouriera. Waloryzacje zawartości szumów oparto na podanych w literaturze spostrzeżeniach, że szum zmienia kształt histogramów komponentów detalicznych transformaty falkowej. Jako materiał badawczy wykorzystano fragmenty zdjęć lotniczych i wysokorozdzielczych obrazów satelitarnych. Badania potwierdziły możliwość formułowania wskaźników zawartości szumów, opartych na analizie kształtu rozkładów współczynników detali falkowych. Stwierdzono, że badanie kształtu histogramów komponentów falkowych może być zastosowane do porównywania zmian radiometrycznych następujących podczas radiometrycznego i geometrycznego przetwarzania obrazów.
Źródło:
Geomatics and Environmental Engineering; 2008, 2, 1; 59-65
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie metody Monte Carlo do określenia niepewności pomiaru mocy optycznej emitera półprzewodnikowego
Utilization of Monte Carlo method for determining the uncertainty of semi-conductor emitter’s optical power measurement
Autorzy:
Prorok, M.
Makal, J.
Powiązania:
https://bibliotekanauki.pl/articles/266619.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
metoda Monte Carlo
niepewność pomiaru
rozkład normalny
generacja wyników pomiarowych
Monte Carlo method
measurement uncertainty
normal distribution
measurements generation
Opis:
W artykule przedstawiono sposób wykorzystania metody Monte Carlo do określenia przedziału ufności pomiaru w przypadku wyznaczania wartości mocy optycznej emitera półprzewodnikowego. Na podstawie niewielkiej serii (3-30) pomiarów wartości mocy optycznej w układzie świetlno-optycznym przeprowadzono analizę niepewności wg GUM (Guide Uncertainty Measurement), określając wartość niepewności rozszerzonej. Następnie, wykorzystując silnik matematyczny, przeprowadzono procedurę generacji próbek pomiarowych i wyznaczono przedział rozszerzenia. Na zakończenie, porównano obie metody obliczeniowe i przedstawiono wypływające z niego wnioski.
Monte Carlo method, as the statistic device is widely used even in complex engineering problems and metrology, the algorithms used to evaluate these technical issues base on set of pseudorandom numbers. This paper contains of the way to use Monte Carlo method to generate any number of measurements. Basing on small series of optical power measurements (3-30) in the optical light system, the GUM (Guide Uncertainty Measurement) analysis was performed to estimate extended uncertainty range. Calculated parameter, connected with the final measurement result, specifying measurements scatter is boundary value for procedure initialization in mathematical engine. The method’s usefulness is especially noticeable in case of artificial widening measurements number, which preserve their characteristic normal distribution (the Gauss distribution) in the continuous probability distribution.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2017, 54; 187-190
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie karty kontrolnej w standardowym trybie pracy w SPC (Statistical Process Control)
Application of the Controlcard in the Standard Operatingmode in SPC (Statistical Process Control)
Autorzy:
MALSKA, WIESŁAWA
Powiązania:
https://bibliotekanauki.pl/articles/455443.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rzeszowski
Tematy:
jakość produktu
karta kontrolna
statystyczne sterowanie procesami produkcji
rozkład normalny zmiennych losowych
product quality
control card
statistical control of production processes
normal distri-bution of random variables
Opis:
W artykule zaprezentowano przykład zastosowania karty kontrolnej w standardowym trybie pracy w SPC. Nowoczesne przedsiębiorstwo produkcyjne powinno posiadać sprawnie funkcjonujący system zarządzania jakością wyrobów. Podstawową rolę w takim systemie odgrywa SPC (Statistical Process Control), czyli statystyczne sterowanie procesami. Po wstąpieniu Polski do UE problematyka jakości stała się ważnym zagadnieniem w praktyce produkcyjnej firm. W zależności od branży przemysłu stosuje się różne metody sprawdzania jakości produktów w działach jakości. Sprawdzanie jakości produktów może odbywać się na wybranym etapie lub wszystkich etapach całego procesu technologicznego lub tylko na etapie produktu finalnego. SPC jest najczęściej stosowaną metodą statystycznego sterowania procesem produkcyjnym przeznaczoną do gromadzenia i prezentacji danych opisujących zmienność warunków i charakterystyk przebiegu całego procesu produkcyjnego. Głównym celem stosowania SPC jest zmniejszanie zmienności parame-trów na wejściu i wyjściu procesu produkcyjnego, a następnie usuwanie przyczyn ich występowa-nia. W ramach SPC bada się, z jakim rozproszeniem wyników pomiarów wykonywany jest proces produkcji i jaka jest jego zdolność do spełnienia wymagań określonych w specyfikacji technicznej danego wyrobu. Współczesne programy statystycznego wspomagania gromadzenia i analizy danych oferują narzędzia przeznaczone do zagadnień związanych z jakością. Do często wykorzystywanych należy program STATISTICA umożliwiający m.in. prowadzenie tzw. kart kontrolnych procesu, które służą do oceny liczbowej lub oceny alternatywnej próbek poddanych kontroli i podlegających ocenie.
The article presents an example of the use of a control card in the standard operating mode in SPC. A modern production enterprise should have an efficiently functioning product quality management system. The basic role in such a system is played by SPC (Statistical Process Control), or statistical process control. After Poland's accession to the EU, the issue of quality has become an important issue in the production practice of companies. Depending on the industry, different methods of checking the quality of products in quality departments have been applied. Product quality checking can take place at the selected stage or all stages of the entire technological pro-cess or only at the stage of the final product. SPC (Statistical Process Control) is the most com-monly used method of statistical control of the production process intended for the collection and presentation of data describing the variability of conditions and characteristics of the course of the entire production process. The main purpose of using SPC is to reduce the variability of parameters at the entry and exit of the production process, and then to eliminate the reasons for their occurrence. As part of the SPC, it is examined with what dispersion of the measurement results the production process is performed and what is its ability to meet the requirements specified in the technical specification of a given product. Modern statistical data collection support and data analysis programs offer tools dedicated to quality issues. Frequently used programs include the STATISTICA program that allows, among other things, running the socalled process control charts, which are used for numerical evaluation or alternative evaluation of samples subjected to control and subject to evaluation
Źródło:
Edukacja-Technika-Informatyka; 2018, 9, 2; 318-324
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozkład wielkości podłoża do zarodkowania heterogenicznego fazy pierwotnej stopu Al-Cu
Size Distribution of Substrate to Heterogenous Nucleation of Primary Phase in Al-Cu Alloy
Autorzy:
Lelito, J.
Gracz, B.
Żak, P. L.
Suchy, J. S.
Szucki, M.
Malinowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/380896.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
rozkład logarytmiczno-normalny
rozkład Oldfielda
rozkład eksponecjalny
zarodkowanie heterogeniczne
stop Al-Cu
longnormal distribution
heterogenous nucleation
Al-Cu alloy
Opis:
Rozwój komputeryzacji spowodował duży postęp w numerycznym modelowaniu krystalizacji stopów odlewniczych. Możliwe staje się prognozowanie mikrostruktury odlewów. W tym celu konieczna jest znajomość równań opisujących rozkłady wielkości podłoża do zarodkowania heterogenicznego ziaren bądź funkcji gęstości ziaren w zależności od przechłodzenia. W pracy zamieszczono obliczenia dla modelu wykładniczego i eksponencjalnego gęstości ziaren w funkcji przechłodzenia maksymalnego. Dodatkowo przeprowadzono również obliczenia dla logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego. Zasadniczym celem tej pracy jest wyznaczenie w powyższych równaniach, parametrów dopasowania krzepnącego stopu Al-Cu na podstawie badań doświadczalnych zamieszczonych w literaturze [7]. W przypadku logarytmiczno-normalnego rozkładu wielkości podłoża do zarodkowania heterogenicznego, parametry występujące w tym równaniu zostały wyznaczone za pomocą algorytmu numerycznego. Tak wyznaczone rozkłady zostały następnie zestawione na wykresie z danymi eksperymentalnymi w celu ich porównania.
The development of computerization caused a lot of progress in numerical modeling of alloys crystallization. It becomes possible to predict casting microstructure. For this purpose, it is necessary to know the equations describing the size distribution of the substrate to the heterogeneous nucleation of grains or grains density function dependence on supercooling. The paper presents calculations for Oldfield and exponential model of grain density as a function of the maximum supercooling. In addition, calculations were also performed for the log-normal distribution of the substrate size to heterogeneous nucleation of primary phase. The main aim of this work is to determine the fitting parameters of Al-Cu alloy solidifying based on experimental studies published in the literature [7] for above equations. In the case of log-normal size distribution of substrate for heterogeneous nucleation, the parameters present in the equation were determined using a numerical algorithm. Thanks to these schedules were then summarized in the graph of experimental data for comparison.
Źródło:
Archives of Foundry Engineering; 2015, 15, 4 spec.; 83-86
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wybranych rozkładów prawdopodobieństwa wartości ekstremalnych do szacowania ryzyka wystąpienia zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku
Application of selected probability distributions of extreme values to flood risk assessment in the Odra River catchment in Lower Silesia
Autorzy:
Kuźmiński, Ł.
Szałata, Ł.
Zwoździak, J.
Powiązania:
https://bibliotekanauki.pl/articles/237592.pdf
Data publikacji:
2016
Wydawca:
Polskie Zrzeszenie Inżynierów i Techników Sanitarnych
Tematy:
ryzyko powodziowe
roczny przepływ maksymalny
rozkład empiryczny
rozkład Gumbela
rozkład Frecheta
rozkład logarytmiczno-normalny
flood risk
maximum annual flow
empirical distribution
Gumbel distribution
Frechet distribution
lognormal distribution
Opis:
Analizie poddano maksymalne dobowe przepływy w Odrze zmierzone w latach 1971–2013 w stacji hydrologicznej w Malczycach. Z całego zbioru danych wyselekcjonowano maksymalne przepływy roczne i do ich rozkładu empirycznego dopasowano trzy rozkłady teoretyczne – Gumbela, Frecheta i logarytmiczno-normalny. Przedstawiony przykład analizy probabilistycznej zagrożenia powodziowego w dorzeczu Odry na Dolnym Śląsku może być skutecznym narzędziem w ocenie wystąpienia ryzyka powodziowego. Otrzymane w ten sposób wyniki mogą zostać wykorzystane do szacowania prawdopodobieństwa wystąpienia określonych zdarzeń związanych z zagrożeniem powodziowym, a także do porównywania wybranych obszarów dorzecza pod względem zagrożenia powodziowego.
The maximum daily flows in the Oder river from the period of 1971 to 2013 were analyzed in Malczyce hydrological station. From the entire data set the maximum annual flows were selected and their empirical distributions were fitted against the three theoretical distribution models: Gumbel, Frechet and the lognormal. The presented case of probabilistic flood risk analysis for the Oder catchment in Lower Silesia may become an effective flood risk assessment tool. The results may be employed to probability assessment of certain events related to flood risk and also to compare the flood risk in selected catchment regions.
Źródło:
Ochrona Środowiska; 2016, 38, 3; 35-39
1230-6169
Pojawia się w:
Ochrona Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Critical values of driver response time and its impact on reducing reliability and safety in road traffic
Krytyczne wartości czasu reakc ji kierowcy i ich wpływ na obniżenie niezawodności i bezpieczeństwa ruchu drogowego
Autorzy:
Kornacki, A.
Wawrzosek, J.
Bochniak, A.
Szymanek, A.
Pawlak, H.
Powiązania:
https://bibliotekanauki.pl/articles/1365618.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
driver response time
reliability of road traffic
outliers
Akaike information criterion
log-normal
distribution
czas reakcji kierowcy
niezawodność ruchu drogowego
obserwacje odstające
kryterium
informacyjne Akaike
rozkład logarytmiczno-normalny
Opis:
Road traffic is among the most dangerous types of human activity. The main causes of road accidents are driver fatigue, poor physical and mental condition of drivers and overestimating one’s skills while driving. This study focuses on the estimation of driver response time, as the basis of a hypothetical system that uses short and long-range radars, which determines the physical and mental condition of a driver, based on the analysis of „acceleration noise” of the vehicle following its predecessor. This work highlights serious consequences of the fact that driver response time is described by means of a distribution with heavy tails, and thus may be a source of hazard in the driver-vehicle system. Extremes of driver response time were treated as outliers in this study. Their detection was attained by using the Akaike information criterion [1, 2], which is an alternative to conventional methods of testing hypotheses. Untypical, on account of their outlying nature, values are interpreted as critical driver response time values which potentially endanger the reliability of driving.
Ruch drogowy należy do najbardziej niebezpiecznych rodzajów działalności człowieka. Główne przyczyny wypadków drogowych to zmęczenie kierowców, zły stan psychofizyczny kierujących oraz przecenianie swoich umiejętności podczas prowadzenia pojazdu. W niniejszej pracy skupiono uwagę na estymacji czasu reakcji kierowców, jako podstawie hipotetycznego systemu wykorzystującego radary dalekiego i krótkiego zasięgu a określającego stan psychofizyczny kierowcy w oparciu o analizę „szumu przyspieszeń” pojazdu podążającego za poprzednikiem. Wskazuje się na groźne konsekwencje faktu, że czas reakcji kierowcy jest opisywany rozkładem z ciężkimi ogonami, gdyż z tego powodu może być źródłem zagrożenia w układzie kierowca-pojazd. Skrajne wartości czasu reakcji kierowców potraktowano w pracy, jako wartości odstające. Do ich wykrycia zastosowano kryterium informacyjne Akaike [1, 2] co stanowi alternatywę w stosunku do klasycznych metod testowania hipotez. Nietypowe, bo odstające wartości interpretuje się, jako krytyczne czasy reakcji kierowców potencjalnie zagrażające niezawodności jazdy.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 1; 142-148
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza metod generowania zmiennych wejściowych dla probabilistycznych modeli procesów transportowych
Analysis of methods of generating input variables for probabilistic models of transport processes
Autorzy:
Kawalec, P.
Powiązania:
https://bibliotekanauki.pl/articles/198673.pdf
Data publikacji:
2013
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
liczba losowa
generator sprzętowy
rozkład wykładniczy
rozkład normalny
HDL
FPGA
random number
hardware generator
exponential distribution
normal distribution
Opis:
W artykule przedstawiono analizę podstawowych metod generowania liczb losowych, wskazując na zalety sprzętowej realizacji takich generatorów. Wykorzystując generatory zbudowane na dwóch LFSR-ach opracowano i zbudowano szesnastokanałowy generator liczb pseudolosowych w strukturze FPGA. Zaproponowano wykorzystanie takiego generatora do budowy sprzętowych generatorów liczb losowych o rozkładach wykładniczym i normalnym.
The article presents basic methods of random number generation indicating the advantages of hardware solutions. With the use of generators built on two linear feedback shift registers (LFSR), a 16-channel generator of pseudo-random numbers has been designed and constructed within the FPGA structure. On the basis of this multi-channel generator, hardware generators have been designed of a given distribution. The designed generators of exponential and normal distribution have been presented in detail.
Źródło:
Zeszyty Naukowe. Transport / Politechnika Śląska; 2013, 80; 65-77
0209-3324
2450-1549
Pojawia się w:
Zeszyty Naukowe. Transport / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies