Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Prawdopodobieństwo" wg kryterium: Temat


Tytuł:
A Frequentist Solution to a Manifestation of Lindley & Phillips’ Stopping Rule Problem in Ecological Realm
Częstościowe rozwiązanie jednego z przejawów Lindleya i Phillipsa problemu reguły stopu w dziedzinie ekologii
Autorzy:
Kubiak, Adam P.
Powiązania:
https://bibliotekanauki.pl/articles/577260.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
sampling
principle of total evidence
binomial distribution
significance test
point null hypothesis
objective probability
accuracy
data
relativity
arbitrariness
próbkowanie
zasada całkowitej obserwacji
rozkład dwumianowy
test istotności
punktowa hipoteza zerowa
prawdopodobieństwo obiektywne
trafność
dane
relatywizm
arbitralność
Opis:
In this paper I provide a frequentist philosophical-methodological solution for the stopping rule problem presented by Lindley & Phillips in 1976, which is settled in the ecological realm of testing koalas’ sex ratio. I deliver criteria for discerning a stopping rule, an evidence and a model that are epistemically more appropriate for testing the hypothesis of the case studied, by appealing to physical notion of probability and by analyzing the content of possible formulations of evidence, assumptions of models and meaning of the ecological hypothesis. First, I show the difference in the evidence taken into account in different frequentist sampling procedures presented in the problem. Next, I discuss the inapplicability of the Carnapian principle of total evidence in deciding which formulation of evidence associated with a given sampling procedure and statistical model is epistemically more appropriate for testing the hypothesis in question. Then I propose a double-perspective (evidence and model) frequentist solution based on the choice of evidence which better corresponds to the investigated ecological hypothesis, as well as on the choice of a model that embraces less unrealistic ontological assumptions. Finally, I discuss two perspectives of the stopping rule dependence.
W niniejszym artykule przedstawiam cząstkową propozycję filozoficzno-metodologicznej obrony klasycznej metodologii testowania hipotez statystycznych. Dokonuję tego poprzez próbę odpowiedzi na zarzuty wynikające z problemu stopu przedstawionego przez Lindleya i Phillipsa w 1976 roku, a osadzonego w realiach hipotezy ekologicznej związanej z pytaniem o stosunek płci u młodych osobników gatunku koala. Rozważania rozpoczynam od przedstawienia problemu, następnie omawiam aplikowalność Carnapa zasady całkowitej obserwacji i związek możliwych form obserwacji oraz modeli z hipotezą ekologiczną. W konsekwencji przedstawiam dwa rozwiązania przedstawionego problemu: pierwsze z perspektywy porównywania alternatywnych form formułowania obserwacji, drugie z perspektywy porównywania modeli. Obydwa odwołują się do ontologicznych konsekwencji klasycznej obiektywnej interpretacji prawdopodobieństwa oraz postawionej hipotezy ekologicznej. Argument kończy przedstawienie dwóch perspektyw zależności wyniku testowania hipotezy od wyboru reguły stopu.
Źródło:
Zagadnienia Naukoznawstwa; 2014, 50, 2(200); 135-145
0044-1619
Pojawia się w:
Zagadnienia Naukoznawstwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A methodology for flood risk appraisal in Lithuania
Metodologia oceny zagrożenia powodziowego na Litwie
Autorzy:
Kriščiukaitienė, I.
Baležentis, T.
Galnaitytė, A.
Namiotko, V.
Powiązania:
https://bibliotekanauki.pl/articles/292887.pdf
Data publikacji:
2015
Wydawca:
Instytut Technologiczno-Przyrodniczy
Tematy:
flood map
flood probability
flood risk
Lithuania
Litwa
mapa powodzi
prawdopodobieństwo powodzi
ryzyko powodziowe
Opis:
This paper presents a methodology for flood risk mapping as envisaged by the Directive on the Assessment and Management of Flood Risks [Directive 2007/60/EC]. Specifically, we aimed at identifying the types of flood damage that can be estimated given data availability in Lithuania. Furthermore, we present the main sources of data and the associated cost functions. The methodology covers the following main types of flood threats: risk to inhabitants, risk to economic activity, and social risk. A multi-criteria framework for aggregation of different risks is proposed to provide a comprehensive appraisal of flood risk. On the basis of the proposed research, flood risk maps have been prepared for Lithuania. These maps are available for each type of flood risk (i.e. inhabitants, economic losses, social risk) as well as for aggregate risk. The results indicate that flood risk management is crucial for western and central Lithuania, whereas other parts of the country are not likely to suffer from significant losses due to flooding.
W artykule przedstawiono metodologię mapowania ryzyka powodziowego zgodnie z zaleceniami Dyrektywy 2007/60/EC w sprawie oceny ryzyka powodziowego i zarządzania nim. Celem Autorów było w szczególności zidentyfikowanie typów szkód powodziowych, które można oszacować pod warunkiem dostępności danych na Litwie. Ponadto przedstawiono główne źródła danych i powiązane funkcje kosztów. Metodologia obejmuje następujące główne typy zagrożeń powodziowych: zagrożenia dla mieszkańców, zagrożenia dla działalności gospodarczej i zagrożenia społeczne. Zaproponowano wielokryterialne ramy do powiązania różnych rodzajów zagrożeń celem zapewnienia całościowej oceny ryzyka powodziowego. Na podstawie proponowanych badań sporządzono mapy zagrożenia powodziowego dla Litwy. Mapy te są dostępne dla każdego typu zagrożeń (tzn. mieszkańców, gospodarki i zagrożeń społecznych) i dla łącznego ryzyka. Wyniki dowodzą, że zarządzanie ryzykiem powodziowym ma zasadnicze znaczenie dla zachodniej i centralnej Litwy, inne obszary kraju nie powinny doznać istotnych strat w wyniku powodzi.
Źródło:
Journal of Water and Land Development; 2015, 25; 13-22
1429-7426
2083-4535
Pojawia się w:
Journal of Water and Land Development
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A new computational method for structural reliability with Big Data
Nowa metoda obliczeniowa oceny niezawodności konstrukcji w oparciu o Big Data
Autorzy:
Fang, Yongfeng
Tao, Wenliang
Tee, Kong Fah
Powiązania:
https://bibliotekanauki.pl/articles/300640.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
big data
reliability
probability
stochastic loads
structure
niezawodność
prawdopodobieństwo
obciążenia stochastyczne
konstrukcja
Opis:
A new computational method for structural reliability based on big data is proposed in this paper. Firstly, the big data is collected via structural monitoring and is analyzed. The big data is then classified into different groups according to the regularities of distribution of the data. In this paper, the stress responses of a suspension bridge due to different types of vehicle are obtained. Secondly, structural reliability prediction model is established using the stress-strength interference theory under the repeated loads after the stress responses and structural strength have been comprehensively considered. In addition, structural reliability index is calculated using the first order second moment method under vehicle loads that are obeying the normal distribution. The minimum reliability among various types of stress responses is chosen as the structural reliability. Finally, the proposed method has been validated for its feasibility and effectiveness by an example.
W artykule zaproponowano nową metodę obliczeniową oceny niezawodności konstrukcji w oparciu o tzw. duże dane (ang. big data). W metodzie tej, duże dane gromadzi się poprzez monitorowanie konstrukcji, a następnie analizuje. W dalszej kolejności, dane są kwalifikowane do różnych grup zgodnie z ich rozkładem. W przedstawionej pracy, rejestrowano reakcje naprężeniowe mostu wiszącego na obciążenia różnymi typami pojazdów. Następnie, po dokładnym zbadaniu reakcji naprężeniowych i wytrzymałości konstrukcji mostu, utworzono model predykcyjny niezawodności konstrukcji z wykorzystaniem teorii obciążeniowo-wytrzymałościowej (ang. stress-strength interference) w warunkach powtarzających się obciążeń. Ponadto, wykorzystano metodę estymacji momentów (FOSM) do obliczenia wskaźnika niezawodności konstrukcji przy obciążeniach ruchem pojazdów zgodnych z rozkładem normalnym. Najmniejszą wartość niezawodności spośród wartości obliczonych dla różnych typów reakcji naprężeniowych przyjęto jako niezawodność konstrukcji. Proponowaną metodę zweryfikowano pod kątem możliwości praktycznego wykorzystania i skuteczności na przykładzie mostu wiszącego w Chinach.
Źródło:
Eksploatacja i Niezawodność; 2019, 21, 1; 159-163
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A New Definition of the Fuzzy Set
Autorzy:
Piegat, A.
Powiązania:
https://bibliotekanauki.pl/articles/908479.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
zbiór rozmyty
prawdopodobieństwo
arytmetyka rozmyta
fuzzy set theory
fuzzy arithmetic
possibility
Opis:
The present fuzzy arithmetic based on Zadeh's possibilistic extension principle and on the classic definition of a fuzzy set has many essential drawbacks. Therefore its application to the solution of practical tasks is limited. In the paper a new definition of the fuzzy set is presented. The definition allows for a considerable fuzziness decrease in the number of arithmetic operations in comparison with the results produced by the present fuzzy arithmetic.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2005, 15, 1; 125-140
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A New Heuristic Protocol for Strategy Selection Presented on the Basis of Examples of Former Underground Mines
Autorska, heurystyczna metoda doboru strategii planowania w kontekście doboru sposobu zagospodarowania wyeksploatowanych wyrobisk kopalń podziemnych
Autorzy:
Wiktor-Sułkowska, Anna
Powiązania:
https://bibliotekanauki.pl/articles/318357.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Przeróbki Kopalin
Tematy:
heurystyczne metody doboru strategii postępowania
SWOT
Analytic Hierarchy Process
atrakcyjność rynkowa
pozycja rynkowa
prawdopodobieństwo sukcesu strategicznego
heuristic methods for strategy selection
market attractiveness
market position
probability of strategy success
Opis:
Strategic planning and analysis often require that we make choices that are backed up with logical reasons. Such decision-making is difficult, as it involves many variables, both measurable and non-measurable. In some cases, a choice has to be made from among a dozen or several dozen variants, or more. It might be hard to determine which of these are the best and why. This paper describes SWOT-AHP-PSS, an innovative approach developed to support decision-making as part of strategic planning. What is innovative about the SWOT-AHP-PSS protocol is the original combination of commonly known and used methods. SWOT-AHP-PSS assesses the probability of success for each of the pre-defined scenarios, and helps identify the key factors behind PSS. It can be useful for both simple and very complex decision-making.
Planowanie i analiza strategiczna często wymagają dokonania wyborów opartych na logicznych podstawach. Takie podejmowanie decyzji strategicznych jest trudne, ponieważ obejmuje wiele zmiennych, zarówno mierzalnych, jak i niemierzalnych. Często należy dokonać wyboru jednego z wielu wariantów. Może być trudno określić, które z nich są najlepsze i dlaczego. W niniejszym artykule opisano autorską metodę SWOT-AHP-PSS, jako innowacyjne podejście opracowane w celu wspierania procesu decyzyjnego w ramach planowania strategicznego. Nowością w tej metodzie jest oryginalna kombinacja powszechnie znanych i używanych metod. SWOT-AHP-PSS ocenia prawdopodobieństwo sukcesu każdego z predefiniowanych scenariuszy i pomaga zidentyfikować kluczowe czynniki stojące za prawdopodobieństwem sukcesu strategicznego. Metoda ta może być przydatna zarówno do prostego, jak i bardzo złożonego procesu decyzyjnego.
Źródło:
Inżynieria Mineralna; 2019, 21, 1/2; 245-249
1640-4920
Pojawia się w:
Inżynieria Mineralna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Alternatywne metodyki obliczania niepewności pomiaru
Alternative methodologies for calculating the measurement uncertainty
Autorzy:
Fotowicz, P.
Powiązania:
https://bibliotekanauki.pl/articles/153031.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
niepewność pomiaru
prawdopodobieństwo warunkowe
measurement uncertainty
conditional probability
Opis:
Przedstawiono dwie alternatywne metodyki obliczania niepewności pomiaru stosowane współcześnie w metrologii. Pierwsza z nich opiera się na zaleceniach Przewodnika i zawartym tam prawie propagacji niepewności. Druga opiera się na prawdopodobieństwie warunkowym wynikającym z zastosowania twierdzenia Bayesa. Obie metodyki prowadzą do różnych wyników, bowiem wykorzystują inne podstawy obliczeniowe. Pierwsza opiera się na splocie rozkładów wielkości wejściowych, a druga na ich iloczynie. Pierwsza chętnie stosowana jest przy ocenie wyników określonego pomiaru, a druga przy opracowaniu wyników porównań.
The alternative methodologies for calculating the measurement uncertainty used in modern metrology are presented. The first method is based on recommendation of the Guide and the law of uncertainty propagation. The second method is based on conditional probability and application of the Bayes theorem. Those methodologies leads to different results because of using different basis of calculations. The calculation of the first method is connected with convolution of input quantity distributions but the calculation of the second method is connected with multiplication of input quantity distributions. The coverage interval calculated with the GUM method is larger than the coverage interval calculated with the Bayesian method. In the first method the estimate of the measurand is an arithmetic average of observations, but in the second method the estimate is a weighted average, modified by the standard uncertainty attributed to the specified result of observation. The Bayesian method is willingly utilized at inter-laboratory comparisons, but the GUM method is commonly used in evaluation of any other result of measurement.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 11, 11; 1305-1307
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An influence of service discipline on characteristics of a single-server queue with non-homogeneous customers
Autorzy:
Tikhonenko, O.
Gola, A.
Ziółkowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/122059.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
single-server queueing system
customers loss probability
analytical model
simulation
queueing theory
system kolejkowy z jednym serwerem
prawdopodobieństwo utraty klientów
model analityczny
symulacja
teoria kolejkowania
Opis:
For single-server queueing systems with non-homogeneous customers having some random space requirements we compare processor-sharing and FIFO disciplines and investigate their influence on the total sum of space requirements characteristics (when this sum is not limited, i.e. V = ∞) and customers loss probability (when this sum is limeted, i.e. V < ∞), using analytical modeling and simulation.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2010, 15; 191-200
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza płynności papierów wartościowych notowanych w systemie WARSET
Analysis of Value Papers Liquidity Listed with WARSET System
Autorzy:
Garsztka, Przemysław
Matuszewski, Przemysław
Wieloch, Karol
Powiązania:
https://bibliotekanauki.pl/articles/905241.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
płynność papierów wartościowych
analiza płynności
prawdopodobieństwo zawarcia transakcji
Opis:
In the most of papers dealing with capital markets, their authors concentrate mainly on the price of value papers rather than on their liquidity. In the paper the new measure of the liquidity is proposed. This measure is based on the transaction probability and directly refers to intuitive definition of liquidity’s term. The authors made a research on the influence of changes in limit of the price and volume ofTers on the liquidity. The results imply that the level of liquidity risk depends on companies’ market capitalisation. The asymmetry of liquidity risk was notified. Its level was different when shares was to be sold or bought. The time structures analysis of the phenomena implies the clear differentiation of the liquidity risk.
W większości prac dotyczących rynku kapitałowego autorzy koncentrują się wyłącznie na cenie papieru wartościowego, pomijając jodnocześnie problem ryzyka płynności. W artykule zaproponowano miarę płynności, opartą na prawdopodobieństwie zawarcia transakcji, w sposób bezpośredni odwołującą się do intuicyjnej definicji tego pojęcia. Badania dotyczyły wpływu zmian limitów cen oraz ilości papierów wartościowych w zleceniach kupna oraz sprzedaży na płynność akcji wybranej grupy przedsiębiorstw. Uzyskane wyniki sugerują, że poziom ryzyka płynności jest uzależniony od kapitalizacji rynkowej przedsiębiorstwa. Stwierdzono również występowanie asymetrii pomiędzy ryzykiem płynności transakcji kupna i sprzedaży. Analiza struktury czasowej badanego zjawiska wskazała ponadto na wyraźne różnice w poziomie ryzyka płynności w czasie trwania sesji giełdowej.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2003, 166
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza płynności papierów wartościowych notowanych w systemie WARSET - czas
Liquidity Analysis of Stocks in WARSET - Time
Autorzy:
Garsztka, Przemysław
Matuszewski, Przemysław
Wieloch, Karol
Powiązania:
https://bibliotekanauki.pl/articles/906672.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
płynność papierów
płynność papierów wartościowych
analiza płynności
prawdopodobieństwo zawarcia transakcji
Opis:
Garsztka, Matuszewski, and Wieloch (2003) proposed a new method of constructing a liquidity measure, based on the probability of closing a transaction that depends on the price limit and turnover volume. To extend the approach, they attempted to add another risk factor, i.e. the lime needed for the transaction to be concluded. The article presents research findings concerning stock liquidity and the probability of concluding a transaction for a specific number of stocks, at a set price, and by a given date.
W pracy Garsztki, Matuszewskiego i Wielocha (2003) autorzy zaproponowali sposób konstrukcji miary płynności, opartej na prawdopodobieństwie zawarcia transakcji, uzależnionej od limitu ceny oraz od wolumenu obrotu. Rozszerzeniem problemu jest próba uzupełnienia miary o dodatkowy czynnik ryzyka, jakim jest czas oczekiwania na zawarcie transakcji. W prezentowanym artykule przedstawiono wyniki badań dotyczące płynności papierów wartościowych oraz prawdopodobieństw zawarcia transakcji na określoną liczbę papierów wartościowych po ustalonej cenie w założonym terminie.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2004, 177
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza porównawcza wybranych strategii losowego testowania oprogramowania
A comparison analysis of some random software testing strategy
Autorzy:
Worwa, K.
Powiązania:
https://bibliotekanauki.pl/articles/404150.pdf
Data publikacji:
2010
Wydawca:
Polskie Towarzystwo Symulacji Komputerowej
Tematy:
analiza porównawcza
losowe testowanie oprogramowania
testowanie w pełni losowe
strukturalne testowanie losowe
prawdopodobieństwo
comparative analysis
random software testing
random testing
partition testing
probability
Opis:
W pracy przedstawione są wyniki analizy porównawczej dwóch, najczęściej wykorzystywanych w praktyce, strategii losowego tworzenia zbioru danych testowych: testowania w pełni losowego (random testing) i strukturalnego testowania losowego (partition testing). Zawarte w pracy rozważania mają na celu określenie warunków, dla których jedna z ww. strategii testowania losowego jest lepsza od drugiej, w sensie prawdopodobieństwa wykrycia co najmniej jednego błędu za pomocą utworzonych w oparciu o nie, tak samo licznych zbiorów danych testowych. Przedstawione rozważania zostały zilustrowane wynikami eksperymentów symulacyjnych, służących porównaniu efektywności analizowanych strategii testowania.
Both partition testing and random testing methods are commonly followed practice towards selection of test cases. For partition testing, the program’s input domain is divided into subsets, called subdomains, and one or more representatives from each subdomain are selected to test the program. In random testing test cases are selected from the entire program’s input domain randomly. The main aim of the paper is to compare the fault-detecting ability of partition testing and random testing methods. The results of comparing the effectiveness of partition testing and random testing may be surprising to many people. Even when partition testing is better than random testing at finding faults, the difference in effectiveness is marginal. Using some effectiveness metrics for testing and some partitioning schemes this paper investigates formal conditions for partition testing to be better than random testing and vice versa.
Źródło:
Symulacja w Badaniach i Rozwoju; 2010, 1, 3; 309-321
2081-6154
Pojawia się w:
Symulacja w Badaniach i Rozwoju
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wpływu prawdopodobieństwa mutacji algorytmu genetycznego w problemie projektowania filtrów
Analysis of the influence of genetic algorithm mutation probability on design of filters
Autorzy:
Rutczyńska-Wdowiak, K.
Powiązania:
https://bibliotekanauki.pl/articles/156635.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
algorytmy genetyczne
prawdopodobieństwo mutacji
projektowanie filtrów
genetic algorithms
probability of mutation
design of filters
Opis:
Praca przedstawia rezultaty zastosowania algorytmu genetycznego (AG) w problemie projektowania filtru cyfrowego na przykładzie jego prototypu analogowego. Badania koncentrowały się na określeniu wpływu wartości prawdopodobieństwa mutacji AG, na dokładność i czas uzyskania rozwiązania. W pracy opisano problem minimalizacji, reprezentację osobników oraz operatory genetyczne: krzyżowanie arytmetyczne, mutację równomierną i selekcję turniejową z częściową wymianą populacji.
This paper presents the results of application of a genetic algorithm (GA) to design of a digital filter on example of its analog prototype. The results of investigations of the influence of GA parameter values, such as the probability of mutation, on the process of searching the solution are analysed. There are described in the paper: the problem of minimisation, representation of the individuals as well as the genetic operators: arithmetical crossover, uniform mutation and tournament selection with steady state. The analysis of the genetic method with regard to the convergence and accuracy for the process of searching solution and time of numerical calculations was carried out. The genetic algorithm differs from traditional methods and, therefore, the chance of determining the local minimum instead of the global one is considerably smaller than in the case of using the classical method. Genetic algorithms have stochastic character, so they do not guarantee obtaining the optimum solution. However, it is expected that the best individual (with the least value of the function ana-lysed) will represent the solution nearing the optimum one. Because of this character of the GA every starting of the minimisation procedure (runs) gives the results differing slightly and, therefore, usually the best result obtained from ten independent experiments or the average result is given.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 1, 1; 19-21
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis and evaluation of risks in underground mining using the decision matrix risk-assessment (DMRA) technique, in Guanajuato, Mexico
Autorzy:
Domínguez, Claudia Rivera
Martínez, Ignacio Villanueva
Piñón Peña, Paloma María
Rodríguez Ochoa, Adolfo
Powiązania:
https://bibliotekanauki.pl/articles/92096.pdf
Data publikacji:
2019
Wydawca:
Główny Instytut Górnictwa
Tematy:
risk
probability
decision matrix risk-assessment technique
DMRA technique
occupational accidents
underground mining
Secretaría del Trabajo y Previsión social
ryzyko
prawdopodobieństwo
technika oceny ryzyka macierzy decyzji
technika DMRA
wypadki przy pracy
górnictwo podziemne
Opis:
In this article special emphasis is placed on the importance of underground mining worldwide, in the Country of Mexico and in the State of Guanajuato, thereby generating the hiring of operational personnel to perform the main activities of this sector such as blasting, use of machinery and equipment, exploitation, fortification and amacize. Occupational accidents and diseases occur as a result of the aforementioned activities since the conditions in which workers work are not the most appropriate. To help improve working conditions, the decision matrix risk-assessment (DMRA) technique was applied, in which accidents are classified according to their severity and probability, in order to perform an assessment of the risks and identify the activities that should continue in the same manner, those that require control measures and, as a last resort, those activities that must stop. At the end of the study, corrective actions are proposed that can help to avoid the occurrence of the accidents presented, through the application of occupational safety and health regulations issued by the Secretaría del Trabajo y Previsión Social, which is a government entity that is responsible for both the issuing of and compliance with those regulations. Also establishes the obligations that must be documented according to rules that are applicable to mining activities.
Źródło:
Journal of Sustainable Mining; 2019, 18, 1; 52-59
2300-1364
2300-3960
Pojawia się w:
Journal of Sustainable Mining
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of the influence on expressway safety of ramps
Autorzy:
Hu, J. J.
Li, F.
Han, B.
Yao, J.
Powiązania:
https://bibliotekanauki.pl/articles/224137.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
expressway safety
safety
on and off ramp
delay
accidents occurrence probability
droga ekspresowa
bezpieczeństwo na drodze ekspresowej
rampa włączania i wyłączania
opóźnienie
prawdopodobieństwo wystąpienia awarii
Opis:
As the very important parts of the expressway system, on and off ramps have a great effect on the operation effect of expressways. Once congestion occurs at on and off ramps, it will directly affect the safety of the expressway and vehicles. So this paper first analyzes the location design of on ramps, the length and the influences on the expressway running state of off ramp downstream traffic state, and establishes the expressway operation models based at on and off ramps. The expressway operation models include off ramp delay model, on ramp delay model, expressway delay model and side road delay model under the influence of the distance between on and off ramp and traffic volume. At the same time, the paper analyzes the connection between the traffic operation state and traffic safety, and establishes the expressway safety model based on congestion degree. Through simulation verification, the impact of on and off ramp on the security of the expressway is analyzed. In the simulation, safety rank division is simulated to verify and safety index of different safety ranks. Finally the paper concludes that the delay caused by traffic of the on and off ramps can decrease the safety of expressway.
Źródło:
Archives of Transport; 2017, 43, 3; 43-51
0866-9546
2300-8830
Pojawia się w:
Archives of Transport
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Arriving air traffic separations generalized model identification
Autorzy:
Pawełek, Adrian
Lichota, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/2173648.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
air traffic
system identification
maximum likelihood
modelling
ruch lotniczy
identyfikacja systemu
prawdopodobieństwo maksymalne
modelowanie
Opis:
Quick development of computer techniques and increasing computational power allow for building high-fidelity models of various complex objects and processes using historical data. One of the processes of this kind is an air traffic, and there is a growing need for traffic mathematical models as air traffic is increasing and becoming more complex to manage. This study concerned the modelling of a part of the arrival process. The first part of the research was air separation modelling by using continuous probability distributions. Fisher information matrix was used for the best fit selection. The second part of the research consisted of applying regression models that best match the parameters of representative distributions. Over a dozen airports were analyzed in the study and that allowed to build a generalized model for aircraft air separation in function of traffic intensity. Results showed that building a generalized model which comprises traffic from various airports is possible. Moreover, aircraft air separation can be expressed by easy to use mathematical functions. Models of this kind can be used for various applications, e.g.: air separation management between aircraft, airports arrival capacity management, and higher-level air traffic simulation or optimization tasks.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 2; art. no. e140694
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Asymptotic Normality of Single Functional Index Quantile Regression for Functional Data with Missing Data at Random
Asymptotyczna normalność regresji kwantylowej pojedynczego wskaźnika funkcyjnego dla danych funkcjonalnych z losowymi brakującymi danymi
Autorzy:
Allal, Anis
Kadiri, Nadia
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/31233546.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
asymptotic normality
functional data analysis
functional single-index process
missing at random
nonparametric estimation
small ball probability
asymptotyczna normalność
funkcjonalna analiza danych
funkcjonalny proces poje- dynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
This work addresses the problem of the nonparametric estimation of the regression function, namely the conditional distribution and the conditional quantile in the single functional index model (SFIM) under the independent and identically distributed condition with randomly missing data. The main result of this study was the establishment of the asymptotic properties of the estimator, such as the almost complete convergence rates. Moreover, the asymptotic normality of the constructs was obtained under certain mild conditions. Lastly, the authors discussed how to apply the result to construct confidence intervals.
W artykule autorzy prowadzą rozważania dotyczące problemu nieparametrycznej estymacji funkcji regresji, a mianowicie rozkładu warunkowego i kwantyla warunkowego w modelu pojedynczego indeksu funkcjonalnego (SFIM) przy założeniu niezależnych i z identycznym rozkładem danych z losowymi brakami danych. Głównym rezultatem przeprowadzonych badań było ustalenie asymptotycznych właściwości estymatora, takich jak prawie całkowite współczynniki zbieżności. Co więcej, asymptotyczną normalność konstruktów uzyskano dla pewnych łagodnych warunków. Na koniec omówiono, jak zastosować uzyskany wynik do skonstruowania przedziałów ufności.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 1; 26-38
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies