Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "teoria prawdopodobieństwa" wg kryterium: Temat


Wyświetlanie 1-11 z 11
Tytuł:
Ocena czasu oczekiwania na przystankach dla losowych zgłoszeń pasażerów
Assessment of waiting time in urban transit system for random passenger arrival at a stop
Autorzy:
Horbachov, P.
Chyghyk, V.
Powiązania:
https://bibliotekanauki.pl/articles/249121.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
miejski system przesiadkowy
czas oczekiwania
teoria prawdopodobieństwa
urban transit system
waiting time
probability theory
Opis:
W artykule zdefiniowano problem i przedstawiono ujęcie analityczne modelowania obliczeń czasu oczekiwania na przystanku, gdy zgłoszenie pasażera na przystanek na charakter losowy. Rozważany jest szeroki zakres zmienności przebiegów tras linii – poczynając od przyjęcia pełnej zgodności interwałów kursowania linii w rozkładach jazdy do całkowicie losowych odjazdów pojazdów z przystanków pośrednich. Zostały również porównane doświadczalne i teoretyczne oszacowania czasów oczekiwania na przystankach dla podstawowych linii.
The paper presents the problem definition and analytical modeling for waiting time calculation in urban transit system when passengers arrive at a transit stop randomly. The wide range of variants of the urban transit routes operation services is considered – from full implementation of the identical headways schedule to the completely random departure time of transport units from a terminal. Also, experimental and theoretical estimates of a passenger waiting time for a certain route are compared.
Źródło:
Zeszyty Naukowo-Techniczne Stowarzyszenia Inżynierów i Techników Komunikacji w Krakowie. Seria: Materiały Konferencyjne; 2014, 1(103); 87-98
1231-9171
Pojawia się w:
Zeszyty Naukowo-Techniczne Stowarzyszenia Inżynierów i Techników Komunikacji w Krakowie. Seria: Materiały Konferencyjne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Non-standard tasks in mathematical education
Autorzy:
Major, J.
Major, M.
Powiązania:
https://bibliotekanauki.pl/articles/121823.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
edukacja matematyczna
umiejętności matematyczne
teoria prawdopodobieństwa
wiedza matematyczna
zadania matematyczne
mathematical education
mathematical skills
probability theory
mathematical knowledge
mathematical tasks
Opis:
Mathematical knowledge and skills have been playing a more and more important role in our daily lives. At the same time, solving tasks is the essence of mathematics understood as a field of human activity. The subject of this paper are selected issues concerning some atypical tasks which play important role in mathematical education. Presented task is related to the elementary knowledge of probability theory.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2014, 19; 115-119
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Nieredukowalna sprzeczność
Irreducible Contradiction
Autorzy:
Perakh, Mark
Powiązania:
https://bibliotekanauki.pl/articles/553193.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Zielonogórski. Instytut Filozofii
Tematy:
Michael J. Behe
nieredukowalna złożoność
mechanizm samokomensacyjny
rachunek prawdopodobieństwa
algorytmiczna teoria prawdopodobieństwa
teoria inteligentnego projektu
ewolucja
irreducible complexity
self-compensation mechanism
probability calculus
algorithmic theory of probability
intelligent design theory
evolution
Opis:
Niniejszy artykuł jest rozdziałem książki Marka Perakha, Unintelligent Design. W rozdziale tym krytykuje on Michaela Behe’ego koncepcję nieredukowalnej złożoności. Perakh argumentuje, że nieredukowalna złożoność jakiegoś układu – przeciwnie do tego, co twierdzi Behe – wcale nie wskazuje na inteligentny projekt, lecz oznacza, że powstał on w sposób przypadkowy. Według Perakha systemy inteligentnie zaprojektowane to takie, które charakteryzują się względną prostotą, i które mają wbudowane mechanizmy kompensujące stratę lub uszkodzenie jakiegoś składnika. Utrzymuje on, że prawdopodobieństwo spontanicznego powstania złożonego systemu, który pełni pewną funkcję, jest dużo większe niż prawdopodobieństwo spontanicznego powstania układu, pełniącego tę samą funkcję w prostszy sposób.
The article is a chapter excerpted from Mark Perakh’s book Unintelligent Design. In this chapter he criticizes Michael Behe’s concept of irreducible complexity. Author argues that irreducible complexity of a system – contrary to Behe’s opinion – does not bespeak intelligent design at all, but means it originated by chance. Intelligently designed systems, according to the author, are those which are characterized by relative simplicity and have embedded mechanisms compensating loss or damage of one of the components. In his opinion, the probability of spontaneous generation of a complex system which performs some function is much higher than the probability of spontaneous generation of a system performing the same function in a simpler way.
Źródło:
Filozoficzne Aspekty Genezy; 2004, 1; 71-113
2299-0356
Pojawia się w:
Filozoficzne Aspekty Genezy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Surmounting Information Gaps Using Average Probability Density Function
Pokonywanie luk informacyjnych za pomocą przeciętnej funkcji gęstości prawdopodobieństwa
Autorzy:
Piegat, A.
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156044.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sieci Bayesa
luki informacyjne
zasada nierozróżnialności
teoria niepewności
sztuczna inteligencja
teoria prawdopodobieństwa
Bayes networks
information gaps
principle of indifference
uncertainty theory
artificial intelligence
probability theory
Opis:
In many problems we come across the lack of complete data. The information gap causes that the task seems to be unsolvable. In many cases where the Bayes' networks or Bayes' rule are used, we come across the information gap which is the lack of a priori distribution. The article presents the methods of identifying the average probability density distribution when we know the range of variable and we have some quality knowledge on the distribution. The obtained average probability density distribution minimizes medium squared error. According to the authors' knowledge the average probability density distribution is the novelty in the word literature.
W wielu rzeczywistych problemach często spotykamy się z brakiem danych koniecznych do ich rozwiązania. Dotyczy to zwłaszcza zadań projektowania nowych systemów technicznych, ale i też ekonomicznych, medycznych, agrarnych i innych. Istnienie luk w problemie powoduje, że zadanie wydaje się nierozwiązywalne. W takiej sytuacji, aby w ogóle rozwiązać postawiony problem konieczne jest zaangażowanie ekspertów, którzy są często w stanie podać przybliżone oszacowanie danej brakującej do rozwiązania problemu. Niestety, oszacowania eksperckie zwykle nie są precyzyjnymi liczbami, lecz przedziałami możliwych wartości zmiennej lub też probabilistycznymi rozkładami możliwej wartości brakującej zmiennej. Zatem, aby rozwiązać dany problem konieczne jest wykonywanie operacji na rozkładach gęstości prawdopodobieństwa. Jednym z narzędzi służących do tego celu jest reguła Bayesa. Jest ona np. podstawą do przetwarzania informacji w sieciach wnioskowania probabilistycznego zwanych skrótowo sieciami Bayesa. Zwykle luką informacyjną w tych sieciach jest brak rozkładu a priori zmiennej koniecznego do obliczenia rozkładu a posteriori. W takiej sytuacji, jako rozkład a priori stosowany jest zwykle rozkład równomierny reprezentujący kompletną niewiedzę dotyczącą jakościowych cech rozkładu. Jednak taką wiedzę często posiada ekspert problemu. Artykuł prezentuje metodę identyfikacji przeciętnego rozkładu gęstości prawdopodobieństwa zmiennej dla przypadku, gdy ekspert zna nie tylko zakres możliwych wartości zmiennej, ale także posiada pewną wiedzę o jakościowych cechach rozkładu. Otrzymany z użyciem wiedzy eksperta przeciętny rozkład gęstości prawdopodobieństwa zmniejsza znacznie ryzyko popełnienia katastrofalnie dużych błędów w rozwiązywaniu problemów z lukami informacyjnymi. Według wiedzy autorów koncepcja przeciętnego rozkładu gęstości prawdopodobieństwa jest nowością w literaturze światowej.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 793-795
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Włodzimierz Krysicki, a mathematician--stochastician (1905-2001)
Autorzy:
Gerstenkorn, Tadeusz
Powiązania:
https://bibliotekanauki.pl/articles/749764.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Matematyczne
Tematy:
in memoriam, probability theory and statistics in Poland, Technical University of Łódź, mathematical education
wspomnienie, teoria prawdopodobieństwa i statystyka w Polsce, Politechnika Łódzka, kształcenie matematyczne
Opis:
W 2015 roku minęła 110 rocznica urodzin łódzkiego uczonego, matematyka zajmującego się głównie teorią prawdopodobieństwa i statystyką. Jako pierwszy promowany przez niego doktor oraz wieloletni współpracownik pragnę przypomnieć postać profesora z uwagi na Jego duże zasługi dla nauki i wychowania polskiej, zwłaszcza łódzkiej, młodzieży akademickiej.
The year 2015 marked the  110th anniversary of the birth of a Łódź-based scholar , a mathematician dealing mainly with probability theory and statistics. As the first PhD defending under his direction and a longtime collaborator, I would like to recall the professor's personage because of his great merits in educating Polish academic youth, especially in Łódź.
Źródło:
Antiquitates Mathematicae; 2016, 10
1898-5203
2353-8813
Pojawia się w:
Antiquitates Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzified probability : from Kolmogorov to Zadeh and beyond
Autorzy:
Frič, R.
Papčo, M.
Powiązania:
https://bibliotekanauki.pl/articles/121928.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
matematyka stosowana
zastosowania matematyki
teoria prawdopodobieństwa
Kolmogorov A. N.
Zadeh L. A.
CPT
FPT
OPT
applied mathematics
application of mathematics
probability theory
fuzzy probability theory
operational probability theory
Opis:
We discuss the fuzzification of classical probability theory. In particular, we point out similarities and differences between the so-called fuzzy probability theory and the so-called operational probability theory.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2014, 19; 179-188
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
W obronie tak zwanych „pragmatycznych” uzasadnień probabilizmu
In defence of the so–called pragmatic arguments for probabilism
Autorzy:
Dziurosz-Serafinowicz, Patryk
Powiązania:
https://bibliotekanauki.pl/articles/431209.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Tematy:
probabilizm
teoria prawdopodobieństwa
zakład holenderski
twierdzenie o reprezentacji
stopnie przekonań
Finetti B. de
Ramsey F.P.
Christensen D.
Maher P.
Zynda L.
probabilism
theory of probability
Dutch book
representation theorem
degrees of belief
Opis:
Celem artykułu jest obrona tak zwanych „pragmatycznych” uzasadnień probabilizmu, tj. tezy mówiącej, iż stopnie przekonania racjonalnego podmiotu powinny być zgodne z aksjomatami teorii prawdopodobieństwa. Analizowane uzasadnienia to: Argument z Zakładu Holenderskiego (AZH) oraz Argument z Twierdzenia o Reprezentacji (ATR). Oba te argumenty natrafiają na szereg problemów istotnie podważających ich wartość, a tym samym probabilizm (operacjonizm, wymuszony zakład, itd.). W niniejszym artykule wykazane zostało, iż odpowiednia reinterpretacja tych argumentów prowadzi do wyeliminowania najistotniejszych problemów.
The aim of this article is to defend the so-called “pragmatic” arguments for probabilism, i.e., a thesis which holds that a rational agent’s degrees of belief should be modeled by the theory of probability. Two such arguments are analyzed: Dutch-Book Argument (DBA) and Representation Theorem Argument (RTA). Both of these arguments encounter a number of problems that seriously undermine their value, and thus probabilism (operationalism, a forced bet, etc.) The article shows that amongst the various interpretations of DBA and RTA we can find those that are able to resolve the main difficulties that beset those arguments.
Źródło:
Studia Philosophiae Christianae; 2013, 49, 2; 49-78
0585-5470
Pojawia się w:
Studia Philosophiae Christianae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal estimator of hypothesis probability for data mining problems with small samples
Autorzy:
Piegat, A
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/330967.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
estymacja prawdopodobieństwa
interpretacja częstotliwości prawdopodobieństwa
interpretacja kompletności prawdopodobieństwa
teoria niepewności
single case problem
probability estimation
frequency interpretation of probability
completeness interpretation of probability
uncertainty theory
Opis:
The paper presents a new (to the best of the authors' knowledge) estimator of probability called the "[...] completeness estimator" along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik's m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the [...] completeness estimator over the frequency estimator for the probability interval ph (0.1, 0.9). The frequency estimator is better for ph [0, 0.1] and ph [0.9, 1].
Źródło:
International Journal of Applied Mathematics and Computer Science; 2012, 22, 3; 629-645
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Conjoint jako metoda pomiaru preferencji odroczonych loterii – komunikat z badań
Autorzy:
Czupryna, Marcin
Kubińska, Elżbieta
Markiewicz, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/494288.pdf
Data publikacji:
2014-12-15
Wydawca:
Akademia Leona Koźmińskiego w Warszawie
Tematy:
analiza conjoint
efekt interakcji
dyskontowanie prawdopodobieństwa
dyskontowanie czasu
loterie odroczone
teoria pomiaru łącznego
Opis:
Głównym celem artykułu jest dyskusja zastosowań metody conjoint do badania preferencji odroczonych loterii. Omówiono jedną z pierwszych teorii z dziedziny psychologii matematycznej: teorię pomiaru łącznego. Następnie przedstawiono wywodzącą się z teorii pomiaru łącznego metodę analizy danych – analizę conjoint, która jest bardzo popularna głównie w badaniach marketingowych. Skupiono się na dwóch wersjach: klasycznej analizie conjoint (ang. Conjoint Value Analysis, CVA) oraz metodzie conjoint opartej na wyborach (ang. Choice-Based Conjoint, CBC). Wyniki badania wskazują, że zmiany w wymiarze prawdopodobieństwa wypłaty determinują wybór silniej niż zmiany w wymiarze odroczenia.
Źródło:
Decyzje; 2014, 22; 71-100
1733-0092
2391-761X
Pojawia się w:
Decyzje
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metrics in organizational centralization and decentralization
Wskaźniki w centralizacji i decentralizacji organizacji
Autorzy:
Modrak, V.
Radu, S. M.
Modrak, J.
Powiązania:
https://bibliotekanauki.pl/articles/405188.pdf
Data publikacji:
2014
Wydawca:
Politechnika Częstochowska
Tematy:
structural analysis
discrete probability distribution
graph theory
structure centralization
analiza strukturalna
dyskretny rozkład prawdopodobieństwa
teoria grafów
centralizacja struktury
Opis:
Continual improvement of business processes requires, apart from other efforts, to develop effective metrics, by which managers and/or process engineers will be able to manage the organization's growth. Obviously, there are plenty measures that can be taken to optimize processes. Once effective metrics are identified, the assessment team should do what works best for them. In this paper, an organizational “centralization” or “decentralization” is a matter of interest. The dichotomous term “centralization/decentralization” itself is somewhat inappropriate in the sense that an organizational centralization is not a goal, but rather a means to help us plan and to set goals. Naturally, approaches to the “centralization/ decentralization” measures depend on many factors. The paper's scope is explicitly limited to the vertical decentralization that is concerned with the delegation of decision-making power down the chain of authority. Subsequently, we are also interested to explore network centralization issues.
Ciągłe doskonalenie procesów biznesowych wymaga, oprócz innych działań, opracowania skutecznych wskaźników, dzięki którym menedżerowie i / lub technolodzy będą mogli zarządzać rozwojem organizacji. Oczywiście, istnieje wiele działań, które mogą zostać podjęte w celu optymalizacji procesów. Kiedy oznaczone są skuteczne wskaźniki, zespół oceniający powinien robić to, co jest dla nich najlepsze. W niniejszym artykule przedmiotem zainteresowania jest organizacyjna "centralizacja" lub "decentralizacja". Dychotomiczne pojęcie "centralizacja / decentralizacja" samo w sobie jest nieco niestosowne w tym sensie, że centralizacja organizacyjna nie jest celem, lecz środkiem, aby pomóc nam planować i wyznaczać cele. Oczywiście podejścia do środków „centralizacji / decentralizacji" zależą od wielu czynników. Zakres artykułu jest wyraźnie ograniczony do decentralizacji pionowej, która dotyczy delegowania uprawnień decyzyjnych w dół łańcucha władzy. W późniejszym czasie, jesteśmy również zainteresowani zbadaniem kwestii centralizacji sieci.
Źródło:
Polish Journal of Management Studies; 2014, 10, 2; 104-114
2081-7452
Pojawia się w:
Polish Journal of Management Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Prospect Theory and First Price Auctions: an Explanation of Overbidding
Teoria perspektywy i aukcje pierwszej ceny: wyjaśnienie przebijania
Autorzy:
Josheski, Dushko
Apostolov, Mico
Powiązania:
https://bibliotekanauki.pl/articles/2196133.pdf
Data publikacji:
2023
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
cumulative prospect theory
first-price auctions
overbidding
probability weighting function (PWF)
inverse S-shaped functions
kumulatywna teoria perspektywy
aukcje pierwszej ceny
przelicytowanie
funkcja ważenia prawdopodobieństwa
odwrotne funkcje S-kształtne
Opis:
This paper attempted using the prospect theory to explain overbidding in first price auctions. The standard outlook in the literature on auctions is that bidders overbid, but the probability weighting functions are nonlinear as in the prospect theory, so they not only tend to underweight the probabilities of winning the auction but also overweight, so that there are overbidders and underbidders. This paper proves that to some extent, non-linear weighting functions do explain overbidding the risk-neutral Nash equilibrium valuation (RNNE). Furthermore, coherent risk measures, such as certainty equivalent and translation invariance, were used to show loss aversion among bidders, and in line with the prospect theory, convexity was also confirmed with sub-additivity, monotonicity and with positive homogeneity.
W artykule podjęto próbę wykorzystania teorii perspektywy do wyjaśnienia przebijania cen w przetargach pierwszej ceny. Standardowym wynikiem w literaturze związanej z aukcjami jest to, że licytanci przebijają ceny, ale funkcje ważenia prawdopodobieństwa są nieliniowe, jak w teorii perspektywy, więc nie tylko mają tendencję do zaniżania wagi prawdopodobieństw wygrania aukcji, ale także przeważania, tak że są licytanci przebijający i oferenci słabsi. Artykuł ten dowodzi, że do pewnego stopnia nieliniowe funkcje ważenia wyjaśniają zawyżanie neutralnej pod względem ryzyka wyceny równowagi Nasha (RNNE). Ponadto zastosowano spójne miary ryzyka, takie jak ekwiwalent pewności i niezmienniczość translacji, aby wykazać awersję do strat wśród oferentów zgodnie z teorią perspektywy, wypukłość została również potwierdzona subaddytywnością, monotonicznością i dodatnią jednorodnością.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2023, 27, 1; 33-74
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-11 z 11

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies