Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "probability theory" wg kryterium: Temat


Tytuł:
Statystyczno-fizyczne modele przeplywu masy i energii w osrodku porowatym
Statistical-physical models of mass and energy transfer in porous medium
Autorzy:
Usowicz, B
Powiązania:
https://bibliotekanauki.pl/articles/1402003.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Agrofizyki PAN
Tematy:
gleby
porowatosc gleby
przeplyw wody
osrodki porowate
modele fizyczne
przewodnosc hydrauliczna
przewodnosc elektryczna
przenikalnosc elektryczna
przeplyw masy
przeplyw energii
rachunek prawdopodobienstwa
soil
soil porosity
water flow
porous medium
physical medicine
hydraulic conductivity
electrical conductance
permittivity
mass flow
energy flow
probability theory
Opis:
he exchange of mass and energy taking place in a porous medium is the main goal of studies of many scientific branches and agrophysics belongs to them. This process is measured and calculated as the quantity of mass and energy transferred from one thermodynamic system to another and is to be determined on the basis of its transport properties. A new statistical model of the mass and energy transfer has been formulated in this paper on the bases of the most fundamental conceptions and ideas of mechanics, thermodynamics and electrodynamics. This new model makes possible the description of connection between the properties of the porous medium and the directly measured physical values. The model enabled for consideration of the following porous medium properties:electrical properties of the porous medium from the viewpoint of determination of its salinity on the basis of the measured bulk electrical conductivity and determination of its moisture content from the measurement of the porous medium dielectric constant, hydraulic, pneumatic and diffusive properties of porous medium resulting in determination of its gas and water conductivity as well as in determination of its diffusivity from the water retention curves, thermal properties of the porous medium leading to determination of its thermal conductivity from the basic properties of solid, liquid and gas phases forming this medium. The calculations based on this new statistical model and comparison of the calculated results with the data measured as well as statistical analysis can be a basis to the statement, that this model predicts the mass and energy transfer with the satisfactory accuracy. This procedure confirms correctness of the assumptions introduced and simplifications used during its construction as well as permits for the statement that the parameters were fitted properly.
Źródło:
Acta Agrophysica; 2000, 29; 1-112
1234-4125
Pojawia się w:
Acta Agrophysica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Nieredukowalna sprzeczność
Irreducible Contradiction
Autorzy:
Perakh, Mark
Powiązania:
https://bibliotekanauki.pl/articles/553193.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Zielonogórski. Instytut Filozofii
Tematy:
Michael J. Behe
nieredukowalna złożoność
mechanizm samokomensacyjny
rachunek prawdopodobieństwa
algorytmiczna teoria prawdopodobieństwa
teoria inteligentnego projektu
ewolucja
irreducible complexity
self-compensation mechanism
probability calculus
algorithmic theory of probability
intelligent design theory
evolution
Opis:
Niniejszy artykuł jest rozdziałem książki Marka Perakha, Unintelligent Design. W rozdziale tym krytykuje on Michaela Behe’ego koncepcję nieredukowalnej złożoności. Perakh argumentuje, że nieredukowalna złożoność jakiegoś układu – przeciwnie do tego, co twierdzi Behe – wcale nie wskazuje na inteligentny projekt, lecz oznacza, że powstał on w sposób przypadkowy. Według Perakha systemy inteligentnie zaprojektowane to takie, które charakteryzują się względną prostotą, i które mają wbudowane mechanizmy kompensujące stratę lub uszkodzenie jakiegoś składnika. Utrzymuje on, że prawdopodobieństwo spontanicznego powstania złożonego systemu, który pełni pewną funkcję, jest dużo większe niż prawdopodobieństwo spontanicznego powstania układu, pełniącego tę samą funkcję w prostszy sposób.
The article is a chapter excerpted from Mark Perakh’s book Unintelligent Design. In this chapter he criticizes Michael Behe’s concept of irreducible complexity. Author argues that irreducible complexity of a system – contrary to Behe’s opinion – does not bespeak intelligent design at all, but means it originated by chance. Intelligently designed systems, according to the author, are those which are characterized by relative simplicity and have embedded mechanisms compensating loss or damage of one of the components. In his opinion, the probability of spontaneous generation of a complex system which performs some function is much higher than the probability of spontaneous generation of a system performing the same function in a simpler way.
Źródło:
Filozoficzne Aspekty Genezy; 2004, 1; 71-113
2299-0356
Pojawia się w:
Filozoficzne Aspekty Genezy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Structural reliability - fuzzy sets theory approach
Niezawodność konstrukcji w ujęciu teorii zbiorów rozmytych
Autorzy:
Szeliga, E.
Powiązania:
https://bibliotekanauki.pl/articles/281923.pdf
Data publikacji:
2004
Wydawca:
Polskie Towarzystwo Mechaniki Teoretycznej i Stosowanej
Tematy:
probability theory
fuzzy sets theory
reliability of structure
Opis:
In the paper two kinds of uncertainty: randomness and imprecision are proposed to be considered in a structure description. Imprecise experts' opinions can be described using fuzzy numbers. As a results, the reliability analysis of a structure can be based on the limit state function with fuzzy parameters. As a consequence, the structural failure or survival can be treated as fuzzy events. The probabilities of these fuzzy events can be the upper and the lower estimations of the structural reliability. They can be achieved using well-known reliability methods (e.g. Hasofer-Lind index and Monte Carlo simulations). They can be used as a base for the calibration of partial safety factors in desing codes.
W niniejszej pracy proponuje się uwzględnić w opisie konstrukcji dwa rodzaje niepewności: losowość i nieprecyzyjność. Nieprecyzyjne oceny ekspertów dotyczące konstrukcji proponuje się opisywać za pomocą liczb rozmytych. W rezultacie, niezawodność konstrukcji określać się będzie w oparciu o funkcję stanu granicznego z rozmytymi parametrami. W konsekwencji, awarię konstrukcji lub jej brak traktować się będzie jako rozmyte zdarzenia losowe. Prawdopodobieństwa tych zdarzeń stanowić będą dolne i górne oszacowanie niezawodności konstrukcji. Można je wyznaczać za pomocą metod stosowanych już w niezawodności (np. wskaźnik Hasofera-Linda lub metody Monte Carlo). Mogą one służyć jako podstawa kalibrowania częściowych współczynników bezpieczeństwa w normach projektowych.
Źródło:
Journal of Theoretical and Applied Mechanics; 2004, 42, 3; 651-666
1429-2955
Pojawia się w:
Journal of Theoretical and Applied Mechanics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Geneza prawdopodobieństwa
The origin of probability
Autorzy:
Heller, Michał
Powiązania:
https://bibliotekanauki.pl/articles/690886.pdf
Data publikacji:
2006
Wydawca:
Copernicus Center Press
Tematy:
probability theory
dynamics
noncommutative geometry
free calculus of probability
classical probability
quantum probability
Opis:
After briefly reviewing classical and quantum aspects of probability, basic concepts of the noncommutative calculus of probability (called also free calculus of probability) and its possible application to model the fundamental level of physics are presented. It is shown that the pair (M, *), where M is a (noncommutative) von Neumann algebra, and a state on it, is both a dynamical object and a probabilistic object. In this way, dynamics and probability can be unified in noncommutative geometry. Some philosophical consequences of such an approach are indicated.
Źródło:
Zagadnienia Filozoficzne w Nauce; 2006, 38; 61-75
0867-8286
2451-0602
Pojawia się w:
Zagadnienia Filozoficzne w Nauce
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An Application of Mathematical Theory of Evidence in Navigation
Autorzy:
Filipowicz, W.
Powiązania:
https://bibliotekanauki.pl/articles/116718.pdf
Data publikacji:
2009
Wydawca:
Uniwersytet Morski w Gdyni. Wydział Nawigacyjny
Tematy:
mathematical theory of evidence (MTE)
MTE in Navigation
marine navigation
Dempster-Shafer theory
Probability Assignment
Fuzzy Values
Uncertainty
Belief Structures
Opis:
Plenty of various quality data are available to the officer of watch. The data of various qualities comes from different navigational aids. This kind of data creates new challenge regarding information association. The challenge is met by Mathematical Theory of Evidence. The theory delivers methods enabling combination of various sources of data. Results of association have informative context increased. Associated data enable the navigator to refine his position and his status regarding dangerous places. The procedure involves uncertainty, ambiguity and vague evidence. Imprecise and incomplete evidence can be combined using extended Dempster-Shafer reasoning scheme.
Źródło:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation; 2009, 3, 4; 423-430
2083-6473
2083-6481
Pojawia się w:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generalization of probability density of random variables
Autorzy:
Ziółkowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/121982.pdf
Data publikacji:
2009
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
zmienne losowe
funkcja delta Dirac'a
rachunek prawdopodobieństwa
funkcje matematyczne
random variables
Dirac delta function
theory of probability
mathematical function
Opis:
In this paper we present generalization of probability density of random variables. It is obvious that probability density is definite only for absolute continuous variables. However, in many practical applications we need to define the analogous concept also for variables of other types. It can be easily shown that we are able to generalize the concept of density using distributions, especially Dirac’s delta function.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2009, 14; 163-172
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Surmounting Information Gaps Using Average Probability Density Function
Pokonywanie luk informacyjnych za pomocą przeciętnej funkcji gęstości prawdopodobieństwa
Autorzy:
Piegat, A.
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156044.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sieci Bayesa
luki informacyjne
zasada nierozróżnialności
teoria niepewności
sztuczna inteligencja
teoria prawdopodobieństwa
Bayes networks
information gaps
principle of indifference
uncertainty theory
artificial intelligence
probability theory
Opis:
In many problems we come across the lack of complete data. The information gap causes that the task seems to be unsolvable. In many cases where the Bayes' networks or Bayes' rule are used, we come across the information gap which is the lack of a priori distribution. The article presents the methods of identifying the average probability density distribution when we know the range of variable and we have some quality knowledge on the distribution. The obtained average probability density distribution minimizes medium squared error. According to the authors' knowledge the average probability density distribution is the novelty in the word literature.
W wielu rzeczywistych problemach często spotykamy się z brakiem danych koniecznych do ich rozwiązania. Dotyczy to zwłaszcza zadań projektowania nowych systemów technicznych, ale i też ekonomicznych, medycznych, agrarnych i innych. Istnienie luk w problemie powoduje, że zadanie wydaje się nierozwiązywalne. W takiej sytuacji, aby w ogóle rozwiązać postawiony problem konieczne jest zaangażowanie ekspertów, którzy są często w stanie podać przybliżone oszacowanie danej brakującej do rozwiązania problemu. Niestety, oszacowania eksperckie zwykle nie są precyzyjnymi liczbami, lecz przedziałami możliwych wartości zmiennej lub też probabilistycznymi rozkładami możliwej wartości brakującej zmiennej. Zatem, aby rozwiązać dany problem konieczne jest wykonywanie operacji na rozkładach gęstości prawdopodobieństwa. Jednym z narzędzi służących do tego celu jest reguła Bayesa. Jest ona np. podstawą do przetwarzania informacji w sieciach wnioskowania probabilistycznego zwanych skrótowo sieciami Bayesa. Zwykle luką informacyjną w tych sieciach jest brak rozkładu a priori zmiennej koniecznego do obliczenia rozkładu a posteriori. W takiej sytuacji, jako rozkład a priori stosowany jest zwykle rozkład równomierny reprezentujący kompletną niewiedzę dotyczącą jakościowych cech rozkładu. Jednak taką wiedzę często posiada ekspert problemu. Artykuł prezentuje metodę identyfikacji przeciętnego rozkładu gęstości prawdopodobieństwa zmiennej dla przypadku, gdy ekspert zna nie tylko zakres możliwych wartości zmiennej, ale także posiada pewną wiedzę o jakościowych cechach rozkładu. Otrzymany z użyciem wiedzy eksperta przeciętny rozkład gęstości prawdopodobieństwa zmniejsza znacznie ryzyko popełnienia katastrofalnie dużych błędów w rozwiązywaniu problemów z lukami informacyjnymi. Według wiedzy autorów koncepcja przeciętnego rozkładu gęstości prawdopodobieństwa jest nowością w literaturze światowej.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 793-795
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An influence of service discipline on characteristics of a single-server queue with non-homogeneous customers
Autorzy:
Tikhonenko, O.
Gola, A.
Ziółkowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/122059.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
single-server queueing system
customers loss probability
analytical model
simulation
queueing theory
system kolejkowy z jednym serwerem
prawdopodobieństwo utraty klientów
model analityczny
symulacja
teoria kolejkowania
Opis:
For single-server queueing systems with non-homogeneous customers having some random space requirements we compare processor-sharing and FIFO disciplines and investigate their influence on the total sum of space requirements characteristics (when this sum is not limited, i.e. V = ∞) and customers loss probability (when this sum is limeted, i.e. V < ∞), using analytical modeling and simulation.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2010, 15; 191-200
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Harmonogramowanie budowy z uwzględnieniem nieprecyzyjnie określonych ograniczeń planistycznych
Construction scheduling with imprecisely defined planning constraints
Autorzy:
Kulejewski, J.
Powiązania:
https://bibliotekanauki.pl/articles/347862.pdf
Data publikacji:
2010
Wydawca:
Akademia Wojsk Lądowych imienia generała Tadeusza Kościuszki
Tematy:
optymalizacja harmonogramu budowy
ograniczenia planistyczne
teoria możliwości
zbiory rozmyte
liczby rozmyte
prawdopodobieństwo
construction schedule optimization
planning constraints
possibility theory
fuzzy sets
fuzzy numbers
probability
Opis:
Przedmiotem referatu jest zagadnienie sporządzania harmonogramu budowy z uwzględnieniem nieprecyzyjnie określonych ograniczeń dostępności zasobów odnawialnych i nieprecyzyjnie określonego ograniczenia czasu na wykonanie robót. Do modelowania nieprecyzyjnie określonych ograniczeń wykorzystano trapezowe liczby rozmyte. Przedstawiono dwie metody oceny dotrzymania nieprecyzyjnie określonych ograniczeń. Metoda pierwsza polega na ocenie stopnia dotrzymania danego ograniczenia na podstawie założeń teorii możliwości. Metoda druga polega na wykorzystaniu koncepcji - przekrojów liczby rozmytej i miary probabilistycznej do oceny prawdopodobieństwa dotrzymania danego ograniczenia. Sformułowano wariantowe zadania optymalizacji harmonogramu budowy z uwzględnieniem obu metod oceny. Przedstawione przykłady liczbowe potwierdzają, że wykorzystanie miary probabilistycznej zapewnia neutralizację ocen dotrzymania rozmytych ograniczeń. Ponadto, polepsza wyniki optymalizacji harmonogramu budowy, pozwalając na zaplanowanie wykonania robót w krótszym czasie i przy niSszym poziomie zużycia zasobów odnawialnych, niż w przypadku wykorzystania teorii możliwości.
The problem undertaken in this paper regards the scheduling of construction projects under imprecisely defined constraints of time and resources available for the execution of works. A single-point network model with finish-to-start relations between activities is adopted to represent the course of construction. Durations of works take account of the expected effects of possible interference (bad weather, equipment failures, etc.). The paper presents the principles of modeling imprecisely defined planning constraints using trapezoidal fuzzy numbers and the principles of assessing compliance with fuzzy restrictions using possibility theory. A probabilistic approach in conjunction with the concept of Α-cuts of fuzzy numbers is proposed for the neutralization of assessments to meet the fuzzy constraints. The paper also presents a numerical example showing the advantages of the use of probability measure to optimize the construction schedule in the terms of imprecisely defined planning constraints.
Źródło:
Zeszyty Naukowe / Wyższa Szkoła Oficerska Wojsk Lądowych im. gen. T. Kościuszki; 2010, 3; 350-365
1731-8157
Pojawia się w:
Zeszyty Naukowe / Wyższa Szkoła Oficerska Wojsk Lądowych im. gen. T. Kościuszki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Nieprzemienne rachunki prawdopodobieństwa
Noncommutative calculi of probabilty
Autorzy:
Heller, Michał
Powiązania:
https://bibliotekanauki.pl/articles/690918.pdf
Data publikacji:
2010
Wydawca:
Copernicus Center Press
Tematy:
theory of probability
noncommutative theory of probability
algebra
noncommutative geometry
quantum mechanics
probability measures
Opis:
The paper can be regarded as a short and informal introduction to noncommutative calculi of probability. The standard theory of probability is reformulated in the algebraic language. In this form it is readily generalized to that its version which is virtually present in quantum mechanics, and then generalized to the so-called free theory of probability. Noncommutative theory of probability is a pair (M, φ) where M is a von Neumann algebra, and φ a normal state on M which plays the role of a noncommutative probability measure. In the standard (commutative) theory of probability, there is, in principle, one mathematically interesting probability measure, namely the Lebesgue measure, whereas in the noncommutative theories there are many nonequivalent probability measures. Philosophical implications of this fact are briefly discussed.
Źródło:
Zagadnienia Filozoficzne w Nauce; 2010, 47; 38-53
0867-8286
2451-0602
Pojawia się w:
Zagadnienia Filozoficzne w Nauce
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal estimator of hypothesis probability for data mining problems with small samples
Autorzy:
Piegat, A
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/330967.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
estymacja prawdopodobieństwa
interpretacja częstotliwości prawdopodobieństwa
interpretacja kompletności prawdopodobieństwa
teoria niepewności
single case problem
probability estimation
frequency interpretation of probability
completeness interpretation of probability
uncertainty theory
Opis:
The paper presents a new (to the best of the authors' knowledge) estimator of probability called the "[...] completeness estimator" along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik's m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the [...] completeness estimator over the frequency estimator for the probability interval ph (0.1, 0.9). The frequency estimator is better for ph [0, 0.1] and ph [0.9, 1].
Źródło:
International Journal of Applied Mathematics and Computer Science; 2012, 22, 3; 629-645
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
W obronie tak zwanych „pragmatycznych” uzasadnień probabilizmu
In defence of the so–called pragmatic arguments for probabilism
Autorzy:
Dziurosz-Serafinowicz, Patryk
Powiązania:
https://bibliotekanauki.pl/articles/431209.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Tematy:
probabilizm
teoria prawdopodobieństwa
zakład holenderski
twierdzenie o reprezentacji
stopnie przekonań
Finetti B. de
Ramsey F.P.
Christensen D.
Maher P.
Zynda L.
probabilism
theory of probability
Dutch book
representation theorem
degrees of belief
Opis:
Celem artykułu jest obrona tak zwanych „pragmatycznych” uzasadnień probabilizmu, tj. tezy mówiącej, iż stopnie przekonania racjonalnego podmiotu powinny być zgodne z aksjomatami teorii prawdopodobieństwa. Analizowane uzasadnienia to: Argument z Zakładu Holenderskiego (AZH) oraz Argument z Twierdzenia o Reprezentacji (ATR). Oba te argumenty natrafiają na szereg problemów istotnie podważających ich wartość, a tym samym probabilizm (operacjonizm, wymuszony zakład, itd.). W niniejszym artykule wykazane zostało, iż odpowiednia reinterpretacja tych argumentów prowadzi do wyeliminowania najistotniejszych problemów.
The aim of this article is to defend the so-called “pragmatic” arguments for probabilism, i.e., a thesis which holds that a rational agent’s degrees of belief should be modeled by the theory of probability. Two such arguments are analyzed: Dutch-Book Argument (DBA) and Representation Theorem Argument (RTA). Both of these arguments encounter a number of problems that seriously undermine their value, and thus probabilism (operationalism, a forced bet, etc.) The article shows that amongst the various interpretations of DBA and RTA we can find those that are able to resolve the main difficulties that beset those arguments.
Źródło:
Studia Philosophiae Christianae; 2013, 49, 2; 49-78
0585-5470
Pojawia się w:
Studia Philosophiae Christianae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An extended problem to Bertrands paradox
Autorzy:
Ardakani, Mostafa
Wulff, Shaun
Powiązania:
https://bibliotekanauki.pl/articles/729808.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
probability space
probability theory
problem modeling
random chords
Opis:
Bertrand's paradox is a longstanding problem within the classical interpretation of probability theory. The solutions 1/2, 1/3, and 1/4 were proposed using three different approaches to model the problem. In this article, an extended problem, of which Bertrand's paradox is a special case, is proposed and solved. For the special case, it is shown that the corresponding solution is 1/3. Moreover, the reasons of inconsistency are discussed and a proper modeling approach is determined by careful examination of the probability space.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2014, 34, 1-2; 23-34
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzified probability : from Kolmogorov to Zadeh and beyond
Autorzy:
Frič, R.
Papčo, M.
Powiązania:
https://bibliotekanauki.pl/articles/121928.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
matematyka stosowana
zastosowania matematyki
teoria prawdopodobieństwa
Kolmogorov A. N.
Zadeh L. A.
CPT
FPT
OPT
applied mathematics
application of mathematics
probability theory
fuzzy probability theory
operational probability theory
Opis:
We discuss the fuzzification of classical probability theory. In particular, we point out similarities and differences between the so-called fuzzy probability theory and the so-called operational probability theory.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2014, 19; 179-188
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metrics in organizational centralization and decentralization
Wskaźniki w centralizacji i decentralizacji organizacji
Autorzy:
Modrak, V.
Radu, S. M.
Modrak, J.
Powiązania:
https://bibliotekanauki.pl/articles/405188.pdf
Data publikacji:
2014
Wydawca:
Politechnika Częstochowska
Tematy:
structural analysis
discrete probability distribution
graph theory
structure centralization
analiza strukturalna
dyskretny rozkład prawdopodobieństwa
teoria grafów
centralizacja struktury
Opis:
Continual improvement of business processes requires, apart from other efforts, to develop effective metrics, by which managers and/or process engineers will be able to manage the organization's growth. Obviously, there are plenty measures that can be taken to optimize processes. Once effective metrics are identified, the assessment team should do what works best for them. In this paper, an organizational “centralization” or “decentralization” is a matter of interest. The dichotomous term “centralization/decentralization” itself is somewhat inappropriate in the sense that an organizational centralization is not a goal, but rather a means to help us plan and to set goals. Naturally, approaches to the “centralization/ decentralization” measures depend on many factors. The paper's scope is explicitly limited to the vertical decentralization that is concerned with the delegation of decision-making power down the chain of authority. Subsequently, we are also interested to explore network centralization issues.
Ciągłe doskonalenie procesów biznesowych wymaga, oprócz innych działań, opracowania skutecznych wskaźników, dzięki którym menedżerowie i / lub technolodzy będą mogli zarządzać rozwojem organizacji. Oczywiście, istnieje wiele działań, które mogą zostać podjęte w celu optymalizacji procesów. Kiedy oznaczone są skuteczne wskaźniki, zespół oceniający powinien robić to, co jest dla nich najlepsze. W niniejszym artykule przedmiotem zainteresowania jest organizacyjna "centralizacja" lub "decentralizacja". Dychotomiczne pojęcie "centralizacja / decentralizacja" samo w sobie jest nieco niestosowne w tym sensie, że centralizacja organizacyjna nie jest celem, lecz środkiem, aby pomóc nam planować i wyznaczać cele. Oczywiście podejścia do środków „centralizacji / decentralizacji" zależą od wielu czynników. Zakres artykułu jest wyraźnie ograniczony do decentralizacji pionowej, która dotyczy delegowania uprawnień decyzyjnych w dół łańcucha władzy. W późniejszym czasie, jesteśmy również zainteresowani zbadaniem kwestii centralizacji sieci.
Źródło:
Polish Journal of Management Studies; 2014, 10, 2; 104-114
2081-7452
Pojawia się w:
Polish Journal of Management Studies
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies