Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Bayes networks" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
A new algorithm for generation of decision trees
Autorzy:
Grzymała-Busse, J. W.
Hippe, Z. S.
Knap, M.
Mroczek, T.
Powiązania:
https://bibliotekanauki.pl/articles/1965778.pdf
Data publikacji:
2004
Wydawca:
Politechnika Gdańska
Tematy:
artificial intelligence
supervised machine learning
decision trees
Bayes networks
Opis:
A new algorithm for development of quasi-optimal decision trees, based on the Bayes theorem, has been created and tested. The algorithm generates a decision tree on the basis of Bayesian belief networks, created prior to the formation of the decision tree. The efficiency of this new algorithm was compared with three other known algorithms used to develop decision trees. The data set used for the experiments was a set of cases of skin lesions, histopatolgically verified.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2004, 8, 2; 243-247
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sieci Bayesa w rozpoznawaniu mowy
Bayes networks used in application to speech signal recognition
Autorzy:
Mermon, A.
Powiązania:
https://bibliotekanauki.pl/articles/274624.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
sieci Bayesa
sygnał mowy
cyfrowe przetwarzanie sygnałów
rozpoznawanie sygnału mowy
DBN
Bayes networks
speech signal
digital signal processing
speech signal recognition
Opis:
Problematyka rozpoznawania mowy nie doczekała się, jak dotąd, kompleksowego rozwiązania. Współczesne efektywne systemy rozpoznawania mowy korzystają najczęściej z metod stochastycznych opartych na ukrytych modelach Markowa. Alternatywą dla nich mogą być sieci Bayesa, będące odpowiednią strukturą do formułowania modeli probabilistycznych, które cechują się jednocześnie precyzją oraz zwartością. Sieci Bayesa mogą reprezentować rozkład prawdopodobieństwa dowolnego zbioru zmiennych losowych. Mnogość dostępnych obecnie algorytmów i narzędzi obliczeniowych sprawia, że testowanie i wdrażanie nowych rozwiązań staje się mniej pracochłonne. Zalety te determinują duże możliwości wykorzystania sieci Bayesa do rozwiązywania praktycznych problemów również w zakresie rozpoznawania mowy.
Speech recognition problem hasn't been fully-scaled solved till nowadays. Contemporary effective speech recognition systems mostly use stochastic methods based on Hidden Markov Models. Bayes networks can be alternative to them. BN are appropriate structures to formulate probabilistic models, which are simultaneously precise and compact. They can represent a probability distribution of arbitrary set of random variables. Variety of algorithms and computational tools which are available to use makes testing and implementing new solutions less demanding. Those advantages determine that Bayes networks have potential to be used in solving practical problems also in the area of speech recognition.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 12; 109-111
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Surmounting Information Gaps Using Average Probability Density Function
Pokonywanie luk informacyjnych za pomocą przeciętnej funkcji gęstości prawdopodobieństwa
Autorzy:
Piegat, A.
Landowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156044.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sieci Bayesa
luki informacyjne
zasada nierozróżnialności
teoria niepewności
sztuczna inteligencja
teoria prawdopodobieństwa
Bayes networks
information gaps
principle of indifference
uncertainty theory
artificial intelligence
probability theory
Opis:
In many problems we come across the lack of complete data. The information gap causes that the task seems to be unsolvable. In many cases where the Bayes' networks or Bayes' rule are used, we come across the information gap which is the lack of a priori distribution. The article presents the methods of identifying the average probability density distribution when we know the range of variable and we have some quality knowledge on the distribution. The obtained average probability density distribution minimizes medium squared error. According to the authors' knowledge the average probability density distribution is the novelty in the word literature.
W wielu rzeczywistych problemach często spotykamy się z brakiem danych koniecznych do ich rozwiązania. Dotyczy to zwłaszcza zadań projektowania nowych systemów technicznych, ale i też ekonomicznych, medycznych, agrarnych i innych. Istnienie luk w problemie powoduje, że zadanie wydaje się nierozwiązywalne. W takiej sytuacji, aby w ogóle rozwiązać postawiony problem konieczne jest zaangażowanie ekspertów, którzy są często w stanie podać przybliżone oszacowanie danej brakującej do rozwiązania problemu. Niestety, oszacowania eksperckie zwykle nie są precyzyjnymi liczbami, lecz przedziałami możliwych wartości zmiennej lub też probabilistycznymi rozkładami możliwej wartości brakującej zmiennej. Zatem, aby rozwiązać dany problem konieczne jest wykonywanie operacji na rozkładach gęstości prawdopodobieństwa. Jednym z narzędzi służących do tego celu jest reguła Bayesa. Jest ona np. podstawą do przetwarzania informacji w sieciach wnioskowania probabilistycznego zwanych skrótowo sieciami Bayesa. Zwykle luką informacyjną w tych sieciach jest brak rozkładu a priori zmiennej koniecznego do obliczenia rozkładu a posteriori. W takiej sytuacji, jako rozkład a priori stosowany jest zwykle rozkład równomierny reprezentujący kompletną niewiedzę dotyczącą jakościowych cech rozkładu. Jednak taką wiedzę często posiada ekspert problemu. Artykuł prezentuje metodę identyfikacji przeciętnego rozkładu gęstości prawdopodobieństwa zmiennej dla przypadku, gdy ekspert zna nie tylko zakres możliwych wartości zmiennej, ale także posiada pewną wiedzę o jakościowych cechach rozkładu. Otrzymany z użyciem wiedzy eksperta przeciętny rozkład gęstości prawdopodobieństwa zmniejsza znacznie ryzyko popełnienia katastrofalnie dużych błędów w rozwiązywaniu problemów z lukami informacyjnymi. Według wiedzy autorów koncepcja przeciętnego rozkładu gęstości prawdopodobieństwa jest nowością w literaturze światowej.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 793-795
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Learning the naive Bayes classifier with optimization models
Autorzy:
Taheri, S.
Mammadov, M.
Powiązania:
https://bibliotekanauki.pl/articles/908351.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
Bayesian networks
naive Bayes classifier
optimization
discretization
sieci bayesowskie
naiwny klasyfikator Bayesa
optymalizacja
dyskretyzacja
Opis:
Naive Bayes is among the simplest probabilistic classifiers. It often performs surprisingly well in many real world applications, despite the strong assumption that all features are conditionally independent given the class. In the learning process of this classifier with the known structure, class probabilities and conditional probabilities are calculated using training data, and then values of these probabilities are used to classify new observations. In this paper, we introduce three novel optimization models for the naive Bayes classifier where both class probabilities and conditional probabilities are considered as variables. The values of these variables are found by solving the corresponding optimization problems. Numerical experiments are conducted on several real world binary classification data sets, where continuous features are discretized by applying three different methods. The performances of these models are compared with the naive Bayes classifier, tree augmented naive Bayes, the SVM, C4.5 and the nearest neighbor classifier. The obtained results demonstrate that the proposed models can significantly improve the performance of the naive Bayes classifier, yet at the same time maintain its simple structure.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 4; 787-795
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies