Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "incremental learning" wg kryterium: Temat


Wyświetlanie 1-6 z 6
Tytuł:
Parallel PBIL applied to power system controller design
Autorzy:
Folly, K.
Powiązania:
https://bibliotekanauki.pl/articles/91747.pdf
Data publikacji:
2013
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
Population-Based Incremental Learning algorithm
PBIL algorithm
Opis:
Population-Based Incremental Learning (PBIL) algorithm is a combination of evolutionary optimization and competitive learning derived from artificial neural networks. PBIL has recently received increasing attention in various engineering fields due to its effectiveness, easy implementation and robustness. Despite these strengths, it was reported in the last few years that PBIL suffers from issues of loss of diversity in the population. To deal with this shortcoming, this paper uses parallel PBIL based on multi-population. In parallel PBIL, two populations are used where both probability vectors (PVs) are initialized to 0.5. It is believed that by introducing two populations, the diversity in the population can be increased and better results can be obtained. The approach is applied to power system controller design. Simulations results show that the parallel PBIL approach performs better than the standard PBIL and is as effective as another diversity increasing PBIL called adaptive PBIL.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2013, 3, 3; 215-223
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Semi-supervised approach to handle sudden concept drift in Enron data
Autorzy:
Kmieciak, M. R.
Stefanowski, J.
Powiązania:
https://bibliotekanauki.pl/articles/206052.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
concept drift
incremental learning of classifiers
email foldering
Enron data
Opis:
Detection of concept changes in incremental learning from data streams and classifier adaptation is studied in this paper. It is often assumed that all processed learning examples are always labeled, i.e. the class label is available for each example. As it may be difficult to satisfy this assumption in practice, in particular in case of data streams, we introduce an approach that detects concept drift in unlabeled data and retrains the classifier using a limited number of additionally labeled examples. The usefulness of this partly supervised approach is evaluated in the experimental study with the Enron data. This real life data set concerns classification of user's emails to multiple folders. Firstly, we show that the Enron data are characterized by frequent sudden changes of concepts. We also demonstrate that our approach can precisely detect these changes. Results of the next comparative study demonstrate that our approach leads to the classification accuracy comparable to two fully supervised methods: the periodic retraining of the classifier based on windowing and the trigger approach with the DDM supervised drift detection. However, our approach reduces the number of examples to be labeled. Furthermore, it requires less updates of retraining classifiers than windowing.
Źródło:
Control and Cybernetics; 2011, 40, 3; 667-695
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Beta neuro-fuzzy systems
Autorzy:
Alimi, A. M.
Powiązania:
https://bibliotekanauki.pl/articles/1931568.pdf
Data publikacji:
2003
Wydawca:
Politechnika Gdańska
Tematy:
beta function
kernel based neural networks
Sugeno fuzzy model
neuro-fuzzy systems
universal approximation property
learning algorithms
incremental learning
Opis:
In this paper we present the Beta function and its main properties. A key feature of the Beta function, which is given by the central-limit theorem, is also given. We then introduce a new category of neural networks based on a new kernel: the Beta function. Next, we investigate the use of Beta fuzzy basis functions for the design of fuzzy logic systems. The functional equivalence between Beta-based function neural networks and Beta fuzzy logic systems is then shown with the introduction of Beta neuro-fuzzy systems. By using the SW theorem and expanding the output of the Beta neuro-fuzzy system into a series of Beta fuzzy-based functions, we prove that one can uniformly approximate any real continuous function on a compact set to any arbitrary accuracy. Finally, a learning algorithm of the Beta neuro-fuzzy system is described and illustrated with numerical examples.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2003, 7, 1; 23-41
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probabilistic model-building algorithms as tool to find optimum of a function
Algorytmy z modelem probabilistycznym jako narzędzie optymalizacji funkcji
Autorzy:
Reichel, A.
Nowak, I.
Powiązania:
https://bibliotekanauki.pl/articles/87296.pdf
Data publikacji:
2015
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
algorytm PBIL
algorytm cGA
metody heurystyczne
optymalizacja
population-based incremental learning
compact genetic algorithm
heuristic methods
optimization
Opis:
The aim of this paper is to present the probabilistic modelbuilding heuristics which is a modification of an evolutionary algorithm. the Probabilistic-Based Incremental Learning (PBIL) and the compact Genetic Algorithm (cGA) is presented as a example of the probabilistic model building algorithms dedicated to the binary problems. Both heuristics are tested on three functions that allow to investigate the advantages, disadvantages and limitations of methods under consideration.
Celem niniejszego artykułu jest przedstawienie heurystyk wieloagentowych wykorzystujących model probabilistyczny. W artykule omówiono dwie metody: the Probabilistic-Based Incremental Learning (PBIL) oraz the compact Genetic Algorithm (cGA), będące przykładami heurystyk z modelem probabilistycznym. Obie metody są przeznaczone do rozwiązywania problemów binarnych. W ramach pracy metody te testowano na trzech funkcjach zdefiniowanych w przestrzeni ciągów binarnych. Testy miały zbadać zalety, wady oraz ograniczenia obu prezentowanych heurystyk populacyjnych.
Źródło:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska; 2015, 5; 79-97
2084-073X
Pojawia się w:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Epokowo-inkrementacyjny algorytm uczenia się ze wzmocnieniem wykorzystujący kryterium średniego wzmocnienia
The epoch-incremental reinforcement learning algorithm based on the average reward
Autorzy:
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/152882.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
uczenie się ze wzmocnieniem
R-learning
algorytm epokowo-inkrementacyjny
average reward reinforcement learning
epoch-incremental reinforcement learning
Opis:
W artykule zaproponowano nowy, epokowo – inkrementacyjny algorytm uczenia się ze wzmocnieniem. Główną ideą tego algorytmu jest przeprowadzenie w trybie epokowym dodatkowych aktualizacji strategii w oparciu o odległości aktywnych w przeszłości stanów od stanu terminalnego. Zaproponowany algorytm oraz algorytmy R(0)-learning, R(λ)-learning, Dyna-R oraz prioritized sweeping-R zastosowano do sterowania modelem samochodu górskiego oraz modelem kulki umieszczonej na balansującej belce.
The application of the average reward reinforcement learning algorithms in the control were described in this paper. Moreover, new epoch-incremental reinforcement learning algorithm (EIR(0)-learning for short) was proposed. In this algorithm, the basic R(0)-learning algorithm was implemented in the incremental mode and the environment model was created. In the epoch mode, on the basis of the model, the distances of past active states to the terminal state were determined. These distances were then used in the update strategy. The proposed algorithm was applied to mountain car (Fig. 4) and ball-beam (Fig. 5) models. The proposed EIR(0)-learning was empirically compared to R(0)-learning [4, 6], R(λ)-learning and model based algorithms: Dyna-R and prioritized sweeping-R [11]. In the case of ball-beam system, EIR(0)-learning algorithm reached the stable control strategy after the smallest number of trials (Tab. 1, column 2). For the mountain car system, the number of trials was smaller than in the case of R(0)-learning and R(λ)-learning algorithms, but greater than for Dyna-R and prioritized sweeping-R. It is worth to pay attention to the fact that the execution times of Dyna-R and prioritized sweeping-R algorithms in the incremental mode were respectively 5 and 50 times longer than for proposed EIR(0)-learning algorithm (Tab. 2, column 3). The main conclusion of this work is that the epoch – incremental learning algorithm provided the stable control strategy in relatively small number of trials and in short time of single iteration.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 7, 7; 700-703
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Epoch-incremental reinforcement learning algorithms
Autorzy:
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/330530.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
reinforcement learning
epoch incremental algorithm
grid world
uczenie ze wzmocnieniem
algorytm przyrostowy
Opis:
In this article, a new class of the epoch-incremental reinforcement learning algorithm is proposed. In the incremental mode, the fundamental TD(0) or TD(λ) algorithm is performed and an environment model is created. In the epoch mode, on the basis of the environment model, the distances of past-active states to the terminal state are computed. These distances and the reinforcement terminal state signal are used to improve the agent policy.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 3; 623-635
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-6 z 6

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies