Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "reinforcement learning" wg kryterium: Temat


Wyświetlanie 1-5 z 5
Tytuł:
Epokowo-inkrementacyjny algorytm uczenia się ze wzmocnieniem wykorzystujący kryterium średniego wzmocnienia
The epoch-incremental reinforcement learning algorithm based on the average reward
Autorzy:
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/152882.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
uczenie się ze wzmocnieniem
R-learning
algorytm epokowo-inkrementacyjny
average reward reinforcement learning
epoch-incremental reinforcement learning
Opis:
W artykule zaproponowano nowy, epokowo – inkrementacyjny algorytm uczenia się ze wzmocnieniem. Główną ideą tego algorytmu jest przeprowadzenie w trybie epokowym dodatkowych aktualizacji strategii w oparciu o odległości aktywnych w przeszłości stanów od stanu terminalnego. Zaproponowany algorytm oraz algorytmy R(0)-learning, R(λ)-learning, Dyna-R oraz prioritized sweeping-R zastosowano do sterowania modelem samochodu górskiego oraz modelem kulki umieszczonej na balansującej belce.
The application of the average reward reinforcement learning algorithms in the control were described in this paper. Moreover, new epoch-incremental reinforcement learning algorithm (EIR(0)-learning for short) was proposed. In this algorithm, the basic R(0)-learning algorithm was implemented in the incremental mode and the environment model was created. In the epoch mode, on the basis of the model, the distances of past active states to the terminal state were determined. These distances were then used in the update strategy. The proposed algorithm was applied to mountain car (Fig. 4) and ball-beam (Fig. 5) models. The proposed EIR(0)-learning was empirically compared to R(0)-learning [4, 6], R(λ)-learning and model based algorithms: Dyna-R and prioritized sweeping-R [11]. In the case of ball-beam system, EIR(0)-learning algorithm reached the stable control strategy after the smallest number of trials (Tab. 1, column 2). For the mountain car system, the number of trials was smaller than in the case of R(0)-learning and R(λ)-learning algorithms, but greater than for Dyna-R and prioritized sweeping-R. It is worth to pay attention to the fact that the execution times of Dyna-R and prioritized sweeping-R algorithms in the incremental mode were respectively 5 and 50 times longer than for proposed EIR(0)-learning algorithm (Tab. 2, column 3). The main conclusion of this work is that the epoch – incremental learning algorithm provided the stable control strategy in relatively small number of trials and in short time of single iteration.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 7, 7; 700-703
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Uczenie ze wzmocnieniem regulatora Takagi-Sugeno metodą elementów ASE/ACE
Reinforcement learning with use of neuronlike elements ASE/ACE of Takagi-Sugeno controller
Autorzy:
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/156302.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
regulator rozmyty
uczenie ze wzmocnieniem
wahadło odwrócone
fuzzy controller
reinforcement learning
inverted pendulum
Opis:
W artykule opisano zastosowanie algorytmu uczenia ze wzmocnieniem metodą elementów ASE/ACE do uczenia następników reguł regulatora rozmytego Takagi-Sugeno. Poprawność proponowanych rozwiązań zweryfikowano symulacyjnie w sterowaniu układem wahadło odwrócone - wózek. Przeprowadzono również eksperymenty porównawcze z klasyczną siecią elementów ASE/ACE. Pokazano zalety i wady rozwiązania klasycznego i rozmytego.
The adaptation of reinforcement learning algorithm with the use of ASE/ACE elements for rule consequence learning of the Takagi-Sugeno fuzzy logic controller is proposed. The solution is applied to control of the cart-pole system and tested by computer simulations. The original neuronlike elements ASE/ACE are simulated as well. Advantages and disadvantages of the both approaches (fuzzy and classical) are demonstrated.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 47-49
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Self-learning controller of active magnetic bearing based on CARLA method
Samo uczący sie sterownik aktywnego łozyslka magnetycznego oparty na metodzie CARLA
Autorzy:
Brezina, T.
Turek, M.
Pulchart, J.
Powiązania:
https://bibliotekanauki.pl/articles/152983.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sterowanie aktywnego łożyska magnetycznego
active magnetic bearing control
continuous action reinforcement learning automata
Opis:
The active magnetic bearing control through analytically designed linear PD regulator, with parallel nonlinear compensation represented by automatic approximator is described in this contribution. Coefficient (parameter) values come from actions of Continuous Action Reinforcement Learning Automata (CARLAs). Influence of CARLAs parameters to learning is discussed. Parameters influence is proved by simulation study. It is shown that learning improvement can be reached by selecting appropriate parameters of learning.
W artykule przedstawiono sterowanie aktywnego łożyska magnetycznego za pomocą analitycznie dobranego regulatora PD z nieliniową kompensacją równoległą. Współczynniki kompensacji są wyznaczane automatycznie z użyciem metody CARLA (Continuous Action Reinforcement Automata). Zbadano wpływ parametrów metody na proces uczenia się kompensatora w oparciu o eksperymenty symulacyjne. Wykazano, że właściwy dobór parametrów metody prowadzi do poprawienia skuteczności procesu uczenia się.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 1, 1; 6-9
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O doborze reguł sterowania dla regulatora rozmytego
About collecting of control for a fuzzy logic controller
Autorzy:
Wiktorowicz, K.
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/156306.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sterowanie rozmyte
sieci neuronowe
uczenie ze wzmocnieniem
fuzzy control
neural networks
reinforcement learning
stability
quality
Opis:
W pracy scharakteryzowano problem doboru reguł sterowania dla regulatora rozmytego. Omówiono metody pozyskiwania reguł za pomocą sieci neuronowej uczonej metodą z nauczycielem i ze wzmocnieniem. Przedstawiono zagadnienie badania stabilności i jakości zaprojektowanego układu. Omawiane problemy zilustrowano przykładowymi wynikami badań.
In the paper the problem of collecting of control rules a fuzzy logic controller is characterised. Two methods of generating of rules using neural network are described: supervised learning and reinforcement learning. the problem of stability and quality analysis is presented. The considerations are illustrated by examples.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 44-46
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Some improvements in the reinforcement learning of a mobile robot
Uczenie ze wzmocnieniem robotów mobilnych - propozycje usprawnień
Autorzy:
Pluciński, M.
Powiązania:
https://bibliotekanauki.pl/articles/153411.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
uczenie ze wzmocnieniem
sieci neuronowe RBF
roboty mobilne
reinforcement learning
probabilistic RBF neural network
mobile robot
Opis:
The paper presents application of the reinforcement learning to autonomous mobile robot moving learning in an unknown, stationary environment. The robot movement policy was represented by a probabilistic RBF neural network. As the learning process was very slow or even impossible for complicated environments, there are presented some improvements, which were found out to be very effective in most cases.
W artykule zaprezentowane jest zastosowanie uczenia ze wzmocnieniem w poszukiwaniu strategii ruchu autonomicznego robota mobilnego w nieznanym, stacjonarnym środowisku. Zadaniem robota jest dotarcie do zadanego i znanego mu punktu docelowego jak najkrótszą drogą i bez kolizji z przeszkodami. Stan robota określa jego położenie w stałym (związanym ze środowiskiem) układzie współrzędnych, natomiast akcja wyznaczana jest jako zadany kierunek ruchu. Strategia robota zdefiniowana jest pośrednio za pomocą funkcji wartości, którą reprezentuje sztuczna sieć neuronowa typu RBF. Sieci tego typu są łatwe w uczeniu, a dodatkowo ich parametry umożliwiają wygodną interpretację realizowanego odwzorowania. Ponieważ w ogólnym przypadku uczenie robota jest bardzo trudne, a w skomplikowanych środowiskach praktycznie niemożliwe, stąd w artykule zaprezentowanych jest kilka propozycji jego usprawnienia. Opisane są eksperymenty: z wykorzystaniem ujemnych wzmocnień generowanych przez przeszkody, z zastosowaniem heurystycznych sposobów podpowiadania robotowi właściwych zachowań w "trudnych" sytuacjach oraz z wykorzystaniem uczenia stopniowego. Badania wykazały, że najlepsze efekty uczenia dało połączenie dwóch ostatnich technik.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 12, 12; 1470-1473
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-5 z 5

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies