Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "reinforcement learning" wg kryterium: Temat


Tytuł:
Optimal control of dynamic systems using a new adjoining cell mapping method with reinforcement learning
Autorzy:
Arribas-Navarro, T.
Prieto, S.
Plaza, M.
Powiązania:
https://bibliotekanauki.pl/articles/205725.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
optimal control
cells mapping
state space
reinforcement learning
stability
nonlinear control
controllability
Opis:
This work aims to improve and simplify the procedure used in the Control Adjoining Cell Mapping with Reinforcement Learning (CACM-RL) technique, for the tuning process of an optimal contro ller during the pre-learning stage (controller design), making easier the transition from a simulation environment to the real world. Common problems, encountered when working with CACM-RL, are the adjustment of the cell size and the long-term evolution error. In this sense, the main goal of the new approach, developed for CACM-RL that is proposed in this work (CACMRL*), is to give a response to both problems for helping engineers in defining of the control solution with accuracy and stability criteria instead of cell sizes. The new approach improves the mathematical analysis techniques and reduces the engineering effort during the design phase. In order to demonstrate the behaviour of CACM-RL*, three examples are described to show its application to real problems. In All the examples, CACM-RL* improves with respect to the considered alternatives. In some cases, CACM- RL* improves the average controllability by up to 100%.
Źródło:
Control and Cybernetics; 2015, 44, 3; 369-387
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reinforcement-Based Learning for Process Classification Task
Autorzy:
Bashir, Lubna Zaghlul
Powiązania:
https://bibliotekanauki.pl/articles/1192874.pdf
Data publikacji:
2016
Wydawca:
Przedsiębiorstwo Wydawnictw Naukowych Darwin / Scientific Publishing House DARWIN
Tematy:
Reinforcement Learning
Reward
Classification
Bucket Brigade Algorithm
Opis:
In this work, we present a reinforcement-based learning algorithm that includes the automatic classification of both sensors and actions. The classification process is prior to any application of reinforcement learning. If categories are not at the adequate abstraction level, the problem could be not learnable. The classification process is usually done by the programmer and is not considered as part of the learning process. However, in complex tasks, environments, or agents, this manual process could become extremely difficult. To solve this inconvenience, we propose to include the classification into the learning process. We apply an algorithm to automatically learn to achieve a task through reinforcement learning that works without needing a previous classification process. The system is called Fish or Ship (FOS) assigned the task of inducing classification rules for classification task described in terms of 6 attributes. The task is to categorize an object that has one or more of the following features: Sail, Solid, Big, Swim, Eye, Fins into one of the following: fish, or ship. First results of the application of this algorithm are shown Reinforcement learning techniques were used to implement classification task with interesting properties such as provides guidance to the system and shortening the number of cycles required to learn.
Źródło:
World Scientific News; 2016, 36; 12-26
2392-2192
Pojawia się w:
World Scientific News
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Influence of IQT on research in ICT
Autorzy:
Bednarski, Bogdan J.
Lepak, Łukasz E.
Łyskawa, Jakub J.
Pieńczuk, Paweł
Rosoł, Maciej
Romaniuk, Ryszard S.
Powiązania:
https://bibliotekanauki.pl/articles/2055259.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
ICT
control theory
IQT
Information Quantum Technologies
Quantum 2.0
applications of IQT
quantum systems
qubit neural networks
quantum time series forecasting;
Quantum Reinforcement Learning
Opis:
This paper is written by a group of Ph.D. students pursuing their work in different areas of ICT, outside the direct area of Information Quantum Technologies IQT. An ambitious task was undertaken to research, by each co-author, a potential practical influence of the current IQT development on their current work. The research of co-authors span the following areas of ICT: CMOS for IQT, QEC, quantum time series forecasting, IQT in biomedicine. The intention of the authors is to show how quickly the quantum techniques can penetrate in the nearest future other, i.e. their own, areas of ICT.
Źródło:
International Journal of Electronics and Telecommunications; 2022, 68, 2; 259--266
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Building computer vision systems using machine learning algorithms
Autorzy:
Boyko, N.
Dokhniak, B.
Korkishko, V.
Powiązania:
https://bibliotekanauki.pl/articles/411183.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
training with reinforcement
Q-Learning
neural networks
Markov environment
Opis:
This article is devoted to the algorithm of training with reinforcement (reinforcement learning). This article will cover various modifications of the Q-Learning algorithm, along with its techniques, which can accelerate learning using neural networks. We also talk about different ways of approximating the tables of this algorithm, consider its implementation in the code and analyze its behavior in different environments. We set the optimal parameters for its implementation, and we will evaluate its performance in two parameters: the number of necessary neural network weight corrections and quality of training.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2018, 7, 2; 9-14
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Self-learning controller of active magnetic bearing based on CARLA method
Samo uczący sie sterownik aktywnego łozyslka magnetycznego oparty na metodzie CARLA
Autorzy:
Brezina, T.
Turek, M.
Pulchart, J.
Powiązania:
https://bibliotekanauki.pl/articles/152983.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sterowanie aktywnego łożyska magnetycznego
active magnetic bearing control
continuous action reinforcement learning automata
Opis:
The active magnetic bearing control through analytically designed linear PD regulator, with parallel nonlinear compensation represented by automatic approximator is described in this contribution. Coefficient (parameter) values come from actions of Continuous Action Reinforcement Learning Automata (CARLAs). Influence of CARLAs parameters to learning is discussed. Parameters influence is proved by simulation study. It is shown that learning improvement can be reached by selecting appropriate parameters of learning.
W artykule przedstawiono sterowanie aktywnego łożyska magnetycznego za pomocą analitycznie dobranego regulatora PD z nieliniową kompensacją równoległą. Współczynniki kompensacji są wyznaczane automatycznie z użyciem metody CARLA (Continuous Action Reinforcement Automata). Zbadano wpływ parametrów metody na proces uczenia się kompensatora w oparciu o eksperymenty symulacyjne. Wykazano, że właściwy dobór parametrów metody prowadzi do poprawienia skuteczności procesu uczenia się.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 1, 1; 6-9
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Motor Control: Neural Models and Systems Theory
Autorzy:
Doya, K.
Kimura, H.
Miyamura, A.
Powiązania:
https://bibliotekanauki.pl/articles/908323.pdf
Data publikacji:
2001
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
adaptacyjny układ sterowania
model wielokrotny
inverse model
adaptive control
cerebellum
reinforcement learning
basal ganglia
multiple models
Opis:
In this paper, we introduce several system theoretic problems brought forward by recent studies on neural models of motor control. We focus our attention on three topics: (i) the cerebellum and adaptive control, (ii) reinforcement learning and the basal ganglia, and (iii) modular control with multiple models. We discuss these subjects from both neuroscience and systems theory viewpoints with the aim of promoting interplay between the two research communities.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2001, 11, 1; 77-104
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Concept of a self-learning workplace cell for worker assistance while collaboration with a robot within the self-adapting-production-planning-system
Koncepcja samouczącego się stanowiska pracy dla wspierania pracownika przy współpracy z robotem w układzie samoadaptacja-produkcja-planowanie
Autorzy:
Ender, Johanna
Wagner, Jan Cetric
Kunert, Georg
Guo, Fang Bin
Larek, Roland
Pawletta, Thorsten
Powiązania:
https://bibliotekanauki.pl/articles/407864.pdf
Data publikacji:
2019
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
human-robot collaboration
human factor
post-optimised reinforcement learning algorithm
self-adapting-production-planning-system
współpraca człowiek-robot
czynnik ludzki
zoptymalizowany poprawiony algorytm uczenia się
układ samoadaptacja-produkcja-planowanie
Opis:
For some time, the focus of past research on industrial workplace designs has been the optimization of processes from the technological point of view. Since human workers have to work within this environment the design process must regard Human Factor needs. The operators are under additional stress due to the range of high dynamic processes and due to the integration of robots and autonomous operating machines. There have been few studies on how Human Factors influence the design of workplaces for Human-Robot Collaboration (HRC). Furthermore, a comprehensive, systematic and human-centred design solution for industrial workplaces particularly considering Human Factor needs within HRC is widely uncertain and a specific application with reference to production workplaces is missing. The research findings described in this paper aim the optimization of workplaces for manual production and maintenance processes with respect to the workers within HRC. In order to increase the acceptance of integration of human-robot teams, the concept of the Assisting-Industrial-Workplace-System (AIWS) was developed. As a flexible hybrid cell for HRC integrated into a Self-Adapting-Production-Planning-System (SAPPS) assists the worker while interaction.
Wcześniejsze badania nad projektami przemysłowych miejsc pracy koncentrowały się od pewnego czasu na optymalizacji procesów z technologicznego punktu widzenia. Ze względu na konieczność pracy ludzi w takim środowisku, proces projektowania musi uwzględniać potrzeby czynnika ludzkiego. Operatorzy znajdują się pod dodatkowym obciążeniem ze względu na zakres procesów o wysokiej dynamice, integrację robotów i autonomicznych maszyn roboczych. Stosunkowo niewiele badań dotyczy wpływu czynników ludzkich na projektowanie miejsc pracy na potrzeby układów Human-Robot Collaboration (HRC). Co więcej, wszechstronne, systematyczne i ukierunkowane na człowieka rozwiązanie projektowe dla przemysłowych zakładów pracy, szczególnie uwzględniające potrzeby czynnika ludzkiego w HRC, jest szeroko niepewne i brak jest konkretnego zastosowania w odniesieniu do miejsc pracy w produkcji. Opisane w artykule wyniki badań mają na celu optymalizację miejsc pracy dla ręcznych procesów produkcji i utrzymania ruchu, w odniesieniu do pracowników w HRC. W celu zwiększenia akceptacji integracji zespołów ludzko-robotycznych opracowano koncepcję systemu wspomagania miejsca pracy (ang. Assisting-Industrial-Workplace-System, AIWS). Jako elastyczna komórka hybrydowa dla HRC zintegrowana z Samo-Adaptacyjnym Systemem Planowania Produkcji (ang. Self-Adapting-Production-Planning-System, SAPPS) pomaga pracownikowi podczas interakcji.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2019, 9, 4; 4-9
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep reinforcement learning overview of the state of the art
Autorzy:
Fenjiro, Y.
Benbrahim, H.
Powiązania:
https://bibliotekanauki.pl/articles/384788.pdf
Data publikacji:
2018
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
reinforcement learning
deep learning
convolutional network
recurrent network
deep reinforcement learning
Opis:
Artificial intelligence has made big steps forward with reinforcement learning (RL) in the last century, and with the advent of deep learning (DL) in the 90s, especially, the breakthrough of convolutional networks in computer vision field. The adoption of DL neural networks in RL, in the first decade of the 21 century, led to an end-toend framework allowing a great advance in human-level agents and autonomous systems, called deep reinforcement learning (DRL). In this paper, we will go through the development Timeline of RL and DL technologies, describing the main improvements made in both fields. Then, we will dive into DRL and have an overview of the state-ofthe- art of this new and promising field, by browsing a set of algorithms (Value optimization, Policy optimization and Actor-Critic), then, giving an outline of current challenges and real-world applications, along with the hardware and frameworks used. In the end, we will discuss some potential research directions in the field of deep RL, for which we have great expectations that will lead to a real human level of intelligence.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2018, 12, 3; 20-39
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Enhancements of Fuzzy Q-Learning algorithm
Rozszerzenia algorytmu Fuzzy Q-Learning
Autorzy:
Głowaty, G.
Powiązania:
https://bibliotekanauki.pl/articles/305545.pdf
Data publikacji:
2005
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
modele rozmyte
uczenie ze wzmocnieniem
Q-Learning
automatyczne tworzenie modeli rozmytych
fuzzy models
reinforcement learning
Q-learning
automatic generation of fuzzy models
Opis:
Fuzzy Q-Learning algorithm combines reinforcement learning techniques with fuzzy modelling. It provides a flexible solution for automatic discovery of rules for fuzzy systems in the process of reinforcement learning. In this paper we propose several enhancements to the original algorithm to make it more performant and more suitable for problems with continuous-input continuous-output space. Presented improvements involve generalization of the set of possible rule conclusions. The aim is not only to automatically discover an appropriate rule-conclusions assignment, but also to automatically define the actual conclusions set given the all possible rules conclusions. To improve algorithm performance when dealing with environments with inertness, a special rule selection policy is proposed.
Algorytm Fuzzy Q-Learning pozwala na automatyczny dobór reguł systemu rozmytego z użyciem technik uczenia ze wzmocnieniem. W niniejszym artykule zaproponowana została zmodyfikowana wersja oryginalnego algorytmu. Charakteryzuje się ona lepszą wydajnością działania w systemach z ciągłymi przestrzeniami wejść i wyjść. Algorytm rozszerzono o możliwość automatycznego tworzenia zbioru potencjalnych konkluzji reguł z podanego zbioru wszystkich możliwych konkluzji. Zaproponowano także nową procedurę wyboru reguł dla polepszenia prędkości działania w systemach z bezwładnością.
Źródło:
Computer Science; 2005, 7; 77-87
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of Modified Adaptive Heuristic Critic Algorithm for Novel Scheduling Mechanism in Packet-Switched Networks
Autorzy:
Jednoralski, M.
Kacprzak, T.
Powiązania:
https://bibliotekanauki.pl/articles/92909.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
reinforcement learning
telecommunication networks
packet scheduling
Opis:
In this paper a novel scheduling algorithm of packet selection in a switch node for transmission in a network channel, based on Reinforcement Learning and modified Adaptive Heuristic Critic is introduced. A comparison of two well known scheduling algorithms: Earliest Deadline First and Round Robin shows that these algorithms perform well in some cases, but they cannot adapt their behavior to traffic changes. Simulation studies show that novel scheduling algorithm outperforms Round Robin and Earliest Deadline First by adapting to changing of network conditions.
Źródło:
Studia Informatica : systems and information technology; 2005, 2(6); 21-34
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Markov Decision Process based Model for Performance Analysis an Intrusion Detection System in IoT Networks
Autorzy:
Kalnoor, Gauri
Gowrishankar, -
Powiązania:
https://bibliotekanauki.pl/articles/1839336.pdf
Data publikacji:
2021
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
DDoS
intrusion detection
IoT
machine learning
Markov decision process
MDP
Q-learning
NSL-KDD
reinforcement learning
Opis:
In this paper, a new reinforcement learning intrusion detection system is developed for IoT networks incorporated with WSNs. A research is carried out and the proposed model RL-IDS plot is shown, where the detection rate is improved. The outcome shows a decrease in false alarm rates and is compared with the current methodologies. Computational analysis is performed, and then the results are compared with the current methodologies, i.e. distributed denial of service (DDoS) attack. The performance of the network is estimated based on security and other metrics.
Źródło:
Journal of Telecommunications and Information Technology; 2021, 3; 42-49
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A compact DQN model for mobile agents with collision avoidance
Autorzy:
Kamola, Mariusz
Powiązania:
https://bibliotekanauki.pl/articles/27314243.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Q‐learning
DQN
reinforcement learning
Opis:
This paper presents a complete simulation and reinforce‐ ment learning solution to train mobile agents’ strategy of route tracking and avoiding mutual collisions. The aim was to achieve such functionality with limited resources, w.r.t. model input and model size itself. The designed models prove to keep agents safely on the track. Colli‐ sion avoidance agent’s skills developed in the course of model training are primitive but rational. Small size of the model allows fast training with limited computational resources.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2023, 17, 2; 28--35
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystywanie programów uczenia w głębokim uczeniu przez wzmacnianie. O istocie rozpoczynania od rzeczy małych
Using Training Curriculum with Deep Reinforcement Learning. On the Importance of Starting Small
Autorzy:
KOZIARSKI, MICHAŁ
KWATER, KRZYSZTOF
WOŹNIAK, MICHAŁ
Powiązania:
https://bibliotekanauki.pl/articles/456567.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rzeszowski
Tematy:
głębokie uczenie przez wzmacnianie
uczenie przez transfer
uczenie się przez całe życie
proces uczenia
deep reinforcement learning
transfer learning
lifelong learning,
curriculum learning
Opis:
Algorytmy uczenia się przez wzmacnianie są wykorzystywane do rozwiązywania problemów o stale rosnącym poziomie złożoności. W wyniku tego proces uczenia zyskuje na złożoności i wy-maga większej mocy obliczeniowej. Wykorzystanie uczenia z przeniesieniem wiedzy może czę-ściowo ograniczyć ten problem. W artykule wprowadzamy oryginalne środowisko testowe i eks-perymentalnie oceniamy wpływ wykorzystania programów uczenia na głęboką odmianę metody Q-learning.
Reinforcement learning algorithms are being used to solve problems with ever-increasing level of complexity. As a consequence, training process becomes harder and more computationally demanding. Using transfer learning can partially elevate this issue by taking advantage of previ-ously acquired knowledge. In this paper we propose a novel test environment and experimentally evaluate impact of using curriculum with deep Q-learning algorithm.
Źródło:
Edukacja-Technika-Informatyka; 2018, 9, 2; 220-226
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reinforcement Learning in Ship Handling
Autorzy:
Łącki, M.
Powiązania:
https://bibliotekanauki.pl/articles/117361.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Morski w Gdyni. Wydział Nawigacyjny
Tematy:
Ship Handling
Reinforcement Learning
Machine Learning Techniques
Manoeuvring
Restricted Waters
Markov Decision Process (MDP)
Artificial Neural Network (ANN)
multi-agent environment
Opis:
This paper presents the idea of using machine learning techniques to simulate and demonstrate learning behaviour in ship manoeuvring. Simulated model of ship is treated as an agent, which through environmental sensing learns itself to navigate through restricted waters selecting an optimum trajectory. Learning phase of the task is to observe current state and choose one of the available actions. The agent gets positive reward for reaching destination and negative reward for hitting an obstacle. Few reinforcement learning algorithms are considered. Experimental results based on simulation program are presented for different layouts of possible routes within restricted area.
Źródło:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation; 2008, 2, 2; 157-160
2083-6473
2083-6481
Pojawia się w:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A hybrid mathematical model for an optimal border closure policy during a pandemic
Autorzy:
Lazebnik, Teddy
Shami, Labib
Bunimovich-Mendrazitsky, Svetlana
Powiązania:
https://bibliotekanauki.pl/articles/24336021.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
health care
spatio temporal SIR model
international biotourism policy
multiagent reinforcement learning
opieka zdrowotna
polityka bioturystyczna
uczenie ze wzmocnieniem
Opis:
During a global health crisis, a country’s borders are a weak point through which carriers from countries with high morbidity rates can enter, endangering the health of the local community and undermining the authorities’ efforts to prevent the spread of the pathogen. Therefore, most countries have adopted some level of border closure policies as one of the first steps in handling pandemics. However, this step involves a significant economic loss, especially for countries that rely on tourism as a source of income. We developed a pioneering model to help decision-makers determine the optimal border closure policies during a health crisis that minimize the magnitude of the outbreak and maximize the revenue of the tourism industry. This approach is based on a hybrid mathematical model that consists of an epidemiological sub-model with tourism and a pandemic-focused economic sub-model, which relies on elements from the field of artificial intelligence to provide policymakers with a data-driven model for a border closure strategy for tourism during a global pandemic.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2023, 33, 4; 583--601
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies