Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Q‐learning" wg kryterium: Temat


Wyświetlanie 1-15 z 15
Tytuł:
A compact DQN model for mobile agents with collision avoidance
Autorzy:
Kamola, Mariusz
Powiązania:
https://bibliotekanauki.pl/articles/27314243.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Q‐learning
DQN
reinforcement learning
Opis:
This paper presents a complete simulation and reinforce‐ ment learning solution to train mobile agents’ strategy of route tracking and avoiding mutual collisions. The aim was to achieve such functionality with limited resources, w.r.t. model input and model size itself. The designed models prove to keep agents safely on the track. Colli‐ sion avoidance agent’s skills developed in the course of model training are primitive but rational. Small size of the model allows fast training with limited computational resources.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2023, 17, 2; 28--35
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Prioritized epoch - incremental Q - learning algorithm
Autorzy:
Zajdel, R.
Powiązania:
https://bibliotekanauki.pl/articles/375619.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
reinforcement learning
Q-learning
grid world
Opis:
The basic reinforcement learning algorithms, such as Q-learning or Sarsa, are characterized by short time-consuming single learning step, however the number of epochs necessary to achieve the optimal policy is not acceptable. There are many methods that reduce the number of' necessary epochs, like TD(lambda greather than 0), Dyna or prioritized sweeping, but their computational time is considerable. This paper proposes a combination of Q-learning algorithm performed in the incremental mode with the method of acceleration executed in the epoch mode. This acceleration is based on the distance to the terminal state. This approach ensures the maintenance of short time of a single learning step and high efficiency comparable with Dyna or prioritized sweeping. Proposed algorithm is compared with Q(lambda)-learning, Dyna-Q and prioritized sweeping in the experiments of three grid worlds. The time-consuming learning process and number of epochs necessary to reach the terminal state is used to evaluate the efficiency of compared algorithms.
Efektywność podstawowych algorytmów uczenia ze wzmocnieniem Q-learning i Sarsa, mierzona liczbą prób niezbędnych do uzyskania strategii optymalnej jest stosunkowo niewielka. Stąd też możliwości praktycznego zastosowania tego algorytmu są niewielkie. Zaletą tych podstawowych algorytmów jest jednak niewielka złożoność obliczeniowa, sprawiająca, że czas wykonania pojedynczego kroku uczenia jest na tyle mały, że znakomicie sprawdzają się one w systemach sterowania online. Stosowane metody przyśpieszania procesu uczenia ze wzmocnieniem, które pozwalająna uzyskanie stanu absorbującego po znacznie mniejszej liczbie prób, niż algorytmy podstawowe powodują najczęściej zwiększenie złożoności obliczeniowej i wydłużenie czasu wykonania pojedynczego kroku uczenia. Najczęściej stosowane przyśpieszanie metodą różnic czasowych TD(lambda znak większości 0) wiąże się z zastosowaniem dodatkowych elementów pamięciowych, jakimi są ślady aktywności (eligibility traces). Czas wykonania pojedynczego kroku uczenia w takim algorytmie znacznie się wydłuża, gdyż w odróżnieniu od algorytmu podstawowego, gdzie aktualizacji podlegała wyłącznie funkcja wartości akcji tylko dla stanu aktywnego, tutaj aktualizację przeprowadza się dla wszystkich stanów. Bardziej wydajne metody przyśpieszania, takie jak Dyna, czy też prioritized sweeping również należą do klasy algorytmów pamięciowych, a ich główną ideą jest uczenie ze wzmocnieniem w oparciu o adaptacyjny model środowiska. Metody te pozwalają na uzyskanie stanu absorbującego w znacznie mniejszej liczbie prób, jednakże, na skutek zwiększonej złożoności obliczeniowej, czas wykonania pojedynczego kroku uczenia jest już istotnym czynnikiem ograniczającym zastosowanie tych metod w systemach o znacznej liczbie stanów. Istotą tych algorytmów jest dokonywanie ustalonej liczby aktualizacji funkcji wartości akcji stanów aktywnych w przeszłości, przy czym w przypadku algorytmu Dyna są to stany losowo wybrane, natomiast w przypadku prioritized sweeping stany uszeregowane wg wielkości błędu aktualizacji. W niniejszym artykule zaproponowano epokowo-inkrementacyjny algorytm uczenia ze wzmocnieniem, którego główną ideą jest połączenie podstawowego, inkrementacyjnego algorytmu uczenia ze wzmocnieniem Q-lerning z algorytmem przyśpieszania wykonywanym epokowo. Zaproponowana metoda uczenia epokowego w głównej mierze opiera się na rzeczywistej wartości sygnału wzmocnienia obserwowanego przy przejściu do stanu absorbującego, który jest następnie wykładniczo propagowany wstecz w zależności od estymowanej odległości od stanu absorbującego. Dzięki takiemu podej- ściu uzyskano niewielki czas uczenia pojedynczego kroku w trybie inkrementacyjnym (Tab. 2) przy zachowaniu efektywności typowej dla algorytmów Dyna, czy też prioritized sweeping (Tab. 1 i Fig. 5).
Źródło:
Theoretical and Applied Informatics; 2012, 24, 2; 159-171
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Anapplication of decision rules in reinforcement learning
Autorzy:
Michalski, A.
Powiązania:
https://bibliotekanauki.pl/articles/206534.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
decision rules
Q-learning
reinforcement learning
rough set theory
Opis:
In this paper an application of decision rules to function representation in reinforcement learning is described. Rules are generated incrementally by method based on rough set theory from instances recorded in state-action-Q-value memory. Simulation experiment investigating the performance of the system and results achieved are reported.
Źródło:
Control and Cybernetics; 2000, 29, 4; 989-996
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Enhancements of Fuzzy Q-Learning algorithm
Rozszerzenia algorytmu Fuzzy Q-Learning
Autorzy:
Głowaty, G.
Powiązania:
https://bibliotekanauki.pl/articles/305545.pdf
Data publikacji:
2005
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
modele rozmyte
uczenie ze wzmocnieniem
Q-Learning
automatyczne tworzenie modeli rozmytych
fuzzy models
reinforcement learning
Q-learning
automatic generation of fuzzy models
Opis:
Fuzzy Q-Learning algorithm combines reinforcement learning techniques with fuzzy modelling. It provides a flexible solution for automatic discovery of rules for fuzzy systems in the process of reinforcement learning. In this paper we propose several enhancements to the original algorithm to make it more performant and more suitable for problems with continuous-input continuous-output space. Presented improvements involve generalization of the set of possible rule conclusions. The aim is not only to automatically discover an appropriate rule-conclusions assignment, but also to automatically define the actual conclusions set given the all possible rules conclusions. To improve algorithm performance when dealing with environments with inertness, a special rule selection policy is proposed.
Algorytm Fuzzy Q-Learning pozwala na automatyczny dobór reguł systemu rozmytego z użyciem technik uczenia ze wzmocnieniem. W niniejszym artykule zaproponowana została zmodyfikowana wersja oryginalnego algorytmu. Charakteryzuje się ona lepszą wydajnością działania w systemach z ciągłymi przestrzeniami wejść i wyjść. Algorytm rozszerzono o możliwość automatycznego tworzenia zbioru potencjalnych konkluzji reguł z podanego zbioru wszystkich możliwych konkluzji. Zaproponowano także nową procedurę wyboru reguł dla polepszenia prędkości działania w systemach z bezwładnością.
Źródło:
Computer Science; 2005, 7; 77-87
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluation of Radio Channel Utility using Epsilon-Greedy Action Selection
Autorzy:
Malon, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1839337.pdf
Data publikacji:
2021
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
cognitive radio
dynamic spectrum access
spectrum monitoring
machine learning
Q-learning
Opis:
This paper presents an algorithm that supports the dynamic spectrum access process in cognitive radio networks by generating a sorted list of best radio channels or by identifying those frequency ranges that are not in use temporarily. The concept is based on the reinforcement learning technique named Q-learning. To evaluate the utility of individual radio channels, spectrum monitoring is performed. In the presented solution, the epsilon-greedy action selection method is used to indicate which channel should be monitored next. The article includes a description of the proposed algorithm, scenarios, metrics, and simulation results showing the correct operation of the approach relied upon to evaluate the utility of radio channels and the epsilon-greedy action selection method. Based on the performed tests, it is possible to determine algorithm parameters that should be used in this proposed deployment. The paper also presents a comparison of the results with two other action selection methods.
Źródło:
Journal of Telecommunications and Information Technology; 2021, 3; 10-17
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Building computer vision systems using machine learning algorithms
Autorzy:
Boyko, N.
Dokhniak, B.
Korkishko, V.
Powiązania:
https://bibliotekanauki.pl/articles/411183.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
training with reinforcement
Q-Learning
neural networks
Markov environment
Opis:
This article is devoted to the algorithm of training with reinforcement (reinforcement learning). This article will cover various modifications of the Q-Learning algorithm, along with its techniques, which can accelerate learning using neural networks. We also talk about different ways of approximating the tables of this algorithm, consider its implementation in the code and analyze its behavior in different environments. We set the optimal parameters for its implementation, and we will evaluate its performance in two parameters: the number of necessary neural network weight corrections and quality of training.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2018, 7, 2; 9-14
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Self-improving Q-learning based controller for a class of dynamical processes
Autorzy:
Musial, Jakub
Stebel, Krzysztof
Czeczot, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/1845515.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
process control
Q-learning algorithm
reinforcement learning
intelligent control
on-line learning
Opis:
This paper presents how Q-learning algorithm can be applied as a general-purpose self-improving controller for use in industrial automation as a substitute for conventional PI controller implemented without proper tuning. Traditional Q-learning approach is redefined to better fit the applications in practical control loops, including new definition of the goal state by the closed loop reference trajectory and discretization of state space and accessible actions (manipulating variables). Properties of Q-learning algorithm are investigated in terms of practical applicability with a special emphasis on initializing of Q-matrix based only on preliminary PI tunings to ensure bumpless switching between existing controller and replacing Q-learning algorithm. A general approach for design of Q-matrix and learning policy is suggested and the concept is systematically validated by simulation in the application to control two examples of processes exhibiting first order dynamics and oscillatory second order dynamics. Results show that online learning using interaction with controlled process is possible and it ensures significant improvement in control performance compared to arbitrarily tuned PI controller.
Źródło:
Archives of Control Sciences; 2021, 31, 3; 527-551
1230-2384
Pojawia się w:
Archives of Control Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Self-improving Q-learning based controller for a class of dynamical processes
Autorzy:
Musial, Jakub
Stebel, Krzysztof
Czeczot, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/1845530.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
process control
Q-learning algorithm
reinforcement learning
intelligent control
on-line learning
Opis:
This paper presents how Q-learning algorithm can be applied as a general-purpose selfimproving controller for use in industrial automation as a substitute for conventional PI controller implemented without proper tuning. Traditional Q-learning approach is redefined to better fit the applications in practical control loops, including new definition of the goal state by the closed loop reference trajectory and discretization of state space and accessible actions (manipulating variables). Properties of Q-learning algorithm are investigated in terms of practical applicability with a special emphasis on initializing of Q-matrix based only on preliminary PI tunings to ensure bumpless switching between existing controller and replacing Q-learning algorithm. A general approach for design of Q-matrix and learning policy is suggested and the concept is systematically validated by simulation in the application to control two examples of processes exhibiting first order dynamics and oscillatory second order dynamics. Results show that online learning using interaction with controlled process is possible and it ensures significant improvement in control performance compared to arbitrarily tuned PI controller.
Źródło:
Archives of Control Sciences; 2021, 31, 3; 527-551
1230-2384
Pojawia się w:
Archives of Control Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
QIBMRMN: Design of a Q-Learning based Iterative sleep-scheduling & hybrid Bioinspired Multipath Routing model for Multimedia Networks
Autorzy:
Doorwar, Minaxi
Malathi, P
Powiązania:
https://bibliotekanauki.pl/articles/27311958.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
multimedia
network
Q-learning
GWO
GA
Adhoc
QoS
iterative
process
Opis:
Multimedia networks utilize low-power scalar nodes to modify wakeup cycles of high-performance multimedia nodes, which assists in optimizing the power-toperformance ratios. A wide variety of machine learning models are proposed by researchers to perform this task, and most of them are either highly complex, or showcase low-levels of efficiency when applied to large-scale networks. To overcome these issues, this text proposes design of a Q-learning based iterative sleep-scheduling and fuses these schedules with an efficient hybrid bioinspired multipath routing model for largescale multimedia network sets. The proposed model initially uses an iterative Q-Learning technique that analyzes energy consumption patterns of nodes, and incrementally modifies their sleep schedules. These sleep schedules are used by scalar nodes to efficiently wakeup multimedia nodes during adhoc communication requests. These communication requests are processed by a combination of Grey Wolf Optimizer (GWO) & Genetic Algorithm (GA) models, which assist in the identification of optimal paths. These paths are estimated via combined analysis of temporal throughput & packet delivery performance, with node-to-node distance & residual energy metrics. The GWO Model uses instantaneous node & network parameters, while the GA Model analyzes temporal metrics in order to identify optimal routing paths. Both these path sets are fused together via the Q-Learning mechanism, which assists in Iterative Adhoc Path Correction (IAPC), thereby improving the energy efficiency, while reducing communication delay via multipath analysis. Due to a fusion of these models, the proposed Q-Learning based Iterative sleep-scheduling & hybrid Bioinspired Multipath Routing model for Multimedia Networks (QIBMRMN) is able to reduce communication delay by 2.6%, reduce energy consumed during these communications by 14.0%, while improving throughput by 19.6% & packet delivery performance by 8.3% when compared with standard multimedia routing techniques.
Źródło:
International Journal of Electronics and Telecommunications; 2023, 69, 4; 776--784
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stabilizer design of PSS3B based on the KH algorithm and Q-Learning for damping of low frequency oscillations in a single-machine power system
Autorzy:
Mohamadi, Farshid
Sedaghati, Alireza
Powiązania:
https://bibliotekanauki.pl/articles/41190034.pdf
Data publikacji:
2023
Wydawca:
Politechnika Warszawska, Instytut Techniki Cieplnej
Tematy:
3-band power system stabilize
reinforcement learning
Q-learning
system zasilania
uczenie przez wzmacnianie
Opis:
The aim of this study is to use the reinforcement learning method in order to generate a complementary signal for enhancing the performance of the system stabilizer. The reinforcement learning is one of the important branches of machine learning on the area of artificial intelligence and a general approach for solving the Marcov Decision Process (MDP) problems. In this paper, a reinforcement learning-based control method, named Q-learning, is presented and used to improve the performance of a 3-Band Power System Stabilizer (PSS3B) in a single-machine power system. For this end, we first set the parameters of the 3-band power system stabilizer by optimizing the eigenvalue-based objective function using the new optimization KH algorithm, and then its efficiency is improved using the proposed reinforcement learning algorithm based on the Q-learning method in real time. One of the fundamental features of the proposed reinforcement learning-based stabilizer is its simplicity and independence on the system model and changes in the working points of operation. To evaluate the efficiency of the proposed reinforcement learning-based 3-band power system stabilizer, its results are compared with the conventional power system stabilizer and the 3-band power system stabilizer designed by the use of the KH algorithm under different working points. The simulation results based on the performance indicators show that the power system stabilizer proposed in this study underperform the two other methods in terms of decrease in settling time and damping of low frequency oscillations.
Źródło:
Journal of Power Technologies; 2023, 103, 4; 230-242
1425-1353
Pojawia się w:
Journal of Power Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Markov Decision Process based Model for Performance Analysis an Intrusion Detection System in IoT Networks
Autorzy:
Kalnoor, Gauri
Gowrishankar, -
Powiązania:
https://bibliotekanauki.pl/articles/1839336.pdf
Data publikacji:
2021
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
DDoS
intrusion detection
IoT
machine learning
Markov decision process
MDP
Q-learning
NSL-KDD
reinforcement learning
Opis:
In this paper, a new reinforcement learning intrusion detection system is developed for IoT networks incorporated with WSNs. A research is carried out and the proposed model RL-IDS plot is shown, where the detection rate is improved. The outcome shows a decrease in false alarm rates and is compared with the current methodologies. Computational analysis is performed, and then the results are compared with the current methodologies, i.e. distributed denial of service (DDoS) attack. The performance of the network is estimated based on security and other metrics.
Źródło:
Journal of Telecommunications and Information Technology; 2021, 3; 42-49
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Predictive Modelling of a Honeypot System Based on a Markov Decision Process and a Partially Observable Markov Decision Process
Autorzy:
Wang, Lidong
Mosher, Reed
Duett, Patti
Falls, Terril
Powiązania:
https://bibliotekanauki.pl/articles/27304921.pdf
Data publikacji:
2023
Wydawca:
NASK - National Research Institute
Tematy:
cybersecurity
honeypot
machine learning
Markov decision process
Q-learning
cyberbezpieczeństwo
uczenie maszynowe
proces decyzyjny Markowa
Opis:
A honeypot is used to attract and monitor attacker activities and capture valuable information that can be used to help practice good cybersecurity. Predictive modelling of a honeypot system based on a Markov decision process (MDP) and a partially observable Markov decision process (POMDP) is performed in this paper. Analyses over a finite planning horizon and an infinite planning horizon for a discounted MDP are respectively conducted. Four methods, including value iteration (VI), policy iteration (PI), linear programming (LP), and Q-learning, are used in the analyses over an infinite planning horizon for the discounted MDP. The results of the various methods are compared to evaluate the validity of the created MDP model and the parameters in the model. The optimal policy to maximise the total expected reward of the states of the honeypot system is achieved, based on the MDP model employed. In the modelling over an infinite planning horizon for the discounted POMDP of the honeypot system, the effects of the observation probability of receiving commands, the probability of attacking the honeypot, the probability of the honeypot being disclosed, and transition rewards on the total expected reward of the honeypot system are studied.
Źródło:
Applied Cybersecurity & Internet Governance; 2023, 2, 1; 1-14
2956-3119
2956-4395
Pojawia się w:
Applied Cybersecurity & Internet Governance
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Q-methodology study of students behaviour during project-based learning
Badania zachowań studentów podczas uczenia opartego na projekcie za pomocą Q-metodologii
Autorzy:
Németh, G.
Prokša, M.
Powiązania:
https://bibliotekanauki.pl/articles/106342.pdf
Data publikacji:
2015
Wydawca:
Towarzystwo Chemii i Inżynierii Ekologicznej
Tematy:
project-based learning
Q methodology
student’s opinion
uczenie się oparte na projekcie
Q-metodologia
opinie studentów
Opis:
The contribution describes the circumstances of the implementation of a chemistry project with the main theme “Chemical show - Harry Potter”. Project-based learning belongs between the complex teaching methods, where the desired effect can be influenced by many factors, eg student’s attitude, student’s overall opinion and feelings about the method. The motivation of the researchers was to understand and evaluate the factors present in the realised project. The analysed factors and behavioural schemes can provide a good starting point for the teachers at planning their projects. With the aim to understand the students’ reaction the researchers used Q-methodology to identify the different behavioural groups of participating students based on their real opinion. In the presented research the researchers analyse the response of totally 26 students. As a result totally 6 behavioural examples are presented that teachers can meet during implementation of project based learning. The presented categorization collaborates with other formerly publicised types of student’s behaviour, eg students of “pleasant surprises” and “disappointing surprises”. However, other additional types of behavioural types emerged eg students orienting and concentrating on the theoretical knowledge, students with very strong need for leading and students with the need of several assessment systems. The presented results can provide a wider view for the teachers in preparing and forecasting the flow of their projects and can help them to prepare the project.
Opisano realizację projektu z chemii, którego głównym tematem były „Chemiczne pokazy - Harry Potter”. Uczenie się oparte na projekcie należy do skomplikowanych metod nauczania, gdzie na pożądany efekt może mieć wpływ wiele czynników, np. postawy studentów, ogólna opinia studentów i odczucia dotyczące metody. Celem badaczy było zrozumienie i ocena czynników występujących w realizowanym projekcie. Analizowane czynniki i schematy zachowań mogą stanowić dobry punkt wyjścia dla nauczycieli w planowaniu projektów. W celu zrozumienia reakcji studentów badacze wykorzystali Q-metodologię identyfikacji różnych grup behawioralnych uczestników na podstawie ich prawdziwych opinii. W prezentowanych badaniach naukowcy analizują odpowiedzi 26 studentów. W rezultacie zaobserwowano 6 przykładów zachowań, z którymi nauczyciele mogą spotkać się w trakcie realizacji nauczania opartego na projekcie. Przedstawiona klasyfikacja jest zgodna z innymi, wcześniej opisanymi rodzajami zachowań studentów, np. postawy „przyjemnych niespodzianek” i „rozczarowujących niespodzianek”. Jednak pojawiły się inne, dodatkowe rodzaje typów zachowań, np. studenci zorientowani i koncentrujący się na wiedzy teoretycznej, studenci z bardzo silną potrzebą przywództwa i studenci potrzebujący kilku systemów oceny. Przedstawione wyniki mogą zapewnić nauczycielom szerszy pogląd na przygotowywanie i przewidywanie przebiegu planowanych projektów.
Źródło:
Chemistry-Didactics-Ecology-Metrology; 2015, 20, 1-2; 39-48
2084-4506
Pojawia się w:
Chemistry-Didactics-Ecology-Metrology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Potential sources of foreign language learning boredom: A Q methodology study
Autorzy:
Kruk, Mariusz
Pawlak, Mirosław
Elahi Shirvan, Majid
Taherian, Tahereh
Yazdanmehr, Elham
Powiązania:
https://bibliotekanauki.pl/articles/2051509.pdf
Data publikacji:
2022-03-21
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
foreign language learning boredom (FLLB)
Q methodology
teacher-induced boredom
student-induced boredom
activity-induced boredom
Opis:
The present study employed an interpretive approach to investigate individual learners’ viewpoints on foreign language learning boredom (FLLB). To this aim, a Q method, which shares features of both qualitative and quantitative research approaches, was used to explore 37 Iranian English as a foreign language (EFL) learners’ perceptions of potential sources of boredom in the classroom. Nonprobability purposeful sampling was used to select participants from two private language institutes in Mashhad, Iran. A hybrid-type Q sampling was employed to produce 40 statements related to the sources of FLLB. Using PQ Method, an exclusive statistical package for Q methodology, the Q sorts were intercorrelated and factor-analyzed. Three factors were extracted and rotated using varimax rotation and hand adjustment. Factor arrays and qualitative analyses were utilized to find and interpret three different accounts of FLLB. The three factors showed that the students held three divergent prototypical points of view about the sources of boredom experienced in EFL learning in class: (a) teacher-induced boredom, (b) student-induced boredom, and (c) activity-induced boredom. The findings also showed that different learner prototypes experience FLLB distinctly. Thus teachers should consider using different strategies to prevent or reduce this negative emotion in the context of L2 learning since otherwise this process could be impeded.
Źródło:
Studies in Second Language Learning and Teaching; 2022, 12, 1; 37-58
2083-5205
2084-1965
Pojawia się w:
Studies in Second Language Learning and Teaching
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Constant Q-transform-based deep learning architecture for detection of obstructive sleep apnea
Autorzy:
Kandukuri, Usha Rani
Prakash, Allam Jaya
Patro, Kiran Kumar
Neelapu, Bala Chakravarthy
Tadeusiewicz, Ryszard
Pławiak, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/24200694.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
sleep apnea
convolutional neural network
constant Q-transform
deep learning
single lead ECG signal
non apnea
obstructive sleep apnea
bezdech senny
sieć neuronowa konwolucyjna
uczenie głębokie
sygnał EKG
obturacyjny bezdech senny
Opis:
Obstructive sleep apnea (OSA) is a long-term sleep disorder that causes temporary disruption in breathing while sleeping. Polysomnography (PSG) is the technique for monitoring different signals during the patient’s sleep cycle, including electroencephalogram (EEG), electromyography (EMG), electrocardiogram (ECG), and oxygen saturation (SpO2). Due to the high cost and inconvenience of polysomnography, the usefulness of ECG signals in detecting OSA is explored in this work, which proposes a two-dimensional convolutional neural network (2D-CNN) model for detecting OSA using ECG signals. A publicly available apnea ECG database from PhysioNet is used for experimentation. Further, a constant Q-transform (CQT) is applied for segmentation, filtering, and conversion of ECG beats into images. The proposed CNN model demonstrates an average accuracy, sensitivity and specificity of 91.34%, 90.68% and 90.70%, respectively. The findings obtained using the proposed approach are comparable to those of many other existing methods for automatic detection of OSA.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2023, 33, 3; 493--506
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-15 z 15

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies