Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "long short-term memory network" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
Detection and Localization of Audio Event for Home Surveillance Using CRNN
Autorzy:
Suruthhi, V. S.
Smita, V.
Rolant Gini, J.
Ramachandran, K. I.
Powiązania:
https://bibliotekanauki.pl/articles/2055274.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
convolutional recurrent neural network
CRNN
gated recurrent unit
GRU
long short-term memory
LSTM
sound event localization and detection
SELD
Opis:
Safety and security have been a prime priority in people’s lives, and having a surveillance system at home keeps people and their property more secured. In this paper, an audio surveillance system has been proposed that does both the detection and localization of the audio or sound events. The combined task of detecting and localizing the audio events is known as Sound Event Localization and Detection (SELD). The SELD in this work is executed through Convolutional Recurrent Neural Network (CRNN) architecture. CRNN is a stacked layer of convolutional neural network (CNN), recurrent neural network (RNN) and fully connected neural network (FNN). The CRNN takes multichannel audio as input, extracts features and does the detection and localization of the input audio events in parallel. The SELD results obtained by CRNN with the gated recurrent unit (GRU) and with long short-term memory (LSTM) unit are compared and discussed in this paper. The SELD results of CRNN with LSTM unit gives 75% F1 score and 82.8% frame recall for one overlapping sound. Therefore, the proposed audio surveillance system that uses LSTM unit produces better detection and overall performance for one overlapping sound.
Źródło:
International Journal of Electronics and Telecommunications; 2021, 67, 4; 735--741
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Forecasting future values of time series using the lstm network on the example of currencies and WIG20 companies
Prognozowanie przyszłych wartości szeregów czasowych z wykorzystaniem sieci lstm na przykładzie kursów walut i spółek WIG20
Autorzy:
Mróz, Bartosz
Nowicki, Filip
Powiązania:
https://bibliotekanauki.pl/articles/2016294.pdf
Data publikacji:
2020
Wydawca:
Politechnika Bydgoska im. Jana i Jędrzeja Śniadeckich. Wydawnictwo PB
Tematy:
recurrent neural network
RNN
gated recurrent unit
GRU
long short-term memory
LSTM
rekurencyjna sieć neuronowa
blok rekurencyjny
pamięć długookresowa
Opis:
The article presents a comparison of the RNN, GRU and LSTM networks in predicting future values of time series on the example of currencies and listed companies. The stages of creating an application which is a implementation of the analyzed issue were also shown – the selection of networks, technologies, selection of optimal network parameters. Additionally, two conducted experiments were discussed. The first was to predict the next values of WIG20 companies, exchange rates and cryptocurrencies. The second was based on investments in cryptocurrencies guided solely by the predictions of artificial intelligence. This was to check whether the investments guided by the predictions of such a program have a chance of effective earnings. The discussion of the results of the experiment includes an analysis of various interesting phenomena that occurred during its duration and a comprehensive presentation of the relatively high efficiency of the proposed solution, along with all kinds of graphs and comparisons with real data. The difficulties that occurred during the experiments, such as coronavirus or socio-economic events, such as riots in the USA, were also analyzed. Finally, elements were proposed that should be improved or included in future versions of the solution – taking into account world events, market anomalies and the use of supervised learning.
W artykule przedstawiono porównanie sieci RNN, GRU i LSTM w przewidywaniu przyszłych wartości szeregów czasowych na przykładzie walut i spółek giełdowych. Przedstawiono również etapy tworzenia aplikacji będącej realizacją analizowanego zagadnienia – dobór sieci, technologii, dobór optymalnych parametrów sieci. Dodatkowo omówiono dwa przeprowadzone eksperymenty. Pierwszym było przewidywanie kolejnych wartości spółek z WIG20, kursów walut i kryptowalut. Drugi opierał się na inwestycjach w kryptowaluty, kierując się wyłącznie przewidywaniami sztucznej inteligencji. Miało to na celu sprawdzenie, czy inwestowanie na podstawie przewidywania takiego programu pozwala na efektywne zarobki. Omówienie wyników eksperymentu obejmuje analizę różnych ciekawych zjawisk, które wystąpiły w czasie jego trwania oraz kompleksowe przedstawienie relatywnie wysokiej skuteczności proponowanego rozwiązania wraz z wszelkiego rodzaju wykresami i porównaniami z rzeczywistymi danymi. Analizowano również trudności, które wystąpiły podczas eksperymentów, takie jak koronawirus, wydarzenia społeczno-gospodarcze czy zamieszki w USA. Na koniec zaproponowano elementy, które należałoby ulepszyć lub uwzględnić w przyszłych wersjach rozwiązania, uwzględniając wydarzenia na świecie, anomalie rynkowe oraz wykorzystanie uczenia się nadzorowanego.
Źródło:
Zeszyty Naukowe. Telekomunikacja i Elektronika / Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy; 2020, 24; 13-30
1899-0088
Pojawia się w:
Zeszyty Naukowe. Telekomunikacja i Elektronika / Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An optimized parallel implementation of non-iteratively trained recurrent neural networks
Autorzy:
El Zini, Julia
Rizk, Yara
Awad, Mariette
Powiązania:
https://bibliotekanauki.pl/articles/2031147.pdf
Data publikacji:
2021
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
GPU implementation
parallelization
Recurrent Neural Network
RNN
Long-short Term Memory
LSTM
Gated Recurrent Unit
GRU
Extreme Learning Machines
ELM
non-iterative training
Opis:
Recurrent neural networks (RNN) have been successfully applied to various sequential decision-making tasks, natural language processing applications, and time-series predictions. Such networks are usually trained through back-propagation through time (BPTT) which is prohibitively expensive, especially when the length of the time dependencies and the number of hidden neurons increase. To reduce the training time, extreme learning machines (ELMs) have been recently applied to RNN training, reaching a 99% speedup on some applications. Due to its non-iterative nature, ELM training, when parallelized, has the potential to reach higher speedups than BPTT. In this work, we present Opt-PR-ELM, an optimized parallel RNN training algorithm based on ELM that takes advantage of the GPU shared memory and of parallel QR factorization algorithms to efficiently reach optimal solutions. The theoretical analysis of the proposed algorithm is presented on six RNN architectures, including LSTM and GRU, and its performance is empirically tested on ten time-series prediction applications. Opt- PR-ELM is shown to reach up to 461 times speedup over its sequential counterpart and to require up to 20x less time to train than parallel BPTT. Such high speedups over new generation CPUs are extremely crucial in real-time applications and IoT environments.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2021, 11, 1; 33-50
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies