- Tytuł:
-
Comparison of an effectiveness of artificial neural networks for various activation functions
Porównanie efektywności sztucznych sieci neuronowych dla różnych funkcji aktywacji - Autorzy:
-
Florek, Daniel
Miłosz, Marek - Powiązania:
- https://bibliotekanauki.pl/articles/24083568.pdf
- Data publikacji:
- 2023
- Wydawca:
- Politechnika Lubelska. Instytut Informatyki
- Tematy:
-
activation functions
artificial neural networks
artificial intelligence
funkcja aktywacji
sztuczne sieci neuronowe
sztuczna inteligencja - Opis:
-
Activation functions play an important role in artificial neural networks (ANNs) because they break the linearity in the data transformations that are performed by models. Thanks to the recent spike in interest around the topic of ANNs, new improvements to activation functions are emerging. The paper presents the results of research on the effectiveness of ANNs for ReLU, Leaky ReLU, ELU, and Swish activation functions. Four different data sets, and three different network architectures were used. Results show that Leaky ReLU, ELU and Swish functions work better in deep and more complex architectures which are to alleviate vanishing gradient and dead neurons problems. Neither of the three aforementioned functions comes ahead in accuracy in all used datasets, although Swish activation speeds up training considerably and ReLU is the fastest during prediction process.
Funkcje aktywacji, przełamując linową naturę transformacji zachodzących w sztucznych sieciach neuronowych (SSN), pozwalają na uczenie skomplikowanych wzorców występujących w danych wejściowych, np. w obrazach. Wzrost zain-teresowania wokół SSN skłonił naukowców do badań wokół różnolitych aktywacji, które mogą dać przewagę podczas uczenia jak i przewidywania, ostatecznie przyczyniając się do powstania nowych, interesujących rozwiązań. W artykule przedstawiono wyniki badań nad efektywnością SSN dla funkcji ReLU, Leaky ReLU, ELU oraz Swish, przy użyciu czterech zbiorów danych i trzech różnych architektur SSN. Wyniki pokazują, że funkcje Leaky ReLU, ELU i Swish lepiej sprawdzają się w głębokich i bardziej skomplikowanych architekturach, mając za zadanie zapobieganie proble-mom zanikającego gradientu (ang. Vanishing Gradient) i martwych neuronów (ang. Dead neurons). Żadna z trzech wyżej wymienionych funkcji nie ma przewagi w celności (ang. Accuracy), jednakże Swish znacznie przyspiesza ucze-nie SSN, a ReLU jest najszybsza w procesie przewidywania - Źródło:
-
Journal of Computer Sciences Institute; 2023, 26; 7--12
2544-0764 - Pojawia się w:
- Journal of Computer Sciences Institute
- Dostawca treści:
- Biblioteka Nauki