Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Zurada, J. M." wg kryterium: Autor


Wyświetlanie 1-2 z 2
Tytuł:
Convergence Analysis of Multilayer Feedforward Networks Trained with Penalty Terms: A review
Autorzy:
Wang, J.
Yang, G.
Liu, S.
Zurada, J. M.
Powiązania:
https://bibliotekanauki.pl/articles/108639.pdf
Data publikacji:
2015
Wydawca:
Społeczna Akademia Nauk w Łodzi
Tematy:
Gradient
feedforward neural networks
generalization
penalty
convergence
pruning algorithms
Opis:
Gradient descent method is one of the popular methods to train feedforward neural networks. Batch and incremental modes are the two most common methods to practically implement the gradient-based training for such networks. Furthermore, since generalization is an important property and quality criterion of a trained network, pruning algorithms with the addition of regularization terms have been widely used as an efficient way to achieve good generalization. In this paper, we review the convergence property and other performance aspects of recently researched training approaches based on different penalization terms. In addition, we show the smoothing approximation tricks when the penalty term is non-differentiable at origin.
Źródło:
Journal of Applied Computer Science Methods; 2015, 7 No. 2; 89-103
1689-9636
Pojawia się w:
Journal of Applied Computer Science Methods
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Convergence Analysis of Inverse Iterative Neural Networks with L₂ Penalty
Autorzy:
Wen, Y.
Wang, J.
Huang, B.
Zurada, J. M.
Powiązania:
https://bibliotekanauki.pl/articles/108754.pdf
Data publikacji:
2016
Wydawca:
Społeczna Akademia Nauk w Łodzi
Tematy:
neural networks
gradient descent
inverse iterative
monotonicity
regularization
convergence
Opis:
The iterative inversion of neural networks has been used in solving problems of adaptive control due to its good performance of information processing. In this paper an iterative inversion neural network with L₂ penalty term has been presented trained by using the classical gradient descent method. We mainly focus on the theoretical analysis of this proposed algorithm such as monotonicity of error function, boundedness of input sequences and weak (strong) convergence behavior. For bounded property of inputs, we rigorously proved that the feasible solutions of input are restricted in a measurable field. The weak convergence means that the gradient of error function with respect to input tends to zero as the iterations go to infinity while the strong convergence stands for the iterative sequence of input vectors convergence to a fixed optimal point.
Źródło:
Journal of Applied Computer Science Methods; 2016, 8 No. 2; 85-98
1689-9636
Pojawia się w:
Journal of Applied Computer Science Methods
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies