Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "monotonicity" wg kryterium: Temat


Wyświetlanie 1-2 z 2
Tytuł:
Convergence Analysis of Inverse Iterative Neural Networks with L₂ Penalty
Autorzy:
Wen, Y.
Wang, J.
Huang, B.
Zurada, J. M.
Powiązania:
https://bibliotekanauki.pl/articles/108754.pdf
Data publikacji:
2016
Wydawca:
Społeczna Akademia Nauk w Łodzi
Tematy:
neural networks
gradient descent
inverse iterative
monotonicity
regularization
convergence
Opis:
The iterative inversion of neural networks has been used in solving problems of adaptive control due to its good performance of information processing. In this paper an iterative inversion neural network with L₂ penalty term has been presented trained by using the classical gradient descent method. We mainly focus on the theoretical analysis of this proposed algorithm such as monotonicity of error function, boundedness of input sequences and weak (strong) convergence behavior. For bounded property of inputs, we rigorously proved that the feasible solutions of input are restricted in a measurable field. The weak convergence means that the gradient of error function with respect to input tends to zero as the iterations go to infinity while the strong convergence stands for the iterative sequence of input vectors convergence to a fixed optimal point.
Źródło:
Journal of Applied Computer Science Methods; 2016, 8 No. 2; 85-98
1689-9636
Pojawia się w:
Journal of Applied Computer Science Methods
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Convergence Analysis of An Improved Extreme Learning Machine Based on Gradient Descent Method
Autorzy:
Yusong, L.
Zhixun, S.
Bingjie, Y.
Xiaoling, G.
Zhaoyang, S.
Powiązania:
https://bibliotekanauki.pl/articles/972914.pdf
Data publikacji:
2016
Wydawca:
Społeczna Akademia Nauk w Łodzi
Tematy:
neural networks
monotonicity
weak convergence
strong convergence
USUA
MNIST
Opis:
Extreme learning machine (ELM) is an efficient algorithm, but it requires more hidden nodes than the BP algorithms to reach the matched performance. Recently, an efficient learning algorithm, the upper-layer-solution-unaware algorithm (USUA), is proposed for the single-hidden layer feed-forward neural network. It needs less number of hidden nodes and testing time than ELM. In this paper, we mainly give the theoretical analysis for USUA. Theoretical results show that the error function monotonously decreases in the training procedure, the gradient of the error function with respect to weights tends to zero (the weak convergence), and the weight sequence goes to a fixed point (the strong convergence) when the iterations approach positive infinity. An illustrated simulation has been implemented on the MNIST database of handwritten digits which effectively verifies the theoretical results.
Źródło:
Journal of Applied Computer Science Methods; 2016, 8 No. 1; 5-15
1689-9636
Pojawia się w:
Journal of Applied Computer Science Methods
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies