In this study, the generation of temporal synchrony within an artificial neural network is
examined considering a stochastic synaptic model. A network is introduced and driven
by Poisson distributed trains of spikes along with white-Gaussian noise that is added
to the internal synaptic activity representing the background activity (neuronal noise).
A Hebbian-based learning rule for the update of synaptic parameters is introduced. Only
arbitrarily selected synapses are allowed to learn, i.e. update parameter values. Results
show that a network using such a framework is able to achieve different states of synchrony
via learning. Thus, the plausibility of using stochastic-based models in modeling
the neural process is supported. It is also consistent with arguments claiming that synchrony
is a part of the memory-recall process and copes with the accepted framework in
biological neural systems.
Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies
Informacja
SZANOWNI CZYTELNICY!
UPRZEJMIE INFORMUJEMY, ŻE BIBLIOTEKA FUNKCJONUJE W NASTĘPUJĄCYCH GODZINACH:
Wypożyczalnia i Czytelnia Główna: poniedziałek – piątek od 9.00 do 19.00