Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Płaczek, Stanisław" wg kryterium: Autor


Wyświetlanie 1-2 z 2
Tytuł:
Teoria i metody algorytmu ewolucyjnego w uczeniu jednowarstwowej sieci neuronowej
Implementation of the Evolutionary Algorithm Theory and Methods in the Learning Process of One-Layer ANN
Autorzy:
Płaczek, Stanisław
Powiązania:
https://bibliotekanauki.pl/articles/509173.pdf
Data publikacji:
2016
Wydawca:
Akademia Finansów i Biznesu Vistula
Tematy:
algorytmy genetyczne
algorytmy ewolucyjne
sztuczne sieci neuronowe
algorytmy uczenia sieci
algorytmy selekcji
algorytmy krzyżowania
algorytmy mutacji
genetic algorithm
evolutionary algorithm
artificial neural network
learning algorithm
selection algorithm
crossover algorithm
mutation algorithm
Opis:
Rozwój teorii sztucznych sieci neuronowych, a także pojawienie się nowych, efektywnych narzędzi programistycznych (systemy wieloprocesorowe, programowanie wielowątkowe) umożliwia zastosowanie algorytmów genetycznych oraz ewolucyjnych do uczenia sztucznych sieci neuronowych (SSN). W literaturze dotyczącej zasad działania SSN podkreśla się ich atrakcyjne własności, takie jak: aproksymacja dowolnych nieliniowych odwzorowań, równolegle i rozproszone przetwarzanie, adaptacja i uczenie. Szczególnie równoległe i rozproszone przetwarzanie koresponduje ze strukturą algorytmu genetycznego i ewolucyjnego. Klasyczne algorytmy genetyczne operują na ciągach binarnych o stałej długości. Natomiast algorytmy ewolucyjne można interpretować jako uogólnienie algorytmów genetycznych. W algorytmach tych stosuje się zasady ewolucji i dziedziczenia oraz wykorzystuje się właściwą strukturę danych do reprezentacji chromosomów (liczby rzeczywiste, macierze, grafy). Definiuje się również inne operatory krzyżowania i mutacji. Tak więc struktura algorytmu ewolucyjnego jest prawie taka sama jak genetycznego. Różnice ukryte są na niższych poziomach przetwarzania – w strukturach danych. W artykule przedstawiono próbę implementacji algorytmu ewolucyjnego do uczenia jednowarstwowej sieci neuronowej. Sieć opisuje się w postaci macierzy połączeń między wektorami – wejściowym X oraz wyjściowym Y. Funkcja uczenia SSN zdefiniowana jest jako nieliniowa funkcja wag sieci oraz nieliniowej funkcji aktywacji minimalizującej błąd średniokwadratowy między wektorem wyjściowym Y a wektorem uczącym Z, dla całej paczki uczącej. Pojawienie się nieliniowości utrudnia zastosowanie algorytmu uczenia opartego na wstecznej propagacji błędu. Funkcja celu, oprócz minimum globalnego, może zawierać wiele minimów lokalnych, w których algorytm oparty na badaniu gradientu funkcji celu może się zatrzymać. Oczywiście stosuje się różne techniki i metody umożliwiające wyjście algorytmu z tego typu pułapek. Tym niemniej dla sprawdzenia poprawności otrzymanych wyników uruchamia się proces uczenia SSN dla różnych danych początkowych. W zaproponowanym algorytmie ewolucyjnym tworzy się zbiór osobników. Każdy z osobników przedstawia możliwe rozwiązanie zadania minimalizacji funkcji celu i jest reprezentowany przez macierzową strukturę danych. Każde rozwiązanie cząstkowe ocenia się na podstawie dopasowania funkcji celu, a następnie tworzy się nową populację (potomków) przez selekcję osobników o najlepszych dopasowaniach oraz dwa algorytmy krzyżowania i mutacji. W artykule omówiono zaproponowaną strukturę osobników, przyjęte algorytmy selekcji z ich wadami i zaletami oraz różne algorytmu krzyżowania i mutacji. Na wstępie zdefiniowano takie podstawowe pojęcia, jak gen, chromosom oraz najogólniejszą strukturę algorytmu ewolucyjnego. Artykuł ma charakter koncepcyjny.
The article proposes implementation of a modified version of genetic algorithms in neural networks, what in literature is known as “evolutionary algorithm” or “evolutionary programming”. An evolutionary algorithm is a probabilistic algorithm that works in a set of weight variability of neurons and seeks the optimal value solution within a population of individuals, avoiding the local maximum. For chromosomes, the real value variables and matrix structure are proposed. In the article, this decision is widely elaborated and discussed. In the original versions of genetic algorithms, all variables’ values are transformed into binary versions. The chromosomes bit sequences could include thousands of positions. It does not simplify the crossover and mutation operations. Processes could be very time-consuming and the algorithm convergence could also be slow. For a single-layer neural network matrix data structure is used. A particular emphasis is put on mutation and crossover algorithms. What is also important in both genetic and evolutionary algorithms is the selection process. The primary population, known as the parent population, is employed to build a new set of individuals using the selection process. These individuals are known as the children population. The selection algorithm should converge on the two very important issues: population diversity and selective pressure. Selective pressure can manifest in the overrepresentation of the best individuals in the new population. The area, in which the optimal solution is sought, is reduced too fast. Premature convergence is not desirable due to the high probability of achieving the local maximum. Reducing the selective pressure may result in increasing the time it takes to search for the solution.
Źródło:
Zeszyty Naukowe Uczelni Vistula; 2016, 49(4) Informatyka; 23-39
2353-2688
Pojawia się w:
Zeszyty Naukowe Uczelni Vistula
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hierarchiczne struktury w sztucznych sieciach neuronowych
Hierarchical Structures on Artificial Neural Networks
Autorzy:
Płaczek, Stanisław
Powiązania:
https://bibliotekanauki.pl/articles/509240.pdf
Data publikacji:
2014
Wydawca:
Akademia Finansów i Biznesu Vistula
Tematy:
Sztuczne Sieci Neuronowe
struktury hierarchiczne
dekompozycja
koordynacja
systemy złożone
artificial neural networks
hierarchical structures
decomposition
coordination
complex systems
Opis:
W wielowarstwowych Sztucznych Sieciach Neuronowych (SSN), nieliniowych w swej strukturze, uczenie sieci polega na poszukiwaniu minimum globalnej funkcji celu. W realizacjach praktycznych – w funkcji celu – występują parametry dwóch lub trzech warstw ukrytych. Strojenie współczynników macierzy w warstwach W1, W2, czy też W3, odbywa się w procesie uczenia, który można traktować jako stan nieustalony SSN. Stany nieustalone w poszczególnych warstwach mają różne przebiegi dynamiczne, czyli zależności amplitudy błędu średniokwadratowego w warstwie od numeru iteracji. W praktycznych realizacjach procesu uczenia szybkość zbieżności procesu do stanu ustalonego, czyli minimum funkcji błędy, jest ważną charakterystyką, dlatego też podział SSN na niezależne poziomy, zdefiniowanie lokalnych funkcji celu dla każdej warstwy, skoordynowanie lokalnych procesów uczenia w celu osiągnięcia globalnego minimum ma praktyczny głęboki sens. W artkule podejmuje się próbę zastosowania ogólnej teorii złożonych systemów do opisu SSN, budowy algorytmów uczących i ich praktycznej realizacji. Tego typu podejście prowadzi do poszukiwania rozwiązań poprzez dekompozycję i koordynację w hierarchicznej strukturze SSN. Ze względu na występujące nieliniowości w poszczególnych warstwach sieci, trudno udowodnić warunki zbieżności dla stosowanych metod. Tym niemniej, praktyka realizacji różnych algorytmów pokazuje przydatność przyjętych rozwiązań.
On multi-layer artificial neural networks (ANN), non-linear in their structure, network teaching consists in seeking for global minimum function of the objective. In practical implementations – in the objective’s function – there are occurring parameters of two or three hidden layers. Tuning matrix coefficients in the layers W1, W2 or W3 takes place in the teaching process which can be treated as an ANN transient state. Transient states in individual layers have different dynamic courses, i.e. dependency of the amplitude of mean squared error in the layer on the number of iteration. In practical implementations of the teaching process, the speed of process convergence to the steady state, i.e. the minimum of the error function, is an important characteristic, hence the division of ANN into independent levels, defining the local functions of the objective for every layer, coordination of the local teaching processes in order to achieve the global minimum is of practical deep sense. In his article, the author made an attempt to apply the general theory of complex systems to describe ANN, to build teaching algorithms and their practical implementation. Such an approach leads to pursuit of solutions through decomposition and coordination in the ANN hierarchical structure. Due to the occurring nonlinearities in individual layers of the network, it is difficult to prove the convergence conditions for the methods applied. Nonetheless, the practice of implementation of various algorithms indicates usefulness of the adopted solutions.
Źródło:
Zeszyty Naukowe Uczelni Vistula; 2014, 38/2014 Informatyka; 20-37
2353-2688
Pojawia się w:
Zeszyty Naukowe Uczelni Vistula
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies