Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "neural, S." wg kryterium: Wszystkie pola


Wyświetlanie 1-9 z 9
Tytuł:
Selected problem of structure optimization for Artificial Neural Networks with forward connections
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/376117.pdf
Data publikacji:
2014
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
artificial neural network
network structure
structure optimization
Opis:
The problem of Artificial Neural Network (ANN) structure optimization related to the definition of optimal number of hidden layers and distribution of neurons between layers depending on selected optimization criterion and inflicted constrains. The article presents the resolution of the optimization problem. The function describing the number of subspaces is given, and the minimum number of layers as well as the distribution of neurons between layers shall be found.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2014, 80; 191-197
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A selected problem of the structure optimization and decomposition of the artificial neural network with cross-forward connections
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/97313.pdf
Data publikacji:
2014
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
artificial neural network
structure optimization
decomposition
coordination
cross connection
Opis:
The problem of an Artificial Neural Network (ANN) structure optimization is related to the definition of the optimal number of hidden layers and the distribution of neurons between layers depending on a selected optimization criterion and inflicted constrains. Using a hierarchical structure is an accepted default way of defining an ANN structure. The following article presents the resolution of the optimization problem. The function describing the number of subspaces is given, and the minimum number of layers, as well as the distribution of neurons between layers, shall be found. The structure can be described using different methods, mathematical tools, and software or/and technical implementation. The ANN decomposition into hidden and output layers - the first step to build a two-level learning algorithm for cross-forward connections structure - is described, too.
Źródło:
Computer Applications in Electrical Engineering; 2014, 12; 597-608
1508-4248
Pojawia się w:
Computer Applications in Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ekstrakcja właściwości z sygnałów EA dla klasyfikatorów neuronowych
Extraction of Feature from AE Signals for Neural Classifiers
Autorzy:
Mikulski, S.
Powiązania:
https://bibliotekanauki.pl/articles/376649.pdf
Data publikacji:
2017
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
emisja akustyczna
kurtoza
drzewienie elektryczne
Opis:
W poniższym artykule przedstawiono zastosowanie różnych metod analizy sygnału w celu wydobycia danych uczących sieć neuronową, której celem jest detekcja sygnałów emisji akustycznej (EA) towarzyszących zjawisku drzewienia w żywicach epoksydowych. Badane sygnały poddano m. in. analizie statystycznej poprzez wydobycie takich danych jak: kurtoza, skośność czy wariancja. Oprócz metod statystycznych zastosowano także analizę częstotliwościową oraz metody analizy związane ściśle z metodą akustyczną. Przeprowadzona została analiza każdego z branych pod uwagę parametrów pod kątem jego przydatności podczas detekcji danych.
The following article describes random methods signal analysis used to extract learning features for neural network. Learned neural network should detect AE signals companying electrical treeing of epoxy resins. Recorded signals where analyzed with statistical features such as kurtosis and skewness. In additional to the statistical features, signal was analyzed in frequency domain and with well known AE methods.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2017, 89; 175-185
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Decomposition and the principle of interaction prediction in hierarchical structure of learning algorithm of ANN
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/376418.pdf
Data publikacji:
2015
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
artificial neural network
hierarchy
decomposition
coordination
coordination principle
Opis:
For the most popular ANN structure with one hidden layer, decomposition is done into two sub-networks. These sub-networks form the first level of the hierarchical structure. On the second level, the coordinator is working with its own target function. In the hierarchical systems theory three coordination strategies are defined. For the ANN learning algorithm the most appropriate is the coordination by the principle of interaction prediction. Implementing an off-line algorithm in all sub-networks makes the process of weight coefficient modification more stable. In the article, the quality and quantity characteristics of a coordination algorithm and the result of the learning algorithm for all sub-networks are shown. Consequently, the primary ANN achieves the global minimum during the learning process.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2015, 84; 113-120
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
“P” coordinator scheme and interaction prediction principle in hierarchical structure of ANN
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/97277.pdf
Data publikacji:
2015
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
Artificial Neural Network (ANN)
hierarchy
decomposition
coordination
coordination principle
P-regulator
feedback principle
Opis:
When implementing the hierarchical structure [4][5] of the learning algorithm of an Artificial Neural Network (ANN), two very important questions have to be solved. The first one is connected with the selection of the broad coordination principle. In [1], three different principles are described. They vary with regard to the degree of freedom for the first-level tasks. The second problem is connected with the coordinator structure or, in other words, the coordination algorithm. In the regulation theory, the process of finding the coordinator structure is known as the feedback principle. The simplest regulator structure (scheme) is known as the proportional regulator – “P” regulator. In the article, the regulator structure and its parameters are analysed as well as their impact on the learning process quality.
Źródło:
Computer Applications in Electrical Engineering; 2015, 13; 319-329
1508-4248
Pojawia się w:
Computer Applications in Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dekompozycja hierarchicznej struktury sztucznej sieci neuronowej i algorytm koordynacji
Decomposition of hierarchical structure of Artificial Neural Network and coordination algorithm
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/377202.pdf
Data publikacji:
2014
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
sztuczne sieci neuronowe
algorytm uczenia
dekompozycja
koordynacja
hierarchia
Opis:
W artykule zaproponowano przeprowadzenie dekompozycji struktury sieci na dwie warstwy. W warstwie I poziomu znajduje się N1 niepowiązanych podsieci. Natomiast w warstwie II poziomu (nadrzędnej) znajduje się podsieć warstwy ukrytej. Warstwy te powiązane są sygnałami V1, V2, które pozwalają na zastosowanie niezależnych algorytmów uczenia dla warstwy I oraz II. Prosty algorytm koordynacji umożliwia obliczenie wartości sygnałów między warstwowych, a tym samym osiągnięcie minimum globalnej funkcji celu.
The article presents decomposition of Artificial Network Structure into two layers. Layer one (lower one) consist of N1 independent sub layers. The second layer (upper one) is a hidden layer. Vectors V1 and V2 are introduced as coordinator between two layers. The coordinator uses different algorithms connecting vectors V1 and V2. In this way, the coordinator is able to coordinate two independent learning algorithms for each layer. The coordination algorithm was described and final learning results are presented. Presented results of an on - line learning algorithm were used for both, the first and the second layer. For the future study, an off-line learning algorithm will be used.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2014, 80; 223-230
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Uczenie wielowarstwowych szerokich sieci neuronowych z funkcjami aktywacji typu ReLu w zadaniach klasyfikacji
Teaching multilayer wide neural networks with ReLU activation function in the classification tasks
Autorzy:
Płaczek, S.
Płaczek, A.
Powiązania:
https://bibliotekanauki.pl/articles/377248.pdf
Data publikacji:
2018
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
sieci neuronowe
algorytmy uczenia
uczenie głębokie
sieci szerokie
Opis:
W artykule przedstawiono obecnie nowy kierunek rozwoju Sztucznych Sieci Neuronowych w zadaniach aproksymacji i klasyfikacji. W praktyce stosowano sieci o jednej, maksimum dwóch warstwach ukrytych oraz funkcjach aktywacji typu sigmoid lub tanh. Funkcje te charakteryzują się małą zmiennością wartości dla większych wartości zmiennej wejściowej (występują obszary nasycenia) . Konsekwencją tego jest bardzo mała wartość pochodnej funkcji celu, która jest obliczana w algorytmie uczenia typu wstecznej propagacji błędu. W warstwach oddalonych od wyjścia sieci, algorytm operuje wartościami małymi, bliskimi zero, co powoduje, że algorytm jest bardzo wolno zbieżny. W sieciach o wielu warstwach ukrytych (10-15, a nawet więcej), stosuje się odcinkowe funkcje aktywacji pomimo ich formalno – matematycznych niedoskonałości. Stosując metody numeryczne w obliczeniu pochodnej, można ten problem rozwiązać, a tym samych poprawnie obliczyć pochodną funkcji aktywacji. Powyższe pozwala na obliczenie gradientu funkcji celu dla warstw głębokich uzyskując jednocześnie zadawalającą szybkość zbieżności.
In the article, a new way of artificial neural network development in the classification task is introduced. In the past, neural networks with two or maximum three hidden layers were used. The sigmoid or tanh activation functions were implemented as well. These functions have very interesting properties that are very useful in the learning algorithms. Unfortunately, they have a saturation area for the small and big argument’s value. As a consequence, if the derivatives are calculated in every hidden layer, they values are very small, near zero. It has a very negative impact on the property of the learning algorithm. In this area, an algorithm is working very slowly. Two factors now have big impact on the neural network development: big databases and power microprocessors. Therefore, a deep neural network with many hidden layers could be used in practice tasks. To improve the gradient calculation a new activation function, ReLU, is used. In the article, the properties of these neural networks are studied. It is the first step to building more powerful networks that are known as Convolutional Neural Networks.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2018, 96; 47-58
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielokryterialny dobór parametrów operatora mutacji w algorytmie ewolucyjnym uczenia sieci neuronowej
Multi benchmark choice of mutation parameters in evolutionary algorithm of neural network learning
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/377966.pdf
Data publikacji:
2017
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
algorytmy genetyczne
algorytmy ewolucyjne
sztuczne sieci neuronowe
algorytmy uczenia sieci
algorytmy selekcji, krzyżowania, mutacji
Opis:
Implementacja Algorytmów Ewolucyjnych (AE) do zadań uczenia Sztucznych Sieci Neuronowych (SSN) nie jest zadaniem łatwym. Zastosowanie algorytmów ewolucyjnych wyeliminowało ograniczenia algorytmów gradientowych lecz niestety napotykamy na szereg nowych problemów. W artykule analizuje się dwuwarstwową sieć neuronową , w której, w charakterze genotypu przyjmuje się dwa chromosomy połączone szeregowo. Tworzy się całą populację sieci neuronowych o indywidualnych własnościach chromosomów oblicza się wartości funkcji celu oraz realizuje się proces selekcji. W proponowanym rozwiązaniu eliminuje się algorytm krzyżowania i stosuje się tylko mutację. Operator mutacji, jego parametry mogą być identyczne dla dwóch chromosomów, różne i nieskorelowane lub różne i skorelowane. W artykule analizuje się różne charakterystyki algorytmu mutacji, zalety i wady.
The optimization of the learning algorithm in neural networks is not a trivial task. Considering the non–linear characteristics of the activation functions , the entire task is multidimensional and non–linear with a multimodal target function. Implementing evolutionary computing in the multimodal optimization tasks gives the developer new and effective tools for seeking the global minimum. A developer has to find optimal and simple transformation between the realization of a phenotype and a genotype. In the article, a two–layer neural network is analyzed. Two serially connected chromosomes represent the genotype. In the first step the population is created. In the main algorithm loop, a parent selection mechanism is used together with the fitness function. To evaluate the quality of evolutionary computing process different measured characteristics are used. The final results are depicted using charts and tables.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2017, 91; 175-186
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie charakterystyk wydajnościowych algorytmu uczenia dla Standardowej Sieci Neuronowej oraz sieci zdekomponowanej i koordynowanej metodą prognozowania wartości interfejsów
A comparison of the performance characteristics of a teaching algorithm for a Standard Neural Network and a decomposed network coordinated by the interface forecasting method
Autorzy:
Płaczek, S.
Powiązania:
https://bibliotekanauki.pl/articles/376307.pdf
Data publikacji:
2018
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
sieć dwupoziomowa
dekompozycja
koordynacja
algorytm uczenia
Opis:
Standardową Sieć Neuronową zdefiniujemy jako zintegrowany moduł składający się z wielu warstw, bez wewnętrznych sprzężeń zwrotnych i pełnym pokryciem wag w poszczególnych warstwach. Warstwa składa się z macierzy wag łączących wektor wejściowy X z wewnętrznym wektorem U, który z kolei przetwarzany jest przez funkcję aktywacji tworząc wektor wyjściowy Y. Algorytmy uczenia tak zdefiniowanej sieci są znane. Napotykają one jednak na określone problemy numeryczne związane z szybkością zbieżności do wartości minimum. W artykule proponuje się zastąpienie jedno poziomowej, wielowarstwowej sieci, siecią zdekomponowaną. Konfiguracja składa się z niezależnych modułów zawierających warstwy sieci pierwotnej oraz koordynatora. Koordynator koncepcyjnie znajduje się na drugim poziomie, Jego celem jest skoordynowanie lokalnych funkcji celu warstw w taki sposób, aby realizując swoje lokalne funkcje celu , zostało jednocześnie osiągnięte minimum globalnej funkcji celu. Sieć jako całość będzie przygotowana do realizacji zadań klasyfikacji. Porównuje się charakterystyki uczenia dwóch przedstawionych konfiguracji sieci.
A Standard Neural Network is defined as an integrated module of a set of layers with both forward and full weight coefficient connections in all layers. Every layer is built by the matrix of the weight coefficients connecting an input vector X with an internal vector U, which, in the next step, is the input of the activation function, and the output vector Y is calculated. For these kinds of neural networks, the teaching algorithms are well known. Unfortunately, in an algorithm practice realization, a lot of numeric problems appear to achieve fast convergence. A lot of components have negative impacts on the entire calculation process. In the article, a decomposed network replaces a level in a multilayer network. A network is built by independent layers in the first level and the coordinator in the second. Layers have to solve their local optimization task using their own algorithms. Local solutions are coordinated by the coordinator. The coordinator, working together with the first level, is responsible for solving the global optimization task, which is laid outside the network. Finally, a network is ready to classify new input data. In the article, quality and quantity characteristics for these two networks are compared.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2018, 96; 59-70
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-9 z 9

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies