Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "aproksymacja neuronowa" wg kryterium: Temat


Wyświetlanie 1-6 z 6
Tytuł:
Obrazowanie struktury defektowej kryształów półizolującego GaAs poprzez analizę relaksacyjnych przebiegów fotoprądu z zastosowaniem odwrotnego przekształcenia Laplacea
Imaging of defect structure of semi-insulating GaAs crystals by analysis of photocurrent relaxation wave forms with implementation of inverse Laplace transform
Autorzy:
Pawłowski, M.
Kamiński, P.
Kozłowski, R.
Kozubal, M.
Żelazko, J.
Powiązania:
https://bibliotekanauki.pl/articles/192000.pdf
Data publikacji:
2006
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Materiałów Elektronicznych
Tematy:
niestacjonarna spektroskopia fotoprądowa
odwrotne przekształcenie Laplace'a
metoda korelacyjna
obraz prążków widmowych
obrazowanie struktury defektowej kryształów
aproksymacja neuronowa
Opis:
Metodę niestacjonarnej spektroskopii fotoprądowej z wykorzystaniem odwrotnego przekształcenia Laplace'a (ILT PITS) zastosowano do obrazowania struktury defektowej monokryształów półizolującego GaAs. Zoptymalizowano oprogramowanie umożliwiające trójwymiarową wizualizację temperaturowych zmian stałych czasowych niestacjonarnych przebiegów fotoprądu. Do wyznaczania parametrów centrów defektowych na podstawie przebiegu linii grzbietowych fałd odpowiadających termicznej emisji nośników ładunku zastosowano aproksymację neuronową. Zobrazowanie struktury defektowej otrzymano w wyniku nałożenia obrazu właściwości centrów defektowych uzyskanego za pomocą odwrotnego przekształcenia Laplace'a na obraz prążków widmowych uzyskany metodą korelacyjną.
Photoinduced transient spectroscopy with implementation of the inverse Laplace transform algorithm (ILT PITS) has been employed to imaging the defect structure of SI GaAs crystals. The computer program for three-dimensional visualisation of the temperature changes of time constants of the photocurrent transients has been optimised. The parameters of defect centres were determined by a neural approximation of the ridgelines of the folds related to the thermal emission of charge carriers. The image of defect structure is obtained by combining the image of the defect centres properties produced by using the inverse Laplace transform with the spectral fringes received by means of the correlation procedure.
Źródło:
Materiały Elektroniczne; 2006, T. 34, nr 1-2, 1-2; 48-77
0209-0058
Pojawia się w:
Materiały Elektroniczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stochastic Neural Networks for Feasibility Checking
Autorzy:
Strausz, G.
Powiązania:
https://bibliotekanauki.pl/articles/908272.pdf
Data publikacji:
1999
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
optymalizacja
sieć neuronowa
aproksymacja
optimization
neural networks
simulated annealing
mean-field approximation
Opis:
Complex diagnosis problems, defined by high-level models, often lead to constraint-based discrete optimization tasks. A logical description of large, complex systems usually contains numerous variables. The first test of the logical description is typically to check the feasibility in order to know that there is no contradiction in the model. This can be formulated as an optimization problem and methods of discrete optimization theory can then be used. The purpose of the paper is to show that stochastic neural networks can be applied to this type of tasks and the networks are efficient tools for finding feasible or good-quality configurations. Boltzmann and mean-field neural networks were tested on large-sized complex problems.The paper presents simulation results obtained from a real application task and compares the performance of the neural networks being examined.
Źródło:
International Journal of Applied Mathematics and Computer Science; 1999, 9, 4; 921-937
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementacja sztucznej sieci neuronowej w architekturze równoległej z wykorzystaniem protokołu MPI
Parallel implementation of artificial neural network with use of MPI protocol
Autorzy:
Bartecki, K.
Czorny, M.
Powiązania:
https://bibliotekanauki.pl/articles/153068.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sztuczna sieć neuronowa
architektura równoległa
aproksymacja funkcji
artificial neural network
parallel architecture
function approximation
Opis:
W artykule wskazano na pewne aspekty związane z implementacją jednokierunkowej sieci neuronowej w architekturze równoległej z wykorzystaniem standardu przesyłania komunikatów MPI. Zaprezentowany przykład zastosowania sieci dotyczy klasycznego problemu aproksymacji funkcji. Zbadano wpływ liczby uruchamianych procesów na efektywność procedury uczenia i działania sieci oraz zademonstrowano negatywny wpływ opóźnień powstałych przy przesyłaniu danych za pomocą sieci LAN.
In the paper some characteristic features concerning feed-forward neural network implementation in parallel computer architecture using MPI communication protocol are investigated. Two fundamental methods of neural network parallelization are described: neural (Fig. 1) as well as synaptic parallelization (Fig. 2). Based on the presented methods, an original application implementing feed-forward multilayer neural network was built. The application includes: a Java runtime interface (Fig. 3) and a computational module based on the MPI communication protocol. The simulation tests consisted in neural network application to classical problem of nonlinear function approximation. Effect of the number of processes on the network learning efficiency was examined (Fig. 4, Tab. 1). The negative effect of transmission time delays in the LAN is also demonstrated in the paper. The authors conclude that computational advantages of neural networks parallelization on a heterogeneous cluster consisting of several personal computers will become apparent only in the case of very complex neural networks, composed of many thousands of neurons.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 638-640
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Niektóre osobliwości aproksymacji neuronowej na przykładzie odwrotnego zadania kinematyki
Some peculiarities of neural approximation on example of inverse kinematic problem
Autorzy:
Bartecki, K.
Powiązania:
https://bibliotekanauki.pl/articles/155167.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
sztuczna sieć neuronowa
aproksymacja funkcji
odwrotne zadanie kinematyki
artificial neural network
function approximation
inverse kinematics
Opis:
W artykule wskazano na pewne charakterystyczne aspekty związane z zastosowaniem jednokierunkowych sieci neuronowych jako uniwersalnych układów aproksymujących złożone zależności nieliniowe. Zaprezentowany przykład dotyczy klasycznego problemu z dziedziny robotyki -tzw. odwrotnego zadania kinematyki. Zademonstrowano wpływ właściwego doboru struktury sieci, jej algorytmu uczenia oraz wzorców uczących na jakość aproksymacji neuronowej.
Characteristic features of feedforward artificial neural networks, acting as universal function approximators, are presented. The problem under consideration concerns inverse kinematics of a two-link planar manipulator (Fig. 1). As shown in this paper, a two-layer, feedforward neural network is able to learn the nonlinear mapping between the end effector position domain and the joint angle domain of the manipulator (Fig. 2). However, a necessary condition for achieving the required approximation quality is proper selection of the network structure, especially with respect to the number of nonlinear, sigmoidal units in its hidden layer. Using too few neurons in this layer results in underfitting (Fig. 3), while too many neurons bring the problem of overfitting (Figs 6 and 7). The effect of learning algorithm efficiency as well as proper choice of learning data set on the network performance is also demonstrated (Fig. 8). Apart from the general conclusions concerning neural approximation, the presented results show also the possibility of neural control of robotic manipulator trajectory.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 6, 6; 589-592
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An enhanced differential evolution algorithmwith adaptive weight bounds for efficient training ofneural networks
Ulepszony algorytm ewolucji różnicowej z adaptacyjnymi granicami wag dla efektywnego szkolenia sieci neuronowych
Autorzy:
Limtrakul, Saithip
Wetweerapong, Jeerayut
Powiązania:
https://bibliotekanauki.pl/articles/27315365.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
neural network
differential evolution
training neural network
function approximation
sieć neuronowa
ewolucja różnicowa
trening sieci neuronowej
aproksymacja funkcji
Opis:
Artificial neural networks are essential intelligent tools for various learning tasks. Training them is challenging due to the nature of the data set, many training weights, and their dependency, which gives rise to a complicated high-dimensional error function for minimization. Thus, global optimization methods have become an alternative approach. Many variants of differential evolution (DE) have been applied as training methods to approximate the weights of a neural network. However, empirical studies show that they suffer from generally fixed weight bounds. In this research, we propose an enhanced differential evolution algorithm with adaptive weight bound adjustment (DEAW) for the efficient training of neural networks. The DEAW algorithm uses small initial weight bounds and adaptive adjustment in the mutation process. It gradually extends the bounds when a component of a mutant vector reaches its limits. We also experiment with using several scales of an activation function with the DEAW algorithm. Then, we apply the proposed method with its suitable setting to solve function approximation problems. DEAW can achieve satisfactory results compared to exact solutions.
Sztuczne sieci neuronowe są niezbędnymi inteligentnymi narzędziami do realizacji różnych zadań uczenia się. Ich szkolenie stanowi wyzwanie ze względu na charakter zbioru danych, wiele wag treningowych i ich zależności, co powoduje powstanie skomplikowanej, wielowymiarowej funkcji błędu do minimalizacji. Dlatego alternatywnym podejściem stały się metody optymalizacji globalnej. Wiele wariantów ewolucji różnicowej (DE) zostało zastosowanych jako metody treningowe do aproksymacji wag sieci neuronowej. Jednak badania empiryczne pokazują, że cierpią one z powodu ogólnie ustalonych granic wag. W tym badaniu proponujemy ulepszony algorytm ewolucji różnicowej z adaptacyjnym dopasowaniem granic wag (DEAW) dla efektywnego szkolenia sieci neuronowych. Algorytm DEAW wykorzystuje małe początkowe granice wag i adaptacyjne dostosowanie w procesie mutacji. Stopniowo rozszerza on granice, gdy składowa wektora mutacji osiąga swoje granice. Eksperymentujemy również z wykorzystaniem kilku skal funkcji aktywacji z algorytmem DEAW. Następnie, stosujemy proponowaną metodę z jej odpowiednim ustawieniem do rozwiązywania problemów aproksymacji funkcji. DEAW może osiągnąć zadowalające rezultaty w porównaniu z rozwiązaniami dokładnymi.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2023, 13, 1; 4--13
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Determining the weights of a Fourier series neural network on the basis of the multidimensional discrete Fourier transform
Autorzy:
Halawa, K.
Powiązania:
https://bibliotekanauki.pl/articles/907904.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
sieć neuronowa ortogonalna
szereg Fouriera
transformata Fouriera
aproksymacja
system nieliniowy
orthogonal neural networks
Fourier series
fast Fourier transform
approximation
nonlinear system
Opis:
This paper presents a method for training a Fourier series neural network on the basis of the multidimensional discrete Fourier transform. The proposed method is characterized by low computational complexity. The article shows how the method can be used for modelling dynamic systems.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2008, 18, 3; 369-375
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-6 z 6

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies