Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "neural network training" wg kryterium: Temat


Wyświetlanie 1-14 z 14
Tytuł:
A novel fast feedforward neural networks training algorithm
Autorzy:
Bilski, Jarosław
Kowalczyk, Bartosz
Marjański, Andrzej
Gandor, Michał
Zurada, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/2031099.pdf
Data publikacji:
2021
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
neural network training algorithm
QR decomposition
Givens rotations
approximation
classification
Opis:
In this paper1 a new neural networks training algorithm is presented. The algorithm originates from the Recursive Least Squares (RLS) method commonly used in adaptive filtering. It uses the QR decomposition in conjunction with the Givens rotations for solving a normal equation - resulting from minimization of the loss function. An important parameter in neural networks is training time. Many commonly used algorithms require a big number of iterations in order to achieve a satisfactory outcome while other algorithms are effective only for small neural networks. The proposed solution is characterized by a very short convergence time compared to the well-known backpropagation method and its variants. The paper contains a complete mathematical derivation of the proposed algorithm. There are presented extensive simulation results using various benchmarks including function approximation, classification, encoder, and parity problems. Obtained results show the advantages of the featured algorithm which outperforms commonly used recent state-of-the-art neural networks training algorithms, including the Adam optimizer and the Nesterov’s accelerated gradient.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2021, 11, 4; 287-306
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards a very fast feedforward multilayer neural networks training algorithm
Autorzy:
Bilski, Jarosław
Kowalczyk, Bartosz
Kisiel-Dorohinicki, Marek
Siwocha, Agnieszka
Żurada, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/2147135.pdf
Data publikacji:
2022
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
neural network training algorithm
QR decomposition
scaled Givens rotation
approximation
classification
Opis:
This paper presents a novel fast algorithm for feedforward neural networks training. It is based on the Recursive Least Squares (RLS) method commonly used for designing adaptive filters. Besides, it utilizes two techniques of linear algebra, namely the orthogonal transformation method, called the Givens Rotations (GR), and the QR decomposition, creating the GQR (symbolically we write GR + QR = GQR) procedure for solving the normal equations in the weight update process. In this paper, a novel approach to the GQR algorithm is presented. The main idea revolves around reducing the computational cost of a single rotation by eliminating the square root calculation and reducing the number of multiplications. The proposed modification is based on the scaled version of the Givens rotations, denoted as SGQR. This modification is expected to bring a significant training time reduction comparing to the classic GQR algorithm. The paper begins with the introduction and the classic Givens rotation description. Then, the scaled rotation and its usage in the QR decomposition is discussed. The main section of the article presents the neural network training algorithm which utilizes scaled Givens rotations and QR decomposition in the weight update process. Next, the experiment results of the proposed algorithm are presented and discussed. The experiment utilizes several benchmarks combined with neural networks of various topologies. It is shown that the proposed algorithm outperforms several other commonly used methods, including well known Adam optimizer.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2022, 12, 3; 181--195
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A patient walk-data-record modelling using a spline interpolation method
Autorzy:
Chandzlik, S.
Piecha, J.
Powiązania:
https://bibliotekanauki.pl/articles/332939.pdf
Data publikacji:
2002
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
szkolenia sieci neuronowych
automatyzacja diagnostyki medycznej
neural network training
conclusion-making systems
medical diagnostics automation
Opis:
The paper describes an analytical method of data record description that allows converting samples of discrete data record into continuous function. This operation allows re-sampling the data record with a sampling rate that is adequate to step duration. The record length is limited to an efficient size for training the Conclusion-Making Unit (CMU). Various options available in the PSW equipment [6], [7] give the user many aims in putting diagnosis anyhow, due to simplification of the CMU training process several methods for data records modifications are considered.
Źródło:
Journal of Medical Informatics & Technologies; 2002, 3; MI153-159
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling the data record of a patient walk by langrange-polynomial method
Autorzy:
Chandzlik, S.
Piecha, J.
Powiązania:
https://bibliotekanauki.pl/articles/332944.pdf
Data publikacji:
2002
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
szkolenia sieci neuronowych
automatyzacja diagnostyki medycznej
neural network training
conclusion-making systems
medical diagnostics automation
Opis:
Various options available in PSW footprint and walking characteristics measuring equipment [6], [7], give the user many aims in putting diagnosis. A Conclusion-Making Unit (CMU) that has been described in this paper supports the diagnosis automation procedures. Due to simplifying the CMU training process some affords in a field of the input record length reduction have been undertaken. The paper describes an analytical method of the data record description that allows converting discrete data samples into continuous function. This way a redigitalisation of the record can be done, where sampling period is matched with the walk length. This normalization allows reducing the data record length used for fast training of the CMU.
Źródło:
Journal of Medical Informatics & Technologies; 2002, 3; MI143-152
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The interference spectrum extraction of a gait characteristics data record
Autorzy:
Chandzlik, S.
Piecha, J.
Powiązania:
https://bibliotekanauki.pl/articles/333704.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
szkolenia sieci neuronowych
analiza chodu
zaburzenia chodu
rozpoznanie niedowładu połowicznego
rozpoznanie choroby Parkinsona
neural network training
gait analysis
gait disturbances
hemiparesis diagnosis
Parkinson's disease diagnosis
Opis:
The paper shows several aspects of the gait data record analysis describing neurological diseases. The diagnosis of the gait abnormalities concerns interferences level of the patient physiological records. The disease source and level can be classified by the relevant interference functions. These functions were used for artificial records creation to multiply the necessary set of data needed for neural network training.
Źródło:
Journal of Medical Informatics & Technologies; 2004, 7; KB23-32
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An enhanced differential evolution algorithmwith adaptive weight bounds for efficient training ofneural networks
Ulepszony algorytm ewolucji różnicowej z adaptacyjnymi granicami wag dla efektywnego szkolenia sieci neuronowych
Autorzy:
Limtrakul, Saithip
Wetweerapong, Jeerayut
Powiązania:
https://bibliotekanauki.pl/articles/27315365.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
neural network
differential evolution
training neural network
function approximation
sieć neuronowa
ewolucja różnicowa
trening sieci neuronowej
aproksymacja funkcji
Opis:
Artificial neural networks are essential intelligent tools for various learning tasks. Training them is challenging due to the nature of the data set, many training weights, and their dependency, which gives rise to a complicated high-dimensional error function for minimization. Thus, global optimization methods have become an alternative approach. Many variants of differential evolution (DE) have been applied as training methods to approximate the weights of a neural network. However, empirical studies show that they suffer from generally fixed weight bounds. In this research, we propose an enhanced differential evolution algorithm with adaptive weight bound adjustment (DEAW) for the efficient training of neural networks. The DEAW algorithm uses small initial weight bounds and adaptive adjustment in the mutation process. It gradually extends the bounds when a component of a mutant vector reaches its limits. We also experiment with using several scales of an activation function with the DEAW algorithm. Then, we apply the proposed method with its suitable setting to solve function approximation problems. DEAW can achieve satisfactory results compared to exact solutions.
Sztuczne sieci neuronowe są niezbędnymi inteligentnymi narzędziami do realizacji różnych zadań uczenia się. Ich szkolenie stanowi wyzwanie ze względu na charakter zbioru danych, wiele wag treningowych i ich zależności, co powoduje powstanie skomplikowanej, wielowymiarowej funkcji błędu do minimalizacji. Dlatego alternatywnym podejściem stały się metody optymalizacji globalnej. Wiele wariantów ewolucji różnicowej (DE) zostało zastosowanych jako metody treningowe do aproksymacji wag sieci neuronowej. Jednak badania empiryczne pokazują, że cierpią one z powodu ogólnie ustalonych granic wag. W tym badaniu proponujemy ulepszony algorytm ewolucji różnicowej z adaptacyjnym dopasowaniem granic wag (DEAW) dla efektywnego szkolenia sieci neuronowych. Algorytm DEAW wykorzystuje małe początkowe granice wag i adaptacyjne dostosowanie w procesie mutacji. Stopniowo rozszerza on granice, gdy składowa wektora mutacji osiąga swoje granice. Eksperymentujemy również z wykorzystaniem kilku skal funkcji aktywacji z algorytmem DEAW. Następnie, stosujemy proponowaną metodę z jej odpowiednim ustawieniem do rozwiązywania problemów aproksymacji funkcji. DEAW może osiągnąć zadowalające rezultaty w porównaniu z rozwiązaniami dokładnymi.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2023, 13, 1; 4--13
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Introducing artificial neural network in ontologies alignment process
Autorzy:
Djeddi, W. E.
Khadir, M. T.
Powiązania:
https://bibliotekanauki.pl/articles/206314.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
artificial neural network
training
ontology alignment
WordNet
XMap++
Opis:
Ontology alignment uses different similaritymeasures of different categories such as string, linguistic, and structural based similarity measures to understand ontologies’ semantics. A weights vector must, therefore, be assigned to these similarity measures, if a more accurate and meaningful alignment result is favored. Combining multiple measures into a single similarity metric has been traditionally solved using weights determined manually by an expert, Or calculated through general methods (e.g. average or sigmoid function) that do not provide optimal results. In this paper, we propose an artificial neural network algorithm to ascertain how to Combie multiple similarity measures into a single aggregated metric with the final aim of improving the ontology alignment quality. XMap++ is applied to benchmark tests at OAEI campaign 2010. Results show that neural network boosts the performance in most cases, and that the proposed novel approach is competitive with top-ranked system.
Źródło:
Control and Cybernetics; 2012, 41, 4; 743-759
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dynamically-adaptive Weight in Batch Back Propagation Algorithm via Dynamic Training Rate for Speedup and Accuracy Training
Autorzy:
Al_Duais, M. S.
Mohamad, F. S.
Powiązania:
https://bibliotekanauki.pl/articles/307920.pdf
Data publikacji:
2017
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
artificial neural network (ANN)
batch back propagation algorithm
dynamic training rate
speed up training
accuracy training
Opis:
The main problem of batch back propagation (BBP) algorithm is slow training and there are several parameters need to be adjusted manually, such as learning rate. In addition, the BBP algorithm suffers from saturation training. The objective of this study is to improve the speed up training of the BBP algorithm and to remove the saturation training. The training rate is the most significant parameter for increasing the efficiency of the BBP. In this study, a new dynamic training rate is created to speed the training of the BBP algorithm. The dynamic batch back propagation (DBBPLR) algorithm is presented, which trains with adynamic training rate. This technique was implemented with a sigmoid function. Several data sets were used as benchmarks for testing the effects of the created dynamic training rate that we created. All the experiments were performed on Matlab. From the experimental results, the DBBPLR algorithm provides superior performance in terms of training, faster training with higher accuracy compared to the BBP algorithm and existing works.
Źródło:
Journal of Telecommunications and Information Technology; 2017, 4; 82-89
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal training strategies for locally recurrent neural networks
Autorzy:
Patan, K.
Patan, M.
Powiązania:
https://bibliotekanauki.pl/articles/1396735.pdf
Data publikacji:
2011
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
training schedule
neural network
Fisher information matrix
network parameters
optimal experimental design
convex optimization theory
Opis:
The problem of determining an optimal training schedule for locally recurrent neural network is discussed. Specifically, the proper choice of the most informative measurement data guaranteeing the reliable prediction of neural network response is considered. Based on a scalar measure of performance defined on the Fisher information matrix related to the network parameters, the problem was formulated in terms of optimal experimental design. Then, its solution can be readily achieved via adaptation of effective numerical algorithms based on the convex optimization theory. Finally, some illustrative experiments are provided to verify the presented approach.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2011, 1, 2; 103-114
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Nonlinearity Correction in Dynamic Measuring Devices Using Neural Network Models
Korekcja nieliniowości za pomocą modeli sieci neuronowych w zastosowaniu do dynamicznych urządzeń pomiarowych
Autorzy:
Al Rawashdeh, Laith Ahmed Mustafa
Zakharov, Igor Petrovitch
Zaporozhets, Oleg Vasyliovych
Powiązania:
https://bibliotekanauki.pl/articles/2068664.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
artificial neural network
three-layer perceptron
training
inverse model
neural network compensator
sztuczna sieć neuronowa
trójwarstwowy perceptron
uczenie
model odwrotny
kompensator sieci neuronowej
Opis:
A neural network compensator for the nonlinearity of a dynamic measuring instrument is proposed, which allows restoring the value of the measured input signal. The inverse model of a nonlinear dynamic measuring device is implemented based on a three-layer perceptron supplemented by delay lines of input signals. The properties of the proposed neural network compensator are studied through simulation computer modelling using various types of calibration input signals for the training of an artificial neural network.
Zaproponowano kompensator sieci neuronowej dla nieliniowości dynamicznego przyrządu pomiarowego, który umożliwia odtworzenie wartości mierzonego sygnału wejściowego. Odwrotny model nieliniowego dynamicznego urządzenia pomiarowego realizowany jest w oparciu o trójwarstwowy perceptron uzupełniony o linie opóźniające sygnałów wejściowych. Właściwości proponowanego kompensatora sieci neuronowej są badane poprzez symulacyjne modelowanie komputerowe z wykorzystaniem różnego rodzaju sygnałów wejściowych kalibracji do uczenia sztucznej sieci neuronowej.
Źródło:
Pomiary Automatyka Robotyka; 2020, 24, 4; 57--60
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Employing linear artificial neural networks in property appraisal and valuation – possible applications
Zastosowanie liniowych sieci neuronowych w wycenie nieruchomości – możliwości aplikacyjne
Autorzy:
Górak, M.
Powiązania:
https://bibliotekanauki.pl/articles/100240.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
neural network
artificial neuron
training set
property valuation
database
sieć neuronowa
sztuczny neuron
zbiór uczący
wycena nieruchomości
baza danych
Opis:
Transactional price is the result of some kind of free market game, and of independent decisions taken by the parties to the transaction. Prices depend on a number of factors, specific to the local real estate market. The impact of some factors is fixed, while others are dependent on the location of the property. Therefore, research into the determination of rules that would describe the relationship between the market price of the real estate, and its market characteristics, remain valid. The article presents the possibilities of applying linear artificial neural networks to real estate valuation. Using a database, the artificial linear neural network is developing a regression model, which produces the results that oscillate close to the market value of the property. The necessary condition is the creation of a database that is representative of the given real estate market.
Cena transakcyjna to wynik pewnego rodzaju gry rynkowej oraz suwerennych decyzji podejmowanych przez strony transakcji. Ceny uzależnione są od szeregu czynników charakterystycznych dla danego lokalnego rynku nieruchomości. Wpływ pewnych czynników jest niezmienny, inne zaś zależne są od lokalizacji nieruchomości. Dlatego badania nad określeniem reguł opisujących zależność pomiędzy ceną rynkową nieruchomości a jej cechami rynkowymi są wciąż aktualne. Artykuł przedstawia możliwości aplikacyjne sztucznych liniowych sieci neuronowych w wycenie nieruchomości. Sztuczna liniowa sieć neuronowa na podstawie bazy danych, opracowuje model regresyjny uzyskujący wyniki oscylujące w pobliżu rynkowej wartości nieruchomości. Warunkiem koniecznym jest utworzenie bazy danych, reprezentatywnej dla danego rynku nieruchomości.
Źródło:
Geomatics, Landmanagement and Landscape; 2017, 1; 17-24
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A modified particle swarm optimization procedure for triggering fuzzy flip-flop neural networks
Autorzy:
Kowalski, Piotr A.
Słoczyński, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2055168.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
fuzzy neural network
fuzzy flip-flop neuron
particle swarm optimization
training procedure
sieć neuronowa rozmyta
optymalizacja rojem cząstek
procedura szkoleniowa
Opis:
The aim of the presented study is to investigate the application of an optimization algorithm based on swarm intelligence to the configuration of a fuzzy flip-flop neural network. Research on solving this problem consists of the following stages. The first one is to analyze the impact of the basic internal parameters of the neural network and the particle swarm optimization (PSO) algorithm. Subsequently, some modifications to the PSO algorithm are investigated. Approximations of trigonometric functions are then adopted as the main task to be performed by the neural network. As a result of the numerical verification of the problem, a set of rules are developed that can be helpful in constructing a fuzzy flip-flop type neural network. The obtained results of the computations significantly simplify the structure of the neural network in relation to similar conditions known from the literature.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2021, 31, 4; 577--586
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An optimized parallel implementation of non-iteratively trained recurrent neural networks
Autorzy:
El Zini, Julia
Rizk, Yara
Awad, Mariette
Powiązania:
https://bibliotekanauki.pl/articles/2031147.pdf
Data publikacji:
2021
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
GPU implementation
parallelization
Recurrent Neural Network
RNN
Long-short Term Memory
LSTM
Gated Recurrent Unit
GRU
Extreme Learning Machines
ELM
non-iterative training
Opis:
Recurrent neural networks (RNN) have been successfully applied to various sequential decision-making tasks, natural language processing applications, and time-series predictions. Such networks are usually trained through back-propagation through time (BPTT) which is prohibitively expensive, especially when the length of the time dependencies and the number of hidden neurons increase. To reduce the training time, extreme learning machines (ELMs) have been recently applied to RNN training, reaching a 99% speedup on some applications. Due to its non-iterative nature, ELM training, when parallelized, has the potential to reach higher speedups than BPTT. In this work, we present Opt-PR-ELM, an optimized parallel RNN training algorithm based on ELM that takes advantage of the GPU shared memory and of parallel QR factorization algorithms to efficiently reach optimal solutions. The theoretical analysis of the proposed algorithm is presented on six RNN architectures, including LSTM and GRU, and its performance is empirically tested on ten time-series prediction applications. Opt- PR-ELM is shown to reach up to 461 times speedup over its sequential counterpart and to require up to 20x less time to train than parallel BPTT. Such high speedups over new generation CPUs are extremely crucial in real-time applications and IoT environments.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2021, 11, 1; 33-50
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying neural network in computing filling coefficient of four-stroke internal combustion engine
Zastosowanie sieci neuronowej do obliczania współczynnika napełnienia cylindra czterosuwowego silnika spalania wewnętrznego
Autorzy:
Bera, P.
Powiązania:
https://bibliotekanauki.pl/articles/368899.pdf
Data publikacji:
2011
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
sieć neuronowa
trenowanie z nauczycielem
wsteczna propagacja błędów
silnik spalinowy
współczynnik napełnienia cylindra
neural network
supervised training
backpropagation
internal combustion engine
filling coefficient
Opis:
Neural networks consist of many simple elements operating in parallel. In supervised training they are capable of finding their own solution to a particular problem, given only examples of proper behavior. It is a very useful method of solving complex, non-linear problems. The following article discusses the usage of artificial neural network to compute the value of filling coefficient of four-stroke internal combustion engines as the function of crankshaft rotational speed and throttle opening angle. The paper presents the idea of a static, two-layer feedforward network trained with the basic backpropagation algorithm in which the weights and biases are updated in the direction of the negative gradient. The article discusses network architecture and data structure, training parameters and result analysis.
Sieci neuronowe zbudowane są z dużej liczby prostych elementów działających równolegle. Uczenie z nauczycielem pozwala sieci znaleźć nowe rozwiązanie konkretnego problemu tylko na podstawie zestawu znanych poprawnych zachowań. Jest to skuteczna metoda rozwiązywania złożonych, nieliniowych zagadnień. W poniższym artykule przedstawiono przykład wykorzystania sztucznej sieci neuronowej do obliczania wartości współczynnika napełnienia cylindra czterosuwowych silników spalinowych spalania wewnętrznego w funkcji prędkości obrotowej wału korbowego i kąta otwarcia przepustnicy. Przedstawiono statyczną, dwuwarstwową sieć trenowaną podstawową metodą wstecznej propagacji błędów, w której wartości wag i progów zmieniają się w kierunku ujemnego gradientu na powierzchni błędu. W artykule omówiono budowę sieci i strukturę danych uczących, parametry trenowania oraz analizę wyników.
Źródło:
Mechanics and Control; 2011, 30, 2; 53-59
2083-6759
2300-7079
Pojawia się w:
Mechanics and Control
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-14 z 14

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies