Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "MNIST" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
Deep convolutional neural network using a new data set for berber language
Autorzy:
Mokrane, Kemiche
Sadou, Malika
Powiązania:
https://bibliotekanauki.pl/articles/27312869.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
optical character recognition
handwritten character recognition
CNN
Berber-MNIST data set
EMNIST
Tifinagh
Latin characters
Opis:
Currently, handwritten character recognition (HCR) technology has become an interesting and immensely useful technology; it has been explored with impressive performance in many languages. However, few HCR systems have been proposed for the Amazigh (Berber) language. Furthermore, the validation of any Amazigh handwritten character-recognition system remains a major challenge due to the lack of availability of a robust Amazigh database. To address this problem, we first created two new data sets for Tifinagh and Amazigh Latin characters by extending the well-known EMNIST database with the Amazigh alphabet. Then, we proposed a handwritten character recognition system that is based on a deep convolutional neural network to validate the created data sets. The proposed convolutional neural network (CNN) has been trained and tested on our created data sets, the experimental tests showed that it achieves satisfactory results in terms of accuracy and recognition efficiency.
Źródło:
Computer Science; 2023, 24 (2); 225--241
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of classical machine learning algorithms in the task of handwritten digits classification
Porównanie klasycznych algorytmów uczenia maszynowego w zadaniu klasyfikacji liczb pisanych odręcznie
Autorzy:
Voloshchenko, Oleksandr
Plechawska-Wójcik, Małgorzata
Powiązania:
https://bibliotekanauki.pl/articles/2055139.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
machine learning
classification
MNIST
classical algorithms
uczenie maszynowe
klasyfikacja
algorytmy klasyczne
Opis:
The purpose of this paper is to compare classical machine learning algorithms for handwritten number classification. The following algorithms were chosen for comparison: Logistic Regression, SVM, Decision Tree, Random Forest and k-NN. MNIST handwritten digit database is used in the task of training and testing the above algorithms. The dataset consists of 70,000 images of numbers from 0 to 9. The algorithms are compared considering such criteria as the learn-ing speed, prediction construction speed, host machine load, and classification accuracy. Each algorithm went through the training and testing phases 100 times, with the desired metrics retained at each iteration. The results were averaged to reach the reliable outcomes.
Celem niniejszej pracy jest porównanie klasycznych algorytmów uczenia maszynowego do klasyfikacji liczb pisanych odręcznie. Do porównania wybrano następujące algorytmy: Logistic Regression, SVM, Decision Tree, Random Forest oraz k-NN. Do szkolenia i testowania powyższych algorytmów wykorzystano zbiór danych MNIST. Zbiór danych składa się z 70 000 obrazów cyfr od 0 do 9. Algorytmy porównywane są z uwzględnieniem takich kryteriów jak szyb-kość uczenia, szybkość budowania predykcji, obciążenie maszyny głównej oraz dokładność klasyfikacji. Każdy algo-rytm przeszedł przez fazy szkolenia i testowania 100 razy, z zachowaniem pożądanych metryk przy każdej iteracji. Wyniki zostały uśrednione w celu uzyskania wiarygodnych rezultatów.
Źródło:
Journal of Computer Sciences Institute; 2021, 21; 279-286
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Convergence Analysis of An Improved Extreme Learning Machine Based on Gradient Descent Method
Autorzy:
Yusong, L.
Zhixun, S.
Bingjie, Y.
Xiaoling, G.
Zhaoyang, S.
Powiązania:
https://bibliotekanauki.pl/articles/972914.pdf
Data publikacji:
2016
Wydawca:
Społeczna Akademia Nauk w Łodzi
Tematy:
neural networks
monotonicity
weak convergence
strong convergence
USUA
MNIST
Opis:
Extreme learning machine (ELM) is an efficient algorithm, but it requires more hidden nodes than the BP algorithms to reach the matched performance. Recently, an efficient learning algorithm, the upper-layer-solution-unaware algorithm (USUA), is proposed for the single-hidden layer feed-forward neural network. It needs less number of hidden nodes and testing time than ELM. In this paper, we mainly give the theoretical analysis for USUA. Theoretical results show that the error function monotonously decreases in the training procedure, the gradient of the error function with respect to weights tends to zero (the weak convergence), and the weight sequence goes to a fixed point (the strong convergence) when the iterations approach positive infinity. An illustrated simulation has been implemented on the MNIST database of handwritten digits which effectively verifies the theoretical results.
Źródło:
Journal of Applied Computer Science Methods; 2016, 8 No. 1; 5-15
1689-9636
Pojawia się w:
Journal of Applied Computer Science Methods
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies