Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "język migowy" wg kryterium: Temat


Wyświetlanie 1-2 z 2
Tytuł:
Rozpoznawanie symboli języka migowego z wykorzystaniem algorytmów cyfrowego przetwarzania obrazów
Realtime sign language recognizing using digital video processing algorithms
Autorzy:
Fogiel, A.
Tkacz, J.
Powiązania:
https://bibliotekanauki.pl/articles/154943.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Microsoft Kinect
OpenCV
OpenNI
język migowy
sign language
Opis:
W artykule został opisany proces projektowania i realizacji aplikacji, przeznaczonej do analizy, w czasie rzeczywistym, obrazów cyfrowych zawierających symbole języka migowego. Stworzone oprogramowanie zostało napisane w języku C++. Wykorzystuje ono bibliotekę OpenCV w połączeniu z sensorem Microsoft Kinect. Oprogramowanie przetwarza około 15 klatek obrazu w ciągu sekundy i rozpoznaje gesty ze skutecznością 71% . Opracowane oprogramowanie jest odporne w znacznym stopniu na wpływ warunków oświetleniowych.
The paper describes the implementation process of application that recognizes sign language symbols which are presented by a user in real time. The first part of this paper presents software and libraries used by this program. It also contains description of a Microsoft Kinect sensor with explanation of its operation. The second part of this paper is dedicated to KinectSL application. It presents the structure of the application, its algorithm and a study that led to the described method of recognizing sign language gestures. Section 5 deals with main problems that appeared while working on the project such as detecting writs and fingers. Subsection 5.4 contains the detailed explanation of parameters that are passed to a KNN classifier and formulas necessary to compute them. The presented application is multi-platform and can be run on Windows, Linux and MacOS operating systems. This software is able to recognize gestures for two hand at once that allows it to support advanced gestures. The tests carried out showed that KinectSL processed 15 frames per second and its performance of gestures recognizing was above 71 percent. The described system is a good basis to create a program that will be able to fluent translate sign language. It can also be used in industry and entertainment to control processes with user gestures.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 11, 11; 1167-1170
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Arabic and American Sign Languages Alphabet Recognition by Convolutional Neural Network
Autorzy:
Alshomrani, Shroog
Aljoudi, Lina
Arif, Muhammad
Powiązania:
https://bibliotekanauki.pl/articles/2023675.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
convolutional neural network
deep learning
American sign language
Arabic sign language
sieć neuronowa
głębokie uczenie
amerykański język migowy
arabski język migowy
Opis:
Hearing loss is a common disability that occurs in many people worldwide. Hearing loss can be mild to complete deafness. Sign language is used to communicate with the deaf community. Sign language comprises hand gestures and facial expressions. However, people find it challenging to communicate in sign language as not all know sign language. Every country has developed its sign language like spoken languages, and there is no standard syntax and grammatical structure. The main objective of this research is to facilitate the communication between deaf people and the community around them. Since sign language contains gestures for words, sentences, and letters, this research implemented a system to automatically recognize the gestures and signs using imaging devices like cameras. Two types of sign languages are considered, namely, American sign language and Arabic sign language. We have used the convolutional neural network (CNN) to classify the images into signs. Different settings of CNN are tried for Arabic and American sign datasets. CNN-2 consisting of two hidden layers produced the best results (accuracy of 96.4%) for the Arabic sign language dataset. CNN-3, composed of three hidden layers, achieved an accuracy of 99.6% for the American sign dataset.
Źródło:
Advances in Science and Technology. Research Journal; 2021, 15, 4; 136-148
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies