Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Własności wybranych typów sieci neuronowych wykorzystywanych do detekcji położenia oczu pacjenta

Tytuł:
Własności wybranych typów sieci neuronowych wykorzystywanych do detekcji położenia oczu pacjenta
Properties of selected neural network types used for the detection of the position of patient’s eyes
Autorzy:
Koprowski, R.
Wróbel, Z.
Powiązania:
https://bibliotekanauki.pl/articles/130123.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
sieć neuronowa
przetwarzanie obrazów
rozpoznawanie obrazów
oczy
detekcja
neural network
image processing
image recognition
eye detection
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 319-329
2083-2214
2391-9477
Język:
polski
Prawa:
CC BY-SA: Creative Commons Uznanie autorstwa - Na tych samych warunkach 4.0
Dostawca treści:
Biblioteka Nauki
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie
W pracy przedstawiono zastosowanie sieci neuronowych ze wsteczną propagacją błędów do zadania rozpoznawania oczu pacjenta widocznych w dowolnej projekcji na obrazie w świetle widzialnym. Rozpatrywana analiza dotyczy wskazywania z możliwie największą dokładnością środków oczu pacjenta dla różnych warunków pomiaru np. zmian oświetlenia. Przeprowadzono weryfikacje błędu uczenia sieci neuronowej w zależności od liczby neuronów w poszczególnych warstwach, liczby warstw, typów neuronów oraz wybranych ustawień jej parametrów. Uzyskane wyniki potwierdzają konieczność losowego doboru przypadków pozytywnych i negatywnych (zawierających i nie zawierających obrazu oka) w wektorze uczącym. Najlepsze rezultaty (ok. 10 % błędnych rozpoznań dla 1 300) uzyskano dla sieci neuronowej ze wsteczną propagacją błędów dla jednej warstwy ukrytej składającej się z 10 neuronów po 400 epokach.

This paper presents the application of a backpropagation neural network to the isolation of patient’s eyes visible in any picture in visible light. The method properties were analysed depending on: the number of neutrons in the individual layers, the number of layers, neuron types and selected network types. The research covered in this paper is a part of a project aimed at developing methods for the three-dimensional mapping of a patient’s body. The project is funded from grant no. 4 T12E 052 27: The automation of the measurements of digital images for a photogrammetric system for a 3D patient’s body positioning employed in medical rehabilitation. The obtained results confirm the usefulness of neural networks in eye recognition, in which there were 10 % incorrect recognitions for 1 300 patients. Due to the large number of measured properties, the number of images that formed the learning vector was set to 4 960 (about 200 examined patients). The learning vector included 2 480 images containing an eye, as well as 2 480 images without eyes, put in random order. The validation and test vector were created in a similar way, using 4 960 and 19 500 images (of 200 and 1 300 patients), respectively. The quality of recognition was improved and the number of incorrect recognitions was reduced by employing additional transformations of the result images from the neural network. For instance, comparing the maximum area determined by the network and the respective maximum output value from the network allowed reducing the error to approximately 3 %. Additionally, the paper proposes various neural network structures and configurations and evaluates their effectiveness in this application. The methodology covered in this paper can be extended to other problems of a similar type.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies