Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Fusing laser and vision data for a perceptually rich environment description

Tytuł:
Fusing laser and vision data for a perceptually rich environment description
Opis otoczenia na podstawie danych z sensorów laserowych i wizyjnych
Autorzy:
Skrzypczyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/257108.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Eksploatacji - Państwowy Instytut Badawczy
Tematy:
robot mobilny
nawigacja
system wizyjny
ekstrakcja cech
mobile robot
navigation
computer vision
feature extraction
Źródło:
Problemy Eksploatacji; 2008, 3; 57-67
1232-9312
Język:
angielski
Prawa:
Wszystkie prawa zastrzeżone. Swoboda użytkownika ograniczona do ustawowego zakresu dozwolonego użytku
Dostawca treści:
Biblioteka Nauki
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie
In this paper we, discuss methods to increase the discriminative properties of the laser-based geometric landmarks used in simultaneous localisation and mapping by employing monocular vision data. Vertical edges extracted from images help to estimate the length of the line segments, which are only partially observed. Salient visual features, which defy simple geometric interpretation, are handled by the scale invariant feature transform method. These different types of photometric features are aggregated together with the basic 2D line segments extracted from the laser scanner data into the Perceptually Rich Segments.

W pracy przedstawiono metody poprawiające rozróżnialność obiektów geometrycznych wyodrębnionych z danych uzyskanych ze skanera laserowego i wykorzystywanych w systemie jednoczesnej samolokalizacji i budowy mapy otoczenia robota. Założono, że robot porusza się w środowisku zbudowanym przez człowieka, w którym dominują pionowe płaszczyzny (ściany). Poprawę rozróżnialności obiektów uzyskano dzięki wykorzystaniu danych z monookularowego systemu wizyjnego robota. Krawędzie pionowe wyodrębnione z obrazów umożliwiają prawidłową estymację długości odcinków 2D odtworzonych uprzednio na podstawie danych ze skanera laserowego. Fotometryczne cechy znaczące wyodrębniane są z obrazów i opisywane za pomocą metody Scale Invariant Feature Transform (SIFT). Uzyskane wektory parametrów osadzane są następnie w "ramach" tworzonych przez odcinki poziome oraz krawędzie pionowe. Powstają w ten sposób obiekty nowego typu - PRS (ang. Perceptually Rich Segment). Zaprezentowano wyniki eksperymentów dotyczących wyodrębniania i dopasowywania do siebie wektorów SIFT oraz wstępne wyniki dotyczące budowy modelu otoczenia z użyciem obiektów PRS.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies