Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "mobile robot localization" wg kryterium: Temat


Wyświetlanie 1-2 z 2
Tytuł:
Wykorzystanie transformaty Hough`a do lokalizacji robota mobilnego
Hough transform for mobile robot localization
Autorzy:
Siemiątkowska, B.
Powiązania:
https://bibliotekanauki.pl/articles/151948.pdf
Data publikacji:
2004
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
robot mobilny
lokalizacja
transformata Hough'a
mobile robotics
localization
Hough transform
Opis:
W niniejszej pracy przedstawione zostanie zastosowanie transformaty Hough`a w określeniu zmian położenia robota w środowisku, które nie jest znane. Przyjęto założenie, że robot wyposażony w laserowy czujnik odległości porusza się we wnetrzu budynku. Znajdowane są cechy charakterystyczne otoczenia - fragmenty ścian. Określenie przemieszczenia robota odbywa się na podstawie określenia zmian położenia robota względem wykrytych obiektów charakterystycznych. Odcinki wykrywane są przy pomocy transformaty Hough`a. Opisywane w poniższym artykule badania są rozszerzeniem i uzupełnieniem metody przedstawionej w (1).
The paper presents the application of Hough transform for mobile robot localization. It is assumed that the robot acts in an unknown environment. It is equipped with the SICK laser range finder. The robot looks for segments which are features of the environment. Comparing the robot position relatively to the segments the displacement of the vehicle is computed. In this paper a certain modification of Hough transform is proposed in order to detect the segments and to compute their equations. Presented experiments show the efficiency of the proposed approach.
Źródło:
Pomiary Automatyka Kontrola; 2004, R. 50, nr 4, 4; 21-24
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie metod opartych na cechach 2D i 3D w zadaniu samolokalizacji robota mobilnego na podstawie danych RGB-D
Comparing robot self-localization methods exploiting 2D and 3D features in RGB-D data
Autorzy:
Nowicki, M.
Powiązania:
https://bibliotekanauki.pl/articles/158487.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
robot mobilny
sensor Kinect
detektory cech
deskryptory cech
samolokalizacja
mobile robots
Kinect sensor
feature detectors
self-localization
Opis:
Praca porusza problem estymacji transformacji przestrzennej pomiędzy kolejnymi pozycjami robota mobilnego. Transformacja wyznaczana jest na podstawie danych RGB-D uzyskanych z sensora Kinect w kolejnych pozycjach wzdłuż trajektorii ruchu robota. Bardzo duża liczba punktów w przestrzeni otrzymanych z sensora Kinect powoduje, że nie mogą być one przetwarzane w czasie rzeczywistym na większości komputerów pokładowych robotów mobilnych. Dlatego w pracy porównano dwie metody ekstrakcji punktów charakterystycznych (kluczowych) redukujących rozmiar zbioru danych: cechy oparte na detekcji w chmurze punktów 3D oraz cechy oparte na detekcji na dwuwymiarowym obrazie RGB. Metody te porównano pod względem czasu działania, skuteczności ekstrakcji punktów oraz dryftu estymaty pozycji robota na publicznie dostępnych zbiorach danych RGB-D.
This paper addresses the problem of determining the egomotion between consecutive robot poses. The RGB-D Kinect sensor is used, which yields large amount of 3D points. It is impossible to process these data in realtime on most of the mobile robots. Thus, we present two approaches to point feature detection: 3D geometric features obtained from point clouds [9] and photometric 2D features detected in the RGB image [1]. Both methods are compared on publicly available RGB-D datasets [8, 10]. The detection on 2D image is the core of the currently state-of-the-art SLAM systems [3] while 3D features are an invention made especially for data captured by the Kinect-like sensors. First, it is demonstrated that both methods can be a part of a successful visual odometry system. Moreover, it is shown that detection of 2D image features is much faster than 3D, while the description is faster in case of 3D features (Tab. 1.). Performed experiments revealed that 3D geometric features tend to work better in environments of richer geometric structure (Tab. 2.) while method using photometric 2D features can be successfully expanded to additionally use 2D features detected on the depth image.
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 10, 10; 845-848
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies