Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "robot vision" wg kryterium: Temat


Tytuł:
Real-time Video Vectorization Method for the Purpose of Surroundings Recognition and Mobile Robot Navigation
Autorzy:
Zachara, M.
Tadeusiewicz, R.
Powiązania:
https://bibliotekanauki.pl/articles/384314.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robot vision
surroundings recognition
real time navigation
edge detection
Opis:
In thise paper a very simple method of the visual information interpretation for recognition and navigation purposes is presented and discussed. The proposed method consists of six steps: image acquisition, edge detection, fast edge vectorization using a high number of short preliminary vectors, aggregation of the preliminary vectors into the form of final vectors. The next stages of the visualthe visual information interpretation for recognition and navigation purposes will be description of the objects’ shapes by means of the final vectors, object recognition and/or robot navigation on the base of comparison between actual shape description and templates memorized during the programming/training process, but they are not discussed in this paper. The main advantage of the proposed method is a simple and time-effective algorithm, which can be performed in real time also by a simple and cheap processor, working as a “brain” of the considered robot.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2008, 2, 2; 10-17
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Recognition of unknown scale objects
Rozpoznawanie obiektów o nieznanej skali
Autorzy:
Żorski, W.
Powiązania:
https://bibliotekanauki.pl/articles/209558.pdf
Data publikacji:
2008
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
transformata Hough'a
systemy widzenia robotów
widzenie maszynowe
dobieranie wzorców
Hough transforms
robot vision systems
machine vision
pattern matching
Opis:
This paper presents an application of the Hough Transform to the task of identifying objects of unknown scale, e.g. within a scene in a robot vision system. The presented method is based on the Hough Transform for irregular objects, with a parameter space defined by translation, rotation and scaling operations. The high efficiency of the technique allows for poorquality or highly complex images to be analysed. The technique may be used in robot vision systems, identification systems or for image analysis, directly on grey-level images.
Artykuł prezentuje zastosowanie transformaty Hougha do zadań identyfikacji obiektów o nieznanej skali, np. na scenie w systemie widzenia robota. Metoda wykorzystuje transformatę Hougha dla wzorców nieregularnych, z przestrzenią parametrów określoną przez operacje: translacji, obrotu i skalowania. Wysoka sprawność techniki pozwala na analizę obrazów o słabej jakości lub dużej złożoności. Technika może być przykładowo zastosowana w systemach widzenia robotów, do bezpośredniej analizy obrazów pozyskanych w poziomach szarości.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2008, 57, 4; 197-207
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Vision guided parallel robot and its application for automated assembly task
Autorzy:
Bulej, Vladimír
Stanček, Ján
Kuric, Ivan
Powiązania:
https://bibliotekanauki.pl/articles/102595.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
vision guided robot
delta robot
vision system
FANUC M-1iA
robot kierowany wzrokiem
robot delta
system wizyjny
Opis:
The article deals with the application of vision guided parallel robot FANUC M-1iA for automated assembly process. Vision system is used for object identification and filtering the data about its position and orientation. Control system based on iR Vision system can process data collected from camera Sony XC-56 fixed to the frame and navigate the end-effector to grasp and move selected objects. Integration of vision guided robot control into the high speed parallel robot can be highly productive. The functionality of vision guided robot system is demonstrated at automated assembly process of USB memory stick with variable positioning of its components.
Źródło:
Advances in Science and Technology. Research Journal; 2018, 12, 2; 150-157
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Navigation strategy for mobile robot based on computer vision and YOLOv5 network in the unknown environment
Autorzy:
Bui, Thanh-Lam
Tran, Ngoc-Tien
Powiązania:
https://bibliotekanauki.pl/articles/30148249.pdf
Data publikacji:
2023
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
mobile robot
navigation
deep learning
computer vision
Opis:
The capacity to navigate effectively in complex environments is a crucial prerequisite for mobile robots. In this study, the YOLOv5 model is utilized to identify objects to aid the mobile robot in determining movement conditions. However, the limitation of deep learning models being trained on insufficient data, leading to inaccurate recognition in unforeseen scenarios, is addressed by introducing an innovative computer vision technology that detects lanes in real-time. Combining the deep learning model with computer vision technology, the robot can identify different types of objects, allowing it to estimate distance and adjust speed accordingly. Additionally, the paper investigates the recognition reliability in varying light intensities. When the light illumination increases from 300 lux to 1000 lux, the reliability of the recognition model on different objects also improves, from about 75% to 98%, respectively. The findings of this study offer promising directions for future breakthroughs in mobile robot navigation.
Źródło:
Applied Computer Science; 2023, 19, 2; 82-95
1895-3735
2353-6977
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Human–robot cooperation in sorting of randomly distributed objects
Autorzy:
Jezierski, Edward
Łuczak, Piotr
Smyczyński, Paweł
Zarychta, Dariusz
Powiązania:
https://bibliotekanauki.pl/articles/229240.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
human–robot cooperation
vision system
collaborative robots
Opis:
The paper presents the possibilities of teaching a robot controller to perform operations of autonomous segregation of objects differing in features that can be identified using a vision system. Objects can be arranged freely on the robot scene also covered with others. In the learning phase, a robot operator presents the segregation method by moving subsequent objects held in a human hand, e. g. a red object to container A, a green object to container B, etc. The robot system, after recognizing the idea of segregation that is being done using the vision system, continues this work in an autonomous way, until all identified objects will be removed from robotic scene. There are no restrictions on the dimensions, shapes and placement of containers collecting segregated objects. The developed algorithms were verified on a test bench equipped with two modern robots KUKA LBR iiwa 14 R820.
Źródło:
Archives of Control Sciences; 2019, 29, 4; 603-615
1230-2384
Pojawia się w:
Archives of Control Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of an artificial neural network for planning the trajectory of a mobile robot
Autorzy:
Białek, Marcin
Nowak, Patryk
Rybarczyk, Dominik
Powiązania:
https://bibliotekanauki.pl/articles/384525.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
artificial neural network
mobile robot
machine vision
Opis:
This paper presents application of a neural network in the task of planning a mobile robot trajectory. First part contains a review of literature focused on the mobile robots’ orientation and overview of artificial neural networks’ application in area of robotics. In these sections devices and approaches for collecting data of mobile robots environment have been specified. In addition, the principle of operation and use of artificial neural networks in trajectory planning tasks was also presented. The second part focuses on the mobile robot that was designed in a 3D environment and printed with PLA material. The main onboard logical unit is Arduino Mega. Control system consist of 8-bits microcontrollers and 13 Mpix camera. Discussion in part three describes the system positioning capability using data from the accelerometer and magnetometer with overview of data filtration and the study of the artificial neural network implementation to recognize given trajectories. The last chapter contains a summary with conclusions.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 1; 13-23
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Intuitive User Interfaces for Mobile Manipulation Tasks
Autorzy:
Zubrycki, I.
Granosik, G.
Powiązania:
https://bibliotekanauki.pl/articles/950996.pdf
Data publikacji:
2015
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Intefraces
human-robot interaction
ROS
Vision Systems
Opis:
This article describes interactive methods that can ease difficult manipulation tasks in Search & Rescue operations. We discuss the requirements that are necessary for a telemanipulation system to be successfully used. These include not just correctness of generated motion but also ergonomy, mobility and interactivity of the operator’s interface. We show that grippers with one or more degrees of freedom can be intuitively controlled by different interface mechanisms, supported by 3D vision systems. Tests are performed both in the simulation environment and with real grippers. A practical pipeline for a direct control and learning the system is also presented.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2015, 9, 1; 41-52
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Vision localization system for mobile robot with velocities and acceleration estimator
Autorzy:
Dutkiewicz, P.
Kielczewski, M.
Kozłowski, K.
Pazderski, D.
Powiązania:
https://bibliotekanauki.pl/articles/199936.pdf
Data publikacji:
2010
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
vision localization system
mobile robot
acceleration estimator
Opis:
The paper presents a localization system for a mobile robot using the vision system and LED markers and considers the problem of velocity and acceleration estimation in the case of planar motions. Theoretical considerations include the principle of measurement and the details of Kalman estimator with illustrations based on experimental setup. The presented measurement system can be used for a realization of advanced control algorithms for skid-steering mobile robots where significant slippage phenomenon appears.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2010, 58, 1; 29-41
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hybrid navigation of an autonomous mobile robot to depress an elevator button
Autorzy:
Wu, Pan-Long
Zhang, Zhe-Ming
Liew, Chuin Jiat
Shaw, Jin-Siang
Powiązania:
https://bibliotekanauki.pl/articles/27314264.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
ROS
AMR
ORB-SLAM
robot manipulator
Machine Vision
Opis:
The development of an autonomous mobile robot (AMR) with an eye-in-hand robot arm atop for depressing elevator button is proposed. The AMR can construct maps and perform localization using the ORB-SLAM algorithm (the Oriented FAST [Features from Accelerated Segment Test] and Rotated BRIEF [Binary Robust Independent Elementary Features] feature detector-Simultaneous Localization and Mapping). It is also capable of real-time obstacle avoidance using information from 2D-LiDAR sensors. The AMR, robot manipulator, cameras, and sensors are all integrated under a robot operating system (ROS). In experimental investigation to dispatch the AMR to depress an elevator button, AMR navigation initiating from the laboratory is divided into three parts. First, the AMR initiated navigation using ORB-SLAM for most of the journey to a waypoint nearby the elevator. The resulting mean absolute error (MAE) is 8.5 cm on the x-axis, 10.8 cm on the y-axis, 9.2-degree rotation angle about the z-axis, and the linear displacement from the reference point is 15.1 cm. Next, the ORB-SLAM is replaced by an odometry-based 2D-SLAM method for further navigating the AMR from waypoint to a point facing the elevator between 1.5 to 3 meter distance, where the ORB-SLAM is ineffective due to sparse feature points for localization and where the elevator can be clearly detected by an eye-in-hand machine vision onboard the AMR. Finally, the machine vision identifies the position in space of the elevator and again the odometry-based 2D-SLAM method is employed for navigating the AMR to the front of the elevator between 0.3 to 0.5 meter distance. Only at this stage can the small elevator button be detected and reached by the robot arm on the AMR. An average 60% successful rate of button depressing by the AMR starting at the laboratory is obtained in the experiments. Improvements for successful elevator button depressing rate are also pointed out.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2022, 16, 4; 25--35
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Czujniki i układy sensoryczne robotów przemysłowych
Autorzy:
Kaczmarek, Wojciech
Panasiuk, Jarosław
Powiązania:
https://bibliotekanauki.pl/articles/302719.pdf
Data publikacji:
2019
Wydawca:
Wydawnictwo Druk-Art
Tematy:
robot przemysłowy
układ sensoryczny
system wizyjny
industrial robot
sensory system
vision system
Opis:
Czujniki stosowane w robotach możemy podzielić na czujniki dostarczające informacji o parametrach charakteryzujących stan robota (wewnętrzne) i czujniki dostarczające informacji o stanie środowiska (zewnętrzne). Parametrami stanu robota są: położenie i prędkość jego członów oraz siły wywierane na poszczególne człony. Do parametrów stanu otoczenia robota zalicza się: położenie i orientację w przestrzeni chwytanych przedmiotów, rozpoznawanie ich barwy, parametry zaburzeń pracy robota oraz różnego rodzaju specyficzne cechy środowiska, które należy znać przy wykonywaniu określonej operacji.
Źródło:
Napędy i Sterowanie; 2019, 21, 3; 80-89
1507-7764
Pojawia się w:
Napędy i Sterowanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Small batch size robot programming with human in the loop
Autorzy:
Takarics, B.
Sziebig, G.
Korondi, P.
Powiązania:
https://bibliotekanauki.pl/articles/385086.pdf
Data publikacji:
2009
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robot programming
vision system
sme robots
human-machine communication
Opis:
Robot programming methodologies are moving from the traditional to more human friendly, rapid and flexible programming alternatives. In this paper a new robot programming methodology is introduced. The proposed programming methodology physically disconnects the robot programmer from the robot itself. Applications of the proposed methodology in grinding and welding operations with experimental results as well are presented.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2009, 3, 4; 228-231
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fusing laser and vision data for a perceptually rich environment description
Opis otoczenia na podstawie danych z sensorów laserowych i wizyjnych
Autorzy:
Skrzypczyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/257108.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Eksploatacji - Państwowy Instytut Badawczy
Tematy:
robot mobilny
nawigacja
system wizyjny
ekstrakcja cech
mobile robot
navigation
computer vision
feature extraction
Opis:
In this paper we, discuss methods to increase the discriminative properties of the laser-based geometric landmarks used in simultaneous localisation and mapping by employing monocular vision data. Vertical edges extracted from images help to estimate the length of the line segments, which are only partially observed. Salient visual features, which defy simple geometric interpretation, are handled by the scale invariant feature transform method. These different types of photometric features are aggregated together with the basic 2D line segments extracted from the laser scanner data into the Perceptually Rich Segments.
W pracy przedstawiono metody poprawiające rozróżnialność obiektów geometrycznych wyodrębnionych z danych uzyskanych ze skanera laserowego i wykorzystywanych w systemie jednoczesnej samolokalizacji i budowy mapy otoczenia robota. Założono, że robot porusza się w środowisku zbudowanym przez człowieka, w którym dominują pionowe płaszczyzny (ściany). Poprawę rozróżnialności obiektów uzyskano dzięki wykorzystaniu danych z monookularowego systemu wizyjnego robota. Krawędzie pionowe wyodrębnione z obrazów umożliwiają prawidłową estymację długości odcinków 2D odtworzonych uprzednio na podstawie danych ze skanera laserowego. Fotometryczne cechy znaczące wyodrębniane są z obrazów i opisywane za pomocą metody Scale Invariant Feature Transform (SIFT). Uzyskane wektory parametrów osadzane są następnie w "ramach" tworzonych przez odcinki poziome oraz krawędzie pionowe. Powstają w ten sposób obiekty nowego typu - PRS (ang. Perceptually Rich Segment). Zaprezentowano wyniki eksperymentów dotyczących wyodrębniania i dopasowywania do siebie wektorów SIFT oraz wstępne wyniki dotyczące budowy modelu otoczenia z użyciem obiektów PRS.
Źródło:
Problemy Eksploatacji; 2008, 3; 57-67
1232-9312
Pojawia się w:
Problemy Eksploatacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dekompozycja systemu sterowania robota-kasjera
Decomposition of the robot-cashier control system
Autorzy:
Kornuta, T.
Zieliński, C.
Powiązania:
https://bibliotekanauki.pl/articles/277190.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robot kasjer
system sterowania
zachowanie
aktywna wizja
robot cashier
control system
behavior
active vision
Opis:
W artykule przedstawiono formalną metodę specyfkacji systemów sterowania na przykładzie robota kasjera. Robot ten wykorzystuje aktywną wizję do realizacji swoich zadań. Aktywna wizja polega na wykonywaniu ruchów kamerą w celu aktywnego pozyskiwania informacji o otoczeniu. W tym konkretnym przypadku rozpoznawane są kody kreskowe na opakowaniach znajdujących się na ladzie.
The paper presents a formal method of specifcation of control systems on the example of a robot cashier. The idea of this controller was based on the active vision paradigm. Its aim is to analyze selected scene fragments, in this case in order to identify the object by reading its barcode. The specifcation contains a set of diverse, but simple, behaviors which when integrated create a controller capable of realizing the robot's goal.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 2; 41-48
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Vision based persistent localization of a humanoid robot for locomotion tasks
Autorzy:
Martínez, P. A.
Castelán, M.
Arechavaleta, G.
Powiązania:
https://bibliotekanauki.pl/articles/329982.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
robot localization
monocular vision
humanoid locomotion
lokalizacja robota
wizja jednookularowa
ruch robota
robot humanoidalny
Opis:
Typical monocular localization schemes involve a search for matches between reprojected 3D world points and 2D image features in order to estimate the absolute scale transformation between the camera and the world. Successfully calculating such transformation implies the existence of a good number of 3D points uniformly distributed as reprojected pixels around the image plane. This paper presents a method to control the march of a humanoid robot towards directions that are favorable for visual based localization. To this end, orthogonal diagonalization is performed on the covariance matrices of both sets of 3D world points and their 2D image reprojections. Experiments with the NAO humanoid platform show that our method provides persistence of localization, as the robot tends to walk towards directions that are desirable for successful localization. Additional tests demonstrate how the proposed approach can be incorporated into a control scheme that considers reaching a target position.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2016, 26, 3; 669-682
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Aktywny pokładowy system wizyjny dla robota autonomicznego
An active vision system for a walking robot
Autorzy:
Łabęcki, P.
Kasiński, A.
Powiązania:
https://bibliotekanauki.pl/articles/154863.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
system wizyjny
geometria sceny robota
vision system
robot scene geometry
Opis:
Przedmiotem artykułu jest zbadanie możliwości zastosowania systemu wizyjnego wykorzystującego punktowy oświetlacz laserowy jako pokładowego sensora robota kroczącego. Zaproponowano model matematyczny określający zależności geometryczne w układzie kamera/laser/obiekt, wykorzystywany w algorytmach przetwarzania danych oraz procedurę jego kalibracji. Opracowano algorytm wyodrębniania śladu lasera z obrazu. Badania eksperymentalne pozytywnie zweryfikowały możliwość zastosowania rozważanego systemu jako dalmierza oraz do uzyskiwania informacji o geometrii sceny trójwymiarowej. Błędy względne metody pomiarowej nie przekroczyły 5%.
This paper demonstrates the feasibility of a vision system, made of a camera and a laser-beam projector, as a on-board sensor for the walking robot. A mathematical model of the camera/laser/ object relationship used in data processing algorithms is proposed, with a procedure of its calibration. An algorithm for the extraction of the beam-pattern from the image was proposed. Real images acquired during an experiment were analyzed. As examples two scenes were tested. The object shapes were imaged properly. The system can be used as a rangefinder and 3D scene geometry explorer. Errors of the measurement method were below 5%. Than the system can be used for the collecting 3D information concerning the space directly ahead of the robot. Its advantage is low cost.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 9, 9; 731-736
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies