Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "vision" wg kryterium: Temat


Tytuł:
A new approach to the histogram-based segmentation of synthetic aperture radar images
Autorzy:
Siemiatkowska, Barbara
Gromada, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1837363.pdf
Data publikacji:
2021
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
SAR image
machine vision
Opis:
Radar machine vision is an emerging research field in the mobile robotics. Because Synthetic Aperture Radars (SAR) are robust against weather and light condition, they pro‐ vide more useful and reliable information than optical images. On the other hand, the data processing is more complicated and less researched than visible light images processing. The main goal of our research is to build sim‐ ple and efficient method of SAR image analysis. In this ar‐ ticle we describe our research related to SAR image seg‐ mentation and attempts to detect elements such as the buildings, roads and forest areas. Tests were carried out for the images made available by Leonardo Airborne & Space System Company.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2021, 15, 1; 39-42
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A New 3D Sensor System by Using Virtual Camera Model and Stereo Vision for Mobile Robots
Autorzy:
Lee, H.
Kim, M. N.
Cho, H.
Powiązania:
https://bibliotekanauki.pl/articles/384962.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
virtual camera model
stereo vision
Opis:
So many researches have been conducted to develop 3D sensing method for mobile robots. Among them, the optical triangulation, a well-known method for 3D shape measurement, is also based on active vision sensing principle for mobile robot sensor system, so that the measurement result is robust to illumination noises from environments. Due to this advantage it has been popularly used. However, to obtain the 3D information of environment needs a special scanning process and scanning actuators need. To omit this scanning process multi-line projection methods have been widely researched. However, they suffer from an inherent limitation: The results of multi-line projection method commonly have measurement errors because of 2 -ambiguity caused by regularly repeated multiline laser pattern. In this paper, to overcome 2 -ambiguity effectively, we introduce a novel sensing method for a 3D sensing system using multi-line projection and stereo cameras, based on the virtual camera model and stereovision algorithm. To verify the efficiency and accuracy of the proposed method, a series of experimental tests is performed.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2008, 2, 4; 38-44
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of keypoint detection methods for indoor and outdoor scene recognition
Autorzy:
Libal, U.
Łoziuk, Ł.
Powiązania:
https://bibliotekanauki.pl/articles/384590.pdf
Data publikacji:
2017
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
machine vision
keypoint
UAVs
scene recognition
Opis:
We describe an experimental study, based on several million video scenes, of seven keypoint detection algorithms: BRISK, FAST, GFTT, HARRIS, MSER, ORB and STAR. It was observed that the probability distributions of selected keypoints are drastically different between indoor and outdoor environments for all algorithms analyzed. This paper presents a simple method for distinguishing between indoor and outdoor environments in a video sequence. The proposed method is based on the central location of keypoints in video frames. This has lead to a universally effective indoor/outdoor environment recognition method, and may prove to be a crucial step in the design of robotic control algorithms based on computer vision, especially for autonomous mobile robots.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2017, 11, 4; 7-14
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Overhead vision system for testing swarms and groups of wheeled robots
Autorzy:
Wiech, Jakub
Hendzel, Zenon
Powiązania:
https://bibliotekanauki.pl/articles/384852.pdf
Data publikacji:
2019
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
swarm robotics
vision system
wheeled robots
Opis:
The paper describes how to use ArUco markers to determine the position and orientation of wheeled robots in 3D space. it is preceded by a general description on the testbed and a detailed description on the marker detection algorithm along with the camera calibration using the ChaArUco markers. The camera has been described and calibrated using the pinhole camera model, taking into account distortion on the lens. The second part oo the article describes the wheeled robots with their mechanical construction.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2019, 13, 2; 15-22
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Initial tests of a trinocular vision system for the underwater exploration
Wstępne badania trójokularowej głowicy wizyjnej do prac podwodnych
Autorzy:
Biegański, W.
Kasiński, A.
Powiązania:
https://bibliotekanauki.pl/articles/276449.pdf
Data publikacji:
2013
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
fuzja obrazowa
podwodny system wizyjny
wielodomowy system wizyjny
AUV
image fusion
underwater vision system
multimodal vision system
Opis:
This paper describes the basic idea of operation and assumptions of the Trinocular Vision System (TVS) designed to support the underwater exploration with the use of the autonomous vehicle. The paper characterizes the optical proper-ties of the inland water environment, and the process of the image formation in that environment. The paper presents the aim of the image fusion and also the design process of a multimodal vision system, i.e. the selection of its components confirmed by prior research in the context of underwater operation.
Artykuł przedstawia podstawowe założenia odnośnie działania trójokularowej głowicy wizyjnej (TVS) zaprojektowanej i wykonanej do rejestracji obrazów w wodach śródlądowych przy wykorzystaniu autonomicznego pojazdu podwodnego. Opisane zostało środowisko operacyjne takiej głowicy, jakim są wody śródlądowe oraz proces powstawania informacji wizyjnej, w tym właśnie środowisku. Następnie wyjaśnione zostało pojęcie i cel fuzji obrazowej oraz proces projektowania głowicy, tj. dobór elementów optycznych i mechanicznych poparty wcześniejszymi badaniami w zadanych pasmach promieniowania.
Źródło:
Pomiary Automatyka Robotyka; 2013, 17, 2; 304-308
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realization, programming and controlling of the stewart-gough platform
Autorzy:
Owoc, Dawid
Ludwiczak, Krzysztof
Piotrowski, Robert
Powiązania:
https://bibliotekanauki.pl/articles/384848.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Stewart-Gough platform
ball & plate
computer vision
Opis:
This paper presents realization, programming, and controlling of a low cost Stewart‐Gough platform (SGP) with rotary actuators. The realized SGP is applied in a ball & plate control system. Developed dedicated soft ware consists of embedded and application software for both the SGP positioning system and the ball & plate control system. A ball position is being obtained using com‐ puter vision. The paper contains tests results for both an SGP positioning accuracy and a control quality of the ball & plate control system.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 2; 10-14
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A novel flexible micro assembly system: implementation and performance analysis
Autorzy:
Um, D.
Ryu, D.
Dong, B.
Foor, D.
Hawkins, K.
Powiązania:
https://bibliotekanauki.pl/articles/384367.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
flexible manufacturing
microassembly
micro 3D vision
Opis:
Demands for micro/nano products and assembly systems have been raised significantly to meet the ever complex technical needs for modern society. In this paper, we share the experiences and results of the study on the flexible micro assembly workcell focused primarily on a novel system implementation and system performance analysis. For flexible and autonomous assembly operations, we investigated a novel model based 3D depth measurement technology for faster and cost effective means to promote autonomous micro assembly systems in various industries. Micro parts, by its nature, are known of their shapes in advance for the majority of micro applications. We take advantage of the previously known shape of micro parts and hence apply a model based approach for a faster and cost effective localization and 3D depth measure of randomly loaded micro-parts on the workcell. The proposed 3D depth measuring method is based on the pattern recognition and multi-focus technique enabling it to extract only information useful for micro parts assembly for faster recognition. For demonstration purpose, silicon based oxide gears are fabricated by bulk micromachining and are used to study performance indices and to prove the usefulness of the proposed micro 3D depth measurement technology.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2010, 4, 3; 10-15
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of an artificial neural network for planning the trajectory of a mobile robot
Autorzy:
Białek, Marcin
Nowak, Patryk
Rybarczyk, Dominik
Powiązania:
https://bibliotekanauki.pl/articles/384525.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
artificial neural network
mobile robot
machine vision
Opis:
This paper presents application of a neural network in the task of planning a mobile robot trajectory. First part contains a review of literature focused on the mobile robots’ orientation and overview of artificial neural networks’ application in area of robotics. In these sections devices and approaches for collecting data of mobile robots environment have been specified. In addition, the principle of operation and use of artificial neural networks in trajectory planning tasks was also presented. The second part focuses on the mobile robot that was designed in a 3D environment and printed with PLA material. The main onboard logical unit is Arduino Mega. Control system consist of 8-bits microcontrollers and 13 Mpix camera. Discussion in part three describes the system positioning capability using data from the accelerometer and magnetometer with overview of data filtration and the study of the artificial neural network implementation to recognize given trajectories. The last chapter contains a summary with conclusions.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 1; 13-23
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Intuitive User Interfaces for Mobile Manipulation Tasks
Autorzy:
Zubrycki, I.
Granosik, G.
Powiązania:
https://bibliotekanauki.pl/articles/950996.pdf
Data publikacji:
2015
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Intefraces
human-robot interaction
ROS
Vision Systems
Opis:
This article describes interactive methods that can ease difficult manipulation tasks in Search & Rescue operations. We discuss the requirements that are necessary for a telemanipulation system to be successfully used. These include not just correctness of generated motion but also ergonomy, mobility and interactivity of the operator’s interface. We show that grippers with one or more degrees of freedom can be intuitively controlled by different interface mechanisms, supported by 3D vision systems. Tests are performed both in the simulation environment and with real grippers. A practical pipeline for a direct control and learning the system is also presented.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2015, 9, 1; 41-52
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hybrid navigation of an autonomous mobile robot to depress an elevator button
Autorzy:
Wu, Pan-Long
Zhang, Zhe-Ming
Liew, Chuin Jiat
Shaw, Jin-Siang
Powiązania:
https://bibliotekanauki.pl/articles/27314264.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
ROS
AMR
ORB-SLAM
robot manipulator
Machine Vision
Opis:
The development of an autonomous mobile robot (AMR) with an eye-in-hand robot arm atop for depressing elevator button is proposed. The AMR can construct maps and perform localization using the ORB-SLAM algorithm (the Oriented FAST [Features from Accelerated Segment Test] and Rotated BRIEF [Binary Robust Independent Elementary Features] feature detector-Simultaneous Localization and Mapping). It is also capable of real-time obstacle avoidance using information from 2D-LiDAR sensors. The AMR, robot manipulator, cameras, and sensors are all integrated under a robot operating system (ROS). In experimental investigation to dispatch the AMR to depress an elevator button, AMR navigation initiating from the laboratory is divided into three parts. First, the AMR initiated navigation using ORB-SLAM for most of the journey to a waypoint nearby the elevator. The resulting mean absolute error (MAE) is 8.5 cm on the x-axis, 10.8 cm on the y-axis, 9.2-degree rotation angle about the z-axis, and the linear displacement from the reference point is 15.1 cm. Next, the ORB-SLAM is replaced by an odometry-based 2D-SLAM method for further navigating the AMR from waypoint to a point facing the elevator between 1.5 to 3 meter distance, where the ORB-SLAM is ineffective due to sparse feature points for localization and where the elevator can be clearly detected by an eye-in-hand machine vision onboard the AMR. Finally, the machine vision identifies the position in space of the elevator and again the odometry-based 2D-SLAM method is employed for navigating the AMR to the front of the elevator between 0.3 to 0.5 meter distance. Only at this stage can the small elevator button be detected and reached by the robot arm on the AMR. An average 60% successful rate of button depressing by the AMR starting at the laboratory is obtained in the experiments. Improvements for successful elevator button depressing rate are also pointed out.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2022, 16, 4; 25--35
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie przydatności kamery metrycznej IFM 03D201 w nawigacji robotów mobilnych
The application of IFM 03D201 metric camera in mobile robot navigation
Autorzy:
Wojsz, J.
Siemiątkowska, B.
Powiązania:
https://bibliotekanauki.pl/articles/274963.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
system wizyjny
reprezentacja otoczenia
nawigacja
vision
mapping
navigation
Opis:
Celem pracy jest przedstawienie właściwości kamery metrycznej O3D201 i możliwość jej zastosowania w nawigacji robotów mobilnych. Określono parametry kamery: zasięg, dokładność oraz wpływ rodzaju powierzchni na osiągnięte wyniki. Opisano algorytm określenia kąta uchylenia drzwi na podstawie wskazań kamery. Przedstawiono wyniki przeprowadzonych eksperymentów.
The aim of the paper is to present the application of the metric camera O3D201 in mobile robot navigation. In the paper the following parameters of the camera are described: the range of measurements, the accuracy, the influence of an environment to obtained data. In the second part of the paper the algorithm which allows us to analyzed the data is presented. The algorithm determines the angle between the door and the wall.
Źródło:
Pomiary Automatyka Robotyka; 2010, 14, 11; 139-144
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wizyjne kamery linijkowe w zastosowaniach przemysłowych
Vision line scan cameras in industrial applications
Autorzy:
Syryczyński, A.
Powiązania:
https://bibliotekanauki.pl/articles/275133.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
metody wizyjne
kamery linijkowe
vision methods
line cameras
Opis:
Metody wizyjne są coraz szerzej stosowane w przemyśle, głównie do automatycznej kontroli jakości wytwarzania. Do inspekcji produktów wykorzystuje się częściej cyfrowe kamery matrycowe (powierzchniowe). Natomiast kamery linijkowe mają tylko jedną linijkę elementów światłoczułych, a obraz jest składany w komputerze z kolejnych przesłanych linii. Dzięki temu długość obrazu nie jest ograniczona, co umożliwiać na inspekcję materiałów ciągłych. W artykule przedstawiono główne właściwości kamer linijkowych, dokonano porównania obu rodzajów kamer, wskazano pola zastosowań kamer linijkowych, a także podano przykłady najnowszych rozwiązań obrazujące stan techniki.
The vision methods are more and more wider applied in industry, mainly for automatic control of quality the production. In product inspection digital matrix cameras are used more often. However line cameras have only one line of photosensitive units, and an image is completed in computer with next sent lines. The length of the image is not limited, which enables an inspection of continuous materials. In the article the main proprieties of line cameras were introduced, comparison of both kinds of cameras was executed, the fields of applications of line cameras were showed, and the examples of newest solutions illustrating the state of technique were also passed.
Źródło:
Pomiary Automatyka Robotyka; 2010, 14, 1; 10-15
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie trajektorii minimalno-czasowych robota eksperymentalnego
Planning the minimal-time trajectory of the experimental robot
Autorzy:
Lubiński, M.
Powiązania:
https://bibliotekanauki.pl/articles/275732.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robotyka
manipulatory
systemy wizyjne
robotics
manipulators
vision systems
Opis:
Artykuł prezentuje trzecią cześć pracy poświęconej sterowaniu robotem eksperymentalnym z wykorzystaniem systemu wizyjnego. Publikacja przedstawia metodykę generowania trajektorii ruchu napędów w minimalnym czasie. Przeliczenie współrzędnych naturalnych położenia i orientacji efektora na współrzędne naturalne napędów jest pierwszą częścią algorytmu. Następnym etapem jest wygenerowanie trajektorii minimalno-czasowych dla każdego napędu oraz ujednolicenie ich do wartości maksymalnej, która decyduje o czasie zakończenia ruchu. Przedstawiony algorytm ma zastosowanie do robota eksperymentalnego zbudowanego na bazie manipulatora IRb-6 umieszczonego na torze jezdnym LP-1, lecz można go stosować w innych robotach o dowolnej liczbie napędów.
The article presents the third part of the development work devoted to controling the experimental robot using the vision system. This paper shows methodology planning trajectory motion of the drives in the minimal time. The change of position and orientation coordinates effector to drives coordinates were first step the algorithm. The next step generates minimal-time trajectory for each drives and unifies them to maximum value. Maximal time decides about finishing moving time. Presented algorithm has the implementation appropriate for the experimental robot constructed on the manipulator IRb-6 moving on LP-1 track, but it is possible to apply it in other robots with different quantity drives.
Źródło:
Pomiary Automatyka Robotyka; 2010, 14, 5; 20-23
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real-time Video Vectorization Method for the Purpose of Surroundings Recognition and Mobile Robot Navigation
Autorzy:
Zachara, M.
Tadeusiewicz, R.
Powiązania:
https://bibliotekanauki.pl/articles/384314.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robot vision
surroundings recognition
real time navigation
edge detection
Opis:
In thise paper a very simple method of the visual information interpretation for recognition and navigation purposes is presented and discussed. The proposed method consists of six steps: image acquisition, edge detection, fast edge vectorization using a high number of short preliminary vectors, aggregation of the preliminary vectors into the form of final vectors. The next stages of the visualthe visual information interpretation for recognition and navigation purposes will be description of the objects’ shapes by means of the final vectors, object recognition and/or robot navigation on the base of comparison between actual shape description and templates memorized during the programming/training process, but they are not discussed in this paper. The main advantage of the proposed method is a simple and time-effective algorithm, which can be performed in real time also by a simple and cheap processor, working as a “brain” of the considered robot.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2008, 2, 2; 10-17
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Small batch size robot programming with human in the loop
Autorzy:
Takarics, B.
Sziebig, G.
Korondi, P.
Powiązania:
https://bibliotekanauki.pl/articles/385086.pdf
Data publikacji:
2009
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
robot programming
vision system
sme robots
human-machine communication
Opis:
Robot programming methodologies are moving from the traditional to more human friendly, rapid and flexible programming alternatives. In this paper a new robot programming methodology is introduced. The proposed programming methodology physically disconnects the robot programmer from the robot itself. Applications of the proposed methodology in grinding and welding operations with experimental results as well are presented.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2009, 3, 4; 228-231
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies