Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "camera vision" wg kryterium: Temat


Wyświetlanie 1-21 z 21
Tytuł:
Development of variable rate sprayer for oil palm plantation
Autorzy:
Ishak, W.
Hudzari, R.
Ridzuan, M.
Powiązania:
https://bibliotekanauki.pl/articles/200163.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
smart sprayer
variable rate
camera vision
weedicide
oil palm
Opis:
This project describes the design and development of a camera vision with color detection for the variable rate technology (VRT) automated sprayer. In this project, the smart sprayer system was already developed and mounted on the ATV. The automated sprayer system was developed by combination of the electromechanical system, PC parallel port relay board, the controller and visual basic programming software. This smart sprayer system is guided with the camera to detect the presence of weeds. Detection of weeds is based on the green color value from RGB value. The amount or percentage (%) of weeds detected determines the rate of spraying that is controlled by an electric motor and the relay board. In this project, the spray nozzles were modified to be fully open, fully closed and half open. The closing and opening of valves were controlled by the electromechanical system that receives the instruction from the camera vision. Experiments carried out shows that the nozzle is closed when the percentage of weeds detected is less than 2%. It is half open at 3% to 50% and fully open at more than 51%. The application rate of spraying can be determined from the result of the spraying operation.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2011, 59, 3; 299-302
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie kinematyki rusztu ruchomego schronowego zaworu przeciwwybuchowego
Kinematic study of the movable grating of the dust protective hazard valve
Autorzy:
Szcześniak, Z.
Ostrowski, R.
Powiązania:
https://bibliotekanauki.pl/articles/111039.pdf
Data publikacji:
2018
Wydawca:
Centrum Rzeczoznawstwa Budowlanego Sp. z o.o.
Tematy:
kinematyka
kamera wizyjna
schronowy zawór przeciwwybuchowy
kinematics
vision camera
explosion-proof shelter valve
Opis:
W artykule przedstawiono metodę i wyniki badań w zakresie kinematyki rusztu ruchomego schronowego zaworu przeciwwybuchowego. Badano rozwiązanie zaworu typu automatycznego o dużym wydatku. Badanie wykonano za pomocą szybkiej kamery wizyjnej. Uzyskane wyniki stanowią podstawę do określenia sposobu doskonalenia rozwiązania.
The method and experimental results about the kinematics of the move ring of the explosion-proof shelter valve is presented in this paper. The valve solution automatic type with high air delivery was searched. The experiment was executed by fast vision camera. The achievement results are the base to make any perfection manner of the valve solve.
Źródło:
Inżynieria Bezpieczeństwa Obiektów Antropogenicznych; 2018, 1-2; 34-37
2450-1859
2450-8721
Pojawia się w:
Inżynieria Bezpieczeństwa Obiektów Antropogenicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A New 3D Sensor System by Using Virtual Camera Model and Stereo Vision for Mobile Robots
Autorzy:
Lee, H.
Kim, M. N.
Cho, H.
Powiązania:
https://bibliotekanauki.pl/articles/384962.pdf
Data publikacji:
2008
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
virtual camera model
stereo vision
Opis:
So many researches have been conducted to develop 3D sensing method for mobile robots. Among them, the optical triangulation, a well-known method for 3D shape measurement, is also based on active vision sensing principle for mobile robot sensor system, so that the measurement result is robust to illumination noises from environments. Due to this advantage it has been popularly used. However, to obtain the 3D information of environment needs a special scanning process and scanning actuators need. To omit this scanning process multi-line projection methods have been widely researched. However, they suffer from an inherent limitation: The results of multi-line projection method commonly have measurement errors because of 2 -ambiguity caused by regularly repeated multiline laser pattern. In this paper, to overcome 2 -ambiguity effectively, we introduce a novel sensing method for a 3D sensing system using multi-line projection and stereo cameras, based on the virtual camera model and stereovision algorithm. To verify the efficiency and accuracy of the proposed method, a series of experimental tests is performed.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2008, 2, 4; 38-44
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Machine Vision Enables to Increase Effectiveness of Technical Equipment
Autorzy:
KOVÁČIK, PETER
Powiązania:
https://bibliotekanauki.pl/articles/457508.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rzeszowski
Tematy:
machine vision
camera
production process
automation
Opis:
The article deals with possibilities of machine vision used mostly at production process. It calls attention to possibilities how to increase essentially an effectiveness and a productivity at many fields of production process and possibilities of cooperation between production facilities and a human or by complete substitution of human.
Źródło:
Edukacja-Technika-Informatyka; 2018, 9, 2; 161-166
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of the intelligent camera computing power for the real-time image preprocessing
Autorzy:
Szpytko, J.
Hyla, P.
Powiązania:
https://bibliotekanauki.pl/articles/247051.pdf
Data publikacji:
2011
Wydawca:
Instytut Techniczny Wojsk Lotniczych
Tematy:
smart camera
vision systems
benchmark
transport application
Opis:
Advances development of visual sensor technology, digital communications and networking technique has enabled the deployment of a growing number of high-tech varied kind visual systems. One of this advances vision systems are smart cameras. Smart cameras refer to the new generation cameras with high capabilities. Image sensors combined with processors create a new vision solution of all-in-one type. The objects of statements were a test of intelligent camera functionality on the computing power benchmark. The authors tested other hardware pieces like a memory or storage functionality. All possesses results was compare with stand alone PC tower in variety kind. The piloted test may give answer about smart cameras suitability in application for material handling devices. The tested SmartCam is ideal devices for built vision application for monitoring material handling devices or types non standard vision application or operation parameters. Small dimension (tested camera dimension is only 110 x 55 x 55 [mm] and low level of power consumption with relatively enough computing power are ideal for use with non standard vision application, especially for material handling devices in variety usage. Small dimension (tested camera dimension is only110 x 55 x 55 mm) and low level of power consumption with relatively enough computing power are ideal for use with non standard vision application, especially for material handling devices in variety usage.
Źródło:
Journal of KONES; 2011, 18, 4; 503-509
1231-4005
2354-0133
Pojawia się w:
Journal of KONES
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zautomatyzowane stanowisko do wyznaczania wartości parametrów i kalibracji obserwacyjnych kamer termowizyjnych
A test stand for evaluation and calibration of thermal camera parameters
Autorzy:
Sosnowski, T.
Madura, H.
Firmanty, K.
Bareła, J.
Bieszczad, G.
Kubicki, J.
Powiązania:
https://bibliotekanauki.pl/articles/152556.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termowizja
kamera termowizyjna
thermal vision
thermal imaging camera
Opis:
Kamery termowizyjne znajdują zastosowanie w coraz większej liczbie dziedzin nauki, techniki i życia. Wynikiem tego jest produkcja względnie niedrogich kamer termowizyjnych, które muszą zostać poddane kalibracji i ocenie zakładanych parametrów. W artykule zostało przedstawione zautomatyzowane stanowisko do pomiaru parametrów i kalibracji kamery termowizyjnej. Zostały opisane wszystkie elementy stanowiska takie jak moduł przemieszczeń liniowych i techniczne ciała doskonale czarne. Opisano również algorytmy i procedury wyznaczania parametrów i współczynników kalibracyjnych kamery termowizyjnej.
Technological development in the field of infrared and thermal imaging has caused that thermal imaging cameras are used in more and more fields of science, technology and life. In the paper there is presented an automatic measurement and calibration stand capable of measuring the fundamental parameters of a thermal imaging camera. All components of the module, such as a linear motion controller and an actuator or a technical perfect black body are described. An algorithm for determining calibration parameters of the thermal imaging camera is presented. In the paper there are discussed the basic parameters of the calibrated infrared camera, the IR Capture device to capture data from the infrared camera via a specialized bus called the VideoBus. The UPCD and VideoBus standards are described. The paper presents the IRDiag software for recording the measurement data and determining the parameters and NUC correction factors used for infrared cameras. The software also allows control of all elements of the measurement stand and automation of most tasks performed by a user during the standard calibration procedure. The measurement stages are described and presented in the form of software window screenshots. The measurement stand was tested with regard to the accurate evaluation of parameters and calibration coefficients.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 9, 9; 962-965
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A stereovision system for three-dimensional measurements of machines
Autorzy:
Grudziński, Marek
Marchewka, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/135398.pdf
Data publikacji:
2019
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
stereovision system
machine vision
camera tracking
camera calibration
calibration pattern
3D reconstruction
Opis:
The modern manufacturing or transportation machines that are used in industrial processes require continuous supervision in certain circumstances and even manual control by a human. Despite the fact the machines are more and more reliable and accurate than they used to be there is still the need for manual and time-consuming programming and safety control, especially when the external conditions change. For the operation of large machines, where the risk of damage and even disaster exists, an additional supervisory system based on vision devices could be utilized. The vision systems are commonly used in a range of simple 2D detection as well as very precise 3D reconstruction. The stereovision systems could be applied for unusual operations, especially in terms of safety and collision avoidance, such as crane observations while transporting a heavy load, robot and CNC machine preparation and normal operation. Through the use of optical devices the observed objects could be quickly positioned. In this research a test bench for stereovision reconstruction for the example of a robotic arm has been presented. The calibration procedures have been explained and accuracy tests in a large measuring volume were performed. Finally the possibilities of the applications and the utilization of such a system have been assessed.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2019, 58 (130); 16-23
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie algorytmu MSA (Multiple Similar Areas) do wyznaczania map głębi w wielowidokowych systemach widzenia komputerowego
Applications of the MSA algorithm (Multiple Similar Areas) for obtaining depth maps by using multi-view computer vision systems
Autorzy:
Kaczmarek, A. Ł.
Powiązania:
https://bibliotekanauki.pl/articles/267841.pdf
Data publikacji:
2016
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
mapa głębi
widzenie stereoskopowe
system wielokamerowy
łańcuch kamer
depth map
stereoscopic vision
multi-camera system
camera array
Opis:
Artykuł podejmuje temat pozyskiwania map głębi (ang. depth map) na podstawie zdjęć z wielu kamer w wyniku widzenia stereoskopowego. Mapa głębi zawierająca odległości od obiektów będących w zasięgu widzenia kamer pozyskana może zostać na podstawie zdjęć z co najmniej dwóch kamer pełniących funkcję kamery stereoskopowej. W mapach głębi pozyskanych w ten sposób występują jednak błędy. Artykuł dotyczy metod redukcji błędów dzięki zwiększeniu liczby kamer. W artykule przedstawione zostało zastosowanie algorytmu MSA (Multiple Similar Areas) przeznaczonego do układu kamer o nazwie EBMCS (Equal Baseline Multiple Camera Set). Układ taki składa się z kamery środkowej oraz wielu kamer bocznych. Wykonywanie zdjęć trójwymiarowych za pomocą układu wielu kamer jest alternatywą do stosowania innego rodzaju urządzeń takich jak skanery światła strukturalnego oraz skanery laserowe typu LIDAR.
The paper described a method for obtaining depth maps on the basis of images from a set of multiple cameras with the use of stereoscopic vision. Depth maps contain data about distances from objects located in the field of view of camera. A depth map can be acquired from images from a pair of cameras which has a function of a stereo camera. However, depth maps obtained by this method contain errors. This paper proposes a method of reducing errors by increasing the number of cameras. The paper presents the usage of the MSA algorithm (Multiple Similar Areas) designed for a set of cameras arranged in the configuration called EBMCS (Equal Baseline Multiple Camera Set). The configuration consists of a central camera and multiple side cameras. Obtaining 3D images with the use of multi-camera systems is an alternative to using other kind of devices such as structured light scanners and equipment based on LIDAR (Light Detection and Ranging).
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2016, 51; 67-70
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Vision-based biomechanical markerless motion classification
Autorzy:
Liew, Yu Liang
Chin, Jeng Feng
Powiązania:
https://bibliotekanauki.pl/articles/2204259.pdf
Data publikacji:
2023
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Instytut Informatyki Technicznej
Tematy:
vision
single camera
markerless
stick model
human motion
motion classification
data mining
Opis:
This study used stick model augmentation on single-camera motion video to create a markerless motion classification model of manual operations. All videos were augmented with a stick model composed of keypoints and lines by using the programming model, which later incorporated the COCO dataset, OpenCV and OpenPose modules to estimate the coordinates and body joints. The stick model data included the initial velocity, cumulative velocity, and acceleration for each body joint. The extracted motion vector data were normalized using three different techniques, and the resulting datasets were subjected to eight classifiers. The experiment involved four distinct motion sequences performed by eight participants. The random forest classifier performed the best in terms of accuracy in recorded data classification in its min-max normalized dataset. This classifier also obtained a score of 81.80% for the dataset before random subsampling and a score of 92.37% for the resampled dataset. Meanwhile, the random subsampling method dramatically improved classification accuracy by removing noise data and replacing them with replicated instances to balance the class. This research advances methodological and applied knowledge on the capture and classification of human motion using a single camera view.
Źródło:
Machine Graphics & Vision; 2023, 32, 1; 3--24
1230-0535
2720-250X
Pojawia się w:
Machine Graphics & Vision
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Possibility of use a smart camera as a non-contact sway sensor in insufficient light condition – case study
Autorzy:
Hyla, P.
Szpytko, J.
Powiązania:
https://bibliotekanauki.pl/articles/393679.pdf
Data publikacji:
2015
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
sway sensor
image analysis
night vision
smart camera
analiza obrazów
inteligentna kamera
noktowizja
Opis:
Contemporary handling operation efficiency and safety in cargo transportation realized by the cranes mainly depends on counteractions taken against undesirable phenomena’s such as payload swing. The research problem connected with anti-sway problem has been extensively researched over the past decades. Generally the proposed solutions can be classifying as an open and closed-loop control system. The close loop sway angle control system are strongly connected with necessity of physical measuring the angle of the swinging rope. The paper was focused on the non-contact method of measuring the angle of swinging payload with the image analysis technique use. However, in the statement the authors attention was focused on the issue related to the verification that infrared light illuminator can be used in built a non-contact vision sensor for the sway measure insensitiveness on actual exposure light conditions. All experiments and tests were conducted on the scaled physical model of overhead travelling crane with hosting capability of 150 kg.
Źródło:
Archives of Transport System Telematics; 2015, 8, 1; 8-13
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A simple computer vision based indoor positioning system for educational micro air vehicles
Autorzy:
Kittenberger, T.
Ferner, A.
Scheikl, R.
Powiązania:
https://bibliotekanauki.pl/articles/950964.pdf
Data publikacji:
2014
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
computer vision
indoor positioning
Gumstix
infrared camera
high power LED
robotics education
MAV
Opis:
Computer vision is one of the main research fields for micro air vehicles. Therefore many teams around the globe are developing different camera systems which are directly mounted on a MAV or observe and track it from a fixed position. This paper presents a simple and cheap solution for a precise 40 gram onboard computer vision system based on a 6 gram Gumstix Overo Firestorm computer, a 23 gram infrared camera a custom adapter board including buck converter and connectors and three ground based high power infrared LED’s. It has great potential for educational applications because no fixed and calibrated camera installation around the flight area is necessary so it can easily be deployed and removed. The use of various filter algorithms makes it very reliable and the 752x480 pixel images are processed with 12 fps. The achieved accuracy is about 2% and the range was tested up to 10 m.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2014, 8, 1; 46-52
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Calibration of vision systems operating in separate coordinate systems
Autorzy:
Kacperski, D.
Sankowski, W.
Włodarczyk, M.
Grabowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/397928.pdf
Data publikacji:
2016
Wydawca:
Politechnika Łódzka. Wydział Mikroelektroniki i Informatyki
Tematy:
camera space mapping
coordinate system transformation
stereo vision
mapowanie przestrzeni kamery
transformacja układu współrzędnych
stereowizja
Opis:
Over the last years, the use of multiple cameras is becoming more and more popular in today’s computer vision systems. Such approach is widely used in many applications, such as navigation of autonomous mobile robots, video surveillance, the movie industry, augmented reality or people tracking and identification systems. Surprisingly, little attention is paid in the literature to the practical calibration procedures that can be employed to map space between various vision systems. Therefore, in this paper a novel approach that allows to map space between cameras with different coordinate systems: Cartesian and polar is presented. The practical problems that occurs in such scenarios are analysed and thoroughly discussed. The authors present stepby-step description of the proposed calibration procedure. A series of experiments were conducted to confirm the correctness of the presented approach and to demonstrate how to apply the developed solution in practical applications. The proposed method does not require any additional equipment beyond the standard calibration chessboard. The achieved results indicate, that for evaluated cameras configuration, the maximum mapping error for the horizontal and vertical axes does not exceed 0.6°. Obtained results are encouraging and useful for development of similar solutions.
Źródło:
International Journal of Microelectronics and Computer Science; 2016, 7, 1; 10-15
2080-8755
2353-9607
Pojawia się w:
International Journal of Microelectronics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Concept of diagnostics of energy networks by means of vision system
Koncepcja diagnostyki sieci energetycznych z zastosowaniem systemów wizyjnych
Autorzy:
Wronkowicz, A.
Powiązania:
https://bibliotekanauki.pl/articles/329448.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
energy network
damage
diagnostics
vision system
UAV
camera
sieć energetyczna
uszkodzenie
diagnostyka
system wizyjny
kamera
Opis:
In diagnostics of power grids a very important role is played by vision methods. Currently, a relatively new technique is the use of modern, autonomous devices for images acquisition, which are further analysed. The paper presents an overall division of power grids, discussion on the most common damages and effects of failures in these networks. Examples of currently used diagnostic methods of energy networks are presented and examples resulting from a review of modern vision techniques (methods of image acquisition and analysis) are listed. However, it can be noticed that there is still a need of further developing these techniques and striving for automatisaton of the diagnosing process. The paper contains a description of a concept of diagnostic method of energy networks, which includes the application (usage) of an autonomous, unmanned aerial vehicle to obtain the data. Some techniques of artificial intelligence for automated reasoning about the energy networks condition are planned to be applied.
W diagnostyce sieci energetycznych bardzo dużą rolę ogrywają metody wizyjne. Obecnie, stosunkowo nową techniką jest zastosowanie nowoczesnych, autonomicznych urządzeń do pozyskiwania obrazów sieci w celu ich dalszej analizy. W niniejszym artykule przedstawiono ogólny podział sieci energetycznych, omówiono najczęściej występujące uszkodzenia oraz skutki awarii w tych sieciach. Przedstawiono przykłady obecnie stosowanych metod diagnostyki sieci energetycznych i wymieniono przykłady z przeglądu nowoczesnych technik wizyjnych (sposób akwizycji obrazów i ich analiza). Zauważyć jednak można potrzebę dalszego rozwoju tych technik oraz dążenia do automatyzacji procesu diagnostyki. W artykule opisano koncepcję metody diagnostyki sieci energetycznych zawierającej zastosowanie autonomicznego, bezzałogowego statku latającego do pozyskiwania danych. Planowane jest zastosowanie różnych technik sztucznej inteligencji w celu automatycznego wnioskowania o stanie sieci energetycznych.
Źródło:
Diagnostyka; 2014, 15, 2; 13-18
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dobór elementów wizyjnego systemu monitorowania procesu spawania
Selection of components of a vision monitoring system for welding process
Autorzy:
Fidali, M.
Bzymek, A.
Jamrozik, W.
Czupryński, A.
Timofiejczuk, A.
Powiązania:
https://bibliotekanauki.pl/articles/156346.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termografia w podczerwieni
proces spawania
obraz
kamera
infrared thermography
welding process
vision monitoring
image
camera
Opis:
Obserwacje wizyjne stają się coraz bardziej powszechnym sposobem kontroli i nadzorowania procesów produkcyjnych i zjawisk w nich zachodzących. Jedną z możliwości zastosowania systemu wizyjnego jest kontrola procesu spawania i wykonywanych połączeń. W artykule przedstawiono wskazówki i zalecenia dotyczące wyboru i konfiguracji systemu wizyjnego przeznaczonego do kontroli procesu spawania i połączeń spawanych. Informacje zawarte w artykule wynikają z doświadczeń zdobytych przez autorów w trakcie opracowywania systemu wizyjnej kontroli spawania.
Visual observation are becoming more and more common way of control and supervision of industrial processes and phenomena related to them. One of possibilities of vision system application is control of a welding process and welded joints. In the paper there are presented hints and recommendations dealing with selection of a configuration of the vision system for control of a welding process and welded joints. A system for monitoring welding process elaborated by the authors is also described and discussed. The welding process can be observed both in a range of infrared as well as in visual electromagnetic waves. The vision system consists of elements realizing image generation, acquisition, processing, and analysis. In more sophisticated systems the last stage of their operation is image recognition. Recently, the observation of welding processes with use of vision systems is a subject of great interests of numerous companies and research centers. There are commercial and experimental solutions of these systems. During the process usually the size and location of a weld pool, geometry of the welded joint as well as the quality of the joint can be evaluated. An on-line system basing on the analysis results of the above enumerated elements of the welding process makes it possible to control the process parameters. The authors have elaborated a system consisting f a TV and infrared camera. The system allows observing MIG/MAG welding process. The authors' experience shows that a correct configuration of the vision system has fundamental influence on the recorded data.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 1, 1; 63-70
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównywanie zdjęć roślin na podstawie miar podobieństwa różniących się wykładnikiem potęgi
Comparison of images of plants on the basis of similarity metrics with different exponents
Autorzy:
Kaczmarek, Adam L.
Powiązania:
https://bibliotekanauki.pl/articles/266606.pdf
Data publikacji:
2019
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
widzenie stereoskopowe
łańcuch kamer
mapa rozbieżności
mapa głębi
stereo vision
camera array
disparity map
depth map
Opis:
Artykuł przedstawia studium przypadku poświęcone zastosowaniu różnych miar podobieństwa do porównywania zdjęć roślin. Miary te mają zastosowanie w przypadku użycia układu kamer składającej się z pięciu kamer umieszczonych w bliskiej odległości. Badany układ kamer, nazwany EBCA (Equal Baseline Camera Array), składa się z jednej kamery centralnej oraz kamer bocznych. Opisane miary podobieństwa stosuje się w algorytmach widzenia stereoskopowego pozwalających na oszacowanie odległości między kamerami a obiektami widocznymi na zdjęciach. W artykule zaproponowane zostało uogólnienie stosowanych dotychczas miar tj. SAD (Sum of Absolute Differences) i SSD (Sum of Squared Differences). Przeprowadzone eksperymenty świadczą to tym, że zaproponowane miary pozwalają na redukcję błędów oszacowania polegających na otrzymaniu wyników odbiegających od prawidłowych wartości o przyjętą wartość progową.
The paper presents a case study concerned with applying different similarity measures for comparing images of plants. These measures are used for a camera array which consists of five adjacent cameras. The researched array called Equal Baseline Camera Array (EBCA) contains one central camera and four side cameras. The described measures can be used with stereo vision algorithms designed for estimating distances between cameras and objects visible in images taken with the use of these cameras. The paper introduces generalizations of currently used measures such as Sum of Absolute Differences (SAD) and Sum of Squared Differences (SSD). The experiments show that the proposed measures make it possible to reduce estimation errors which occur in results differing from right values more than a selected threshold.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2019, 68; 13-16
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ nadmiarowych danych wejściowych na jakość map rozbieżności pozyskanych za pomocą układu pięciu kamer w konfiguracji EBMCS
Influence of redundant input data on the quality of disparity maps obtained with the use of the five camera set in EBMCS configuration
Autorzy:
Kaczmarek, A. L.
Powiązania:
https://bibliotekanauki.pl/articles/267588.pdf
Data publikacji:
2018
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
widzenie stereoskopowe
macierz kamer
mapa rozbieżności
mapa głębi
stereo vision
camera array
disparity map
depth map
Opis:
Artykuł dotyczy zastosowania układu kamer typu EBMCS (Equal Baseline Multiple Camera Set) składającego się z kamery centralnej oraz kamer bocznych. Na podstawie zdjęć wykonanych za pomocą tego układu można otrzymać mapy rozbieżności (ang. disparity map), które pozwalają na określenie odległości od kamer do obiektów znajdujących się w ich polu widzenia. Mapy te są wyższej jakości niż mapy otrzymane za pomocą kamery stereoskopowej. Artykuł przedstawia zastosowanie EBMCS do otrzymywania map głębi dla wybranych fragmentów uzyskanych zdjęć. Artykuł podejmuje temat wpływu rozmiaru otoczenia badanego fragmentu na jakość wyników. Opisane w artykule eksperymenty zostały przeprowadzone na podstawie dwóch zestawów testowych zawierających zdjęcia roślin.
The paper describes the usage of a camera array called Equal Baseline Multiple Camera Set (EBMCS) consisting of a central camera and side cameras. The set is designed for taking images for the purpose of acquiring disparity maps which makes it possible to determine distances between a camera set and obtains located within its field of view. These maps have a higher quality than maps acquired using a stereo camera. The paper presents how EBMCS can be used for making disparity maps for only fragments of available images. The paper shows the influence of including in data processing vicinities of the fragment for which disparity maps is generated. Experiments presented in the paper were based on two test data sent containing images of plants.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2018, 60; 41-44
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Samolokalizacja bezzałogowego statku powietrznego uwzględniająca zmienną orientację kamery
Self-Localization of the Unmanned Aerial Vehicle Taking Into Account the Variable Orientation of the Camera
Autorzy:
Zielińska, Teresa
Pogorzelski, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2174232.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
lokalizacja wizyjna
orientacja kamery
redundancja GNSS
porównywanie obrazów
vision localization
camera orientation
GNSS redundancy
image comparison
Opis:
W niniejszej publikacji zaproponowano metodę lokalizacji wizyjnej z wykorzystaniem obrazów z symulowanej kamery oraz mapy georeferencyjnej. Model BSP oraz symulacja lotu zostały wykonane w pakiecie MATLAB Simulink, który przesyłał dane dotyczące orientacji BSP do opisywanego programu. Wizualizacja obrazu z kamery została wykonana w czasie rzeczywistym przy pomocy oprogramowania FlightGear, której obraz również był przechwytywany przez program NW. Metoda ta realizowana jest przez dwa procesy w dwu modułach: Global Positioning Component oraz Motion Positioning Component. Pierwszy z nich porównuje obraz z symulowanej kamery z ortofotomapą. Drugi wyznacza pozycję na podstawie oceny przemieszczenia punktów charakterystycznych w obrazie w stosunku do ostatnio znanej lokalizacji. Wynik działania obu modułów ilustrowany jest w oknie graficznym aplikacji NW, co pozwala na wizualne porównanie uzyskanych wyników. W przypadku globalnej metody lokalizacji wymagana jest dodatkowa korekcja orientacji kamery w celu wyznaczenia pozycji w przestrzeni 2D. W tym celu wykorzystano dane dotyczące bieżącej orientacji kamery wyrażone w kwaternionach. Pozwoliło to na wprowadzenie poprawki pozycji, co znacząco poprawiło dokładność wyniku uzyskiwanego w module GPC mimo znacznych przechyleń BSP podczas symulowanego lotu.
This publication proposes a visual localization method using images from a simulated camera and a georeferenced map. The UAV model and flight simulation were made in the MATLAB Simulink package, which sent UAV orientation data to the described program. The visualization of the camera image was performed in real time using the FlightGear software, the image of which was also captured by the NW program. This method is performed by two processes in two modules: Global Positioning Component and Motion Positioning Component. The first one compares the image from the simulated camera with the orthophotomap. The second determines the position based on the assessment of the displacement of characteristic points in the image in relation to the last known location. The result of the operation of both modules is illustrated in the graphic window of the NW application, which allows for a visual comparison of the obtained results. With the global method of location, additional camera orientation correction is required to determine the position in 2D space. For this purpose, data on the current camera orientation expressed in quaternions were used. This allowed for the introduction of a position correction, which significantly improved the accuracy of the result obtained in the GPC module despite significant UAV tilts during the simulated flight.
Źródło:
Pomiary Automatyka Robotyka; 2022, 26, 4; 53--59
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Binocular technical vision for wheeled robot controlling
Бинокулярное техническое зрение для управления колесным роботом
Autorzy:
Kulik, A.
Dergachov, K.
Radomskyi, O.
Powiązania:
https://bibliotekanauki.pl/articles/374443.pdf
Data publikacji:
2015
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
binocular technical vision
wheeled robot
controlling using camera
widzenie obuoczne techniczne
robot na kółkach
sterowanie za pomocą aparatu
Opis:
Proposed model of technical vision system use for supplementation and clarifying information about surround objects classes and distances, received by driver.
Предложена модель применения системы технического зрения для дополнения и уточнения информации, получаемой водителем транспортного средства, о характере и расстояниях до окружающих транспортное средство объектов.
Źródło:
Transport Problems; 2015, 10, 1; 55-62
1896-0596
2300-861X
Pojawia się w:
Transport Problems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ramię diagnostyczne inspekcyjnego robota mobilnego w technologii druku 3D
Diagnostic Arm of a Mobile Inspection Robot in 3D Printing Technology
Autorzy:
Krasoń, Patrycja
Dygudaj, Kinga
Kowalik, Tomasz
Gutze, Jakub
Koperska, Nadia
Garstka, Tomasz
Kwapisz, Marcin
Lipiński, Tomasz
Nowacki, Krzysztof
Powiązania:
https://bibliotekanauki.pl/chapters/27671128.pdf
Data publikacji:
2023-12-14
Wydawca:
Politechnika Częstochowska. Wydawnictwo Politechniki Częstochowskiej
Tematy:
druk 3D
robot inspekcyjny
ramię robota
kamera
system wizyjny
3D printing
camera
inspection robot
robot arm
vision system
Opis:
W rozdziale przedstawiono budowę diagnostycznego manipulatora dla mobilnego robota inspekcyjnego własności związanych z jakością kształtowych wyrobów stalowych. Konstrukcja robota rozwijana jest sukcesywnie przez członków Studenckiego Koła Naukowego Mechatroniki Mecatroo. Elementy ramienia zostały wykonane w technice druku 3D, a do jego napędu zastosowano cyfrowe serwomechanizmy. Na obecnym etapie prac ramię diagnostyczne zostało wyposażone w kamerę systemu wizyjnego przekazującą obraz badanego wyrobu, co pozwala na dodatkową analizę stanu powierzchni w miejscu wykrycia wad.
The chapter presents the construction of a diagnostic manipulator for a mobile inspection robot of properties related to the quality of shaped steel products. The construction of the robot is successively developed by members of the Mecatroo Mechatronics Student Scientific Association. The elements of the arm were made in the 3D printing technique, and digital servos were used to drive it. At the current stage of work, the diagnostic arm has been equipped with a vision system camera, transmitting the image of the tested product, which allows for additional analysis of the surface condition in the place of detecting defects.
Źródło:
Potencjał innowacyjny w inżynierii materiałowej i zarządzaniu produkcją; 313-320
9788371939457
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie urządzenia do zdejmowania trajektorii ruchu narzędzi przy obsłudze manualnej
The equipment design for mapping a trajectory of a tools movement in manual use
Autorzy:
Syryczyński, A.
Dunaj, J.
Zabielski, M.
Powiązania:
https://bibliotekanauki.pl/articles/257646.pdf
Data publikacji:
2007
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Eksploatacji - Państwowy Instytut Badawczy
Tematy:
trajektoria narzędzia
znacznik
układ współrzędnych
rachunek macierzowy
kamera wizyjna
robot
oprogramowanie
tool's trajectory
marker
co-ordinate system
matrix analysis
camera
vision software
Opis:
W pracy przedstawiono opracowanie metody i urządzenia do zdejmowania trajektorii ruchu narzędzi z udziałem aktywnego znacznika i wielokamerowego systemu wizyjnego. System pracuje w pasmach światła widzialnego i podczerwonego. Ciągi położeń uzyskane z analizy obrazów podlegają transformacjom układów współrzędnych i przetworzeniom numerycznym. Końcową fazą procesu jest automatyczne generowanie programu robota odtwarzającego trajektorię. Aplikacje pozwolą przyspieszyć tworzenie programów robotów, poprawić jakość wytwarzania i warunki pracy.
This paper presents the design of the method and the equipment for mapping a tool's trajectory with use of an active marker and a multi-camera vision system. The system works in the bands of visible light and infrared radiation. The positions sequences obtained from analysis of images have undergone transformations of the co-ordinate systems and numerical conversions. The final phase of process is an automatic generation program of the robot repeating tool's trajectory. The application allows the acceleration of the creation of the robot's program, as well as improving the quality and conditions of work.
Źródło:
Problemy Eksploatacji; 2007, 1; 145-156
1232-9312
Pojawia się w:
Problemy Eksploatacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zliczanie szybkich obiektów z wykorzystaniem kamery zdarzeniowej
Fast Object Counting with an Event Camera
Autorzy:
Bialik, Kamil
Kowalczyk, Marcin
Błachut, Krzysztof
Kryjak, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2203472.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
kamera zdarzeniowa
zliczanie szybkich obiektów
regulacja przepływu
porcjowanie
regulator PID
event camera
dynamic vision sensor
high-speed object counting
item flow regulation
portioning
PID controller
Opis:
W pracy zaproponowano wykorzystanie kamery zdarzeniowej jako komponentu systemu wizyjnego umożliwiającego zliczanie szybko przemieszczających się obiektów - w tym przypadku spadających ziaren kukurydzy. Kamery te przesyłają informacje o zmianach jasności poszczególnych pikseli i charakteryzują się niską latencją, brakiem rozmycia związanego z ruchem, poprawnym działaniem w różnych warunkach oświetleniowych, a także bardzo niskim zużyciem energii. Zaproponowany algorytm zliczający analizuje zdarzenia w czasie rzeczywistym. Działanie rozwiązania zademonstrowano na stanowisku składającym się ze zsypu z podajnikiem wibracyjnym, który umożliwiał regulację liczby spadających ziaren. Celem układu sterowania z regulatorem PID było utrzymanie stałej średniej liczby spadających obiektów. Zaproponowane rozwiązanie poddane zostało szeregowi testów, mających na celu określenie poprawności działania opracowanej metody. Na ich podstawie można potwierdzić słuszność użycia kamery zdarzeniowej do liczenia małych, szybko poruszających się obiektów, i związanego z tym szerokiego spektrum potencjalnych zastosowań przemysłowych.
This paper proposes the use of an event camera as a component of a vision system that enables counting of fast-moving objects - in this case, falling corn grains. These cameras transmit, in an asynchronous manner, information about the change in brightness of individual pixels and are characterised by low latency, no motion blur, and correct operation in different lighting conditions, as well as very low power consumption. The proposed counting algorithm processes events in real time. The operation of the solution was demonstrated on a stand consisting of a chute with a vibrating feeder, which allowed the number of falling grains to be adjusted. The objective of the control system with a PID controller was to maintain a constant average number of falling objects. The proposed solution was subjected to a series of tests to determine the correctness of the developed method operation. On their basis, the validity of using an event camera to count small, fast-moving objects and the associated wide range of potential industrial applications can be confirmed.
Źródło:
Pomiary Automatyka Robotyka; 2023, 27, 1; 79--84
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-21 z 21

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies