Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video processing" wg kryterium: Temat


Tytuł:
Algorytm sterowania lotem mikrosamolotu w kanionie ulic z wykorzystaniem systemu wizyjnego
Control algorithm of micro aerial vehicle flight in streets canyons based on vision system
Autorzy:
Kownacki, C.
Powiązania:
https://bibliotekanauki.pl/articles/387445.pdf
Data publikacji:
2010
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
sterowanie
mikrosamolot
przetwarzanie obrazów
algorytm
control
microplane model
video processing
algorithms
Opis:
Artykuł przedstawia algorytm autonomicznego sterowania lotem mikrosamolotu w kanionach ulic z wykorzystaniem obrazu z kamery jako nośnika informacji o otoczeniu mikrosamolotu. Struktura algorytmu i proces przetwarzania informacji video została tak skonstruowana, aby możliwa była jego realizacja z wykorzystaniem dostępnych urządzeń tj. mikrokamer, zaawansowanego autopilota oraz procesorów sygnałowych DSP. Na podstawie opracowanego modelu algorytmu przygotowano i wykonano badania symulacyjne. Uzyskane wyniki potwierdzają skuteczność opracowanego algorytmu w autonomicznym sterowaniu lotem mikrosamolotu w kanionach ulic. Jednakże przeprowadzone symulacje nie wykorzystywały rzeczywistego obrazu video, a jedynie uproszczony model perspektywicznego obrazu mapy ulicy. Dlatego też należy przeprowadzić dalsze badania uwzględniające wszystkie etapy przetwarzania obrazu.
The paper presents a control algorithm of autonomous flight of micro aerial vehicle in streets’ canyon using camera as a source of information about surrounding environment. The algorithm structure and the video processing routines were designed in the way which enables possibility of the algorithm realization using available devices such as micro cameras, advanced autopilots and DSP processors. Basing on the designed algorithm model a simulation experiment was conducted. The results confirm the effectiveness of the proposed control algorithm of micro aerial vehicle autonomous flight in streets’ canyons. The simulation didn’t use the real video signal, but only simplified model of perspective view on street map was employed. That is why the research should be continued including all steps of video processing routine.
Źródło:
Acta Mechanica et Automatica; 2010, 4, 3; 76-86
1898-4088
2300-5319
Pojawia się w:
Acta Mechanica et Automatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic adaptation of Human-Computer Interaction system
Automatyczna adaptacja interfejsu człowiek-komputer
Autorzy:
Przybyło, J.
Powiązania:
https://bibliotekanauki.pl/articles/274635.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
interakcja człowiek-komputer
przetwarzanie i analiza obrazów
adaptacja
kalibracja
human-computer interaction
image and video processing
adaptation and calibration
Opis:
Human-computer interaction (HCI) is an emerging field of science aimed at providing natural ways for humans to use computers. Among many systems are vision-based approaches, utilizing face tracking and facial action recognition. Many sources of variation in facial appearance exists, which make recognition a challenging task. Often, uncomfortable manual calibration of the system is required. Therefore, in our opinion the key issue is the automatic adaptation of the machine to human rather than vice versa.
Interakcja człowiek-komputer (ang. human-computer interaction - HCI) to nowa dziedzina nauki ukierunkowana na rozwój naturalnych i intuicyjnych sposobów korzystania z komputerów i rządzeń. Wśród wielu stosowanych rozwiązań znajdują się systemy potrafiące śledzić cechy i rozpoznawać mimikę twarzy, wykorzystujące algorytmy przetwarzania i analizy obrazów. Rozpoznawanie mimiki jest trudnym zadaniem ze względu na istnienie wielu źródeł zmienności w wyglądzie twarzy. Bardzo często skutkuje to koniecznością ręcznej i niewygodnej kalibracji systemu. Dlatego, też zdaniem autora, kluczową sprawą jest takie konstruowanie algorytmów, aby system adaptował się automatycznie do człowieka, a nie odwrotnie.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 12; 86-88
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Distant Measurement of Plethysmographic Signal in Various Lighting Conditions Using Configurable Frame-Rate Camera
Autorzy:
Przybyło, J.
Kańtoch, E.
Jabłoński, M.
Augustyniak, P.
Powiązania:
https://bibliotekanauki.pl/articles/221113.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
photoplethysmography
remote patient monitoring
heart rate detection
video signal processing
Opis:
Videoplethysmography is currently recognized as a promising noninvasive heart rate measurement method advantageous for ubiquitous monitoring of humans in natural living conditions. Although the method is considered for application in several areas including telemedicine, sports and assisted living, its dependence on lighting conditions and camera performance is still not investigated enough. In this paper we report on research of various image acquisition aspects including the lighting spectrum, frame rate and compression. In the experimental part, we recorded five video sequences in various lighting conditions (fluorescent artificial light, dim daylight, infrared light, incandescent light bulb) using a programmable frame rate camera and a pulse oximeter as the reference. For a video sequence-based heart rate measurement we implemented a pulse detection algorithm based on the power spectral density, estimated using Welch’s technique. The results showed that lighting conditions and selected video camera settings including compression and the sampling frequency influence the heart rate detection accuracy. The average heart rate error also varies from 0.35 beats per minute (bpm) for fluorescent light to 6.6 bpm for dim daylight.
Źródło:
Metrology and Measurement Systems; 2016, 23, 4; 579-592
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fast Prototyping for Video Monitoring Systems with the Use of DSP Module
Autorzy:
Chmielewska, A.
Weychan, R.
Marciniak, T.
Dąbrowski, A.
Hartwich, M.
Owczarczak, M.
Powiązania:
https://bibliotekanauki.pl/articles/226392.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
video processing
CCTV system
urban surveillance monitoring
threat detection
Matlab / Simulink
Code Composer Studio
DSP
Opis:
This paper presents techniques for fast prototyping of real-time hardware / software video processing systems for urban surveillance monitoring equipment. During the experimental research the evaluation module with the TMS320DM6437 signal processor programmed with the use of the Code Composer Studio and Matlab / Simulink environments has been used. Analyzed algorithms can support the work of monitoring video operators. In particular, we analyzed efficiency of implementation of the algorithms using two examples: detection of painting theft and signaling of crossing a pedestrian pass at the red light.
Źródło:
International Journal of Electronics and Telecommunications; 2013, 59, 4; 375-381
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA implementation of procedures for video quality assessment
Autorzy:
Wielgosz, M.
Karwatowski, M.
Pietron, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305403.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
video quality
video metrics
image processing
FPGA
Impulse C
Opis:
The video resolutions used in a variety of media are constantly rising. While manufacturers struggle to perfect their screens, it is also important to ensure the high quality of the displayed image. Overall quality can be measured using a Mean Opinion Score (MOS). Video quality can be affected by miscellaneous artifacts appearing at every stage of video creation and transmission. In this paper, we present a solution to calculate four distinct video quality metrics that can be applied to a real-time video quality assessment system. Our assessment module is capable of processing 8K resolution in real time set at a level of 30 frames per second. The throughput of 2.19 GB/s surpasses the performance of pure software solutions. The module was created using a high-level language to concentrate on architectural optimization.
Źródło:
Computer Science; 2018, 19 (3); 279-305
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inland waterway vessels tracking using closed circuit television
Autorzy:
Kujawski, A.
Powiązania:
https://bibliotekanauki.pl/articles/135539.pdf
Data publikacji:
2015
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
inland shipping
image and video processing
tracking objects
CCTV surveillance
vessel positioning
safety of inland navigation
Opis:
The aim of this paper is to use closed-circuit television (CCTV) to search and track moving objects in inland waterways. The area of the analysis is the part of the West Odra river between the Długi and Kolejowy bridges in Szczecin. The points of interest are chosen intentionally due to the risk of vessel collision with bridges. The results of the research into the implemented methods of tracking objects could be utilized in the future to extend inland navigation services, which could be used by the captains of the ships and River Information Services operational personnel as well.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2015, 44 (116); 135-140
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Monitor for Anti-Aircraft Guidance and Observation Systems
Monitor dla przeciwlotniczych systemów naprowadzania i systemów obserwacyjnych
Autorzy:
Kruk, Rafał
Rempała, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/403687.pdf
Data publikacji:
2019
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
vision systems
military monitor
hardware image processing
video fusion
motion detection
systemy wizyjne
monitor militarny
sprzętowe przetwarzanie obrazu
fuzja wideo
wykrywanie ruchu
Opis:
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
Źródło:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa; 2019, 10, 2 (36); 143-156
2081-5891
Pojawia się w:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Non-contact video-based remote photoplethysmography for human stress detection
Autorzy:
Nikolaiev, Sergii
Telenyk, Sergii
Tymoshenko, Yury
Powiązania:
https://bibliotekanauki.pl/articles/385232.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
video processing
web cameras
stress index
remote photoplethysmography
rPPG
heart rate
heart rate variability
Predictive
Preventive
Personalized Medicine
Participatory Medicine
Opis:
This paper presents the experimental results for stress index calculation using developed by the authors information technology for non-contact remote human heart rate variability (HRV) retrieval in various conditions from video stream using common wide spread web cameras with minimal frame resolution of 640x480 pixels at average frame rate of 25 frames per second. The developed system architecture based on remote photoplethysmography (rPPG) technology is overviewed including description of all its main components and processes involved in converting video stream of frames into valuable rPPG signal. Also, algorithm of RR-peaks detection and RR-intervals retrieval is described. It is capable to detect 99.3% of heart contractions from raw rPPG signal. The usecases of measuring stress index in a wide variety of situations starting with car and tractor drivers at work research and finishing with students passing exams are presented and analyzed in detail. The results of the experiments have shown that the rPPG system is capable of retrieving stress level that is in accordance with the feelings of experiments’ participants.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 2; 63-73
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O pewnej metodzie wspomagania identyfikacji wizyjnej obiektów podwodnych
On a method for supporting visual identification of underwater objects
Autorzy:
Żak, Bogdan
Garus, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1359354.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Medycyny i Techniki Hiperbarycznej
Tematy:
ozpoznanie akwenu podwodnego
przetwarzanie obrazów
identyfikacja obiektów na obrazach wizyjnych
reconnaissance of an underwater area
image processing
identification of objects in video images
Opis:
Poszukiwanie i wykrycie obiektów znajdujących się w toni wodnej realizowane jest przez grupy wyspecjalizowanych nurków i płetwonurków. Jednakże ich czas przebywania pod wodą oraz możliwości penetracji głębin są ograniczone. Z tych względów coraz częściej do tych zadań wykorzystywane są bezzałogowe pojazdy podwodne wyposażone w środki technicznej obserwacji do których należą między innymi kamery TV. Tak więc do rozpoznania i klasyfikacji obiektów podwodnych są wykorzystywane obrazy wizyjne pochodzące z kamer zainstalowanych na pojazdach. Proces rozpoznania i identyfikacji obiektów jest procesem żmudnym i trudnym, wymagającym analizy wielu sekwencji obrazów, dlatego dąży się do jego automatyzacji. Wychodząc na przeciw tym potrzebom w artykule przedstawiono koncepcję identyfikacji podwodnych obiektów na podstawie obrazów wizyjnych akwenu podwodnego przesłanego z bezzałogowego pojazdu podwodnego na okręt bazę. Opisano metody przetwarzania wstępnego obrazów wizyjnych akwenu podwodnego oraz metodę poszukiwania wybranych obiektów na tych obrazach i ich identyfikację przy wykorzystaniu transformaty Hougha. Ponadto w pracy przedstawiono wyniki wstępnego przetwarzania oraz identyfikacji dokonanej na obrazach akwenu podwodnego oraz obrazie po operacji rozplotu.
The search and detection of objects under water is carried out by groups of specialised divers. However, their time underwater and their ability to penetrate the depths are limited. For these reasons, the use of unmanned underwater vehicles equipped with technical observation equipment, including TV cameras, is becoming increasingly popular for these tasks. Video images from cameras installed on vehicles are used to identify and classify underwater objects. The process of recognition and identification of objects is tedious and difficult and requires the analysis of numerous sequences of images, and so it is desirable to automate this process. In response to these needs, this article presents the concept of identification of underwater objects based on visual images from an underwater body of water sent from an unmanned underwater vehicle to a base vessel. The methods of initial processing of the observed images from an underwater area as well as the method of searching for selected objects in these images and their identification with the use of the Hough transform will be described. Furthermore, the paper presents the results of the preliminary processing and identification of the observed images following a deconvolution operation.
Źródło:
Polish Hyperbaric Research; 2019, 1(66); 25-34
1734-7009
2084-0535
Pojawia się w:
Polish Hyperbaric Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On-water video surveillance: data management for a ship identification system
Autorzy:
Popik, Adrian
Zaniewicz, Grzegorz
Wawrzyniak, Natalia
Powiązania:
https://bibliotekanauki.pl/articles/134912.pdf
Data publikacji:
2019
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
video surveillance
cameras
image
processing
ship identification
River Information Services
Opis:
Video surveillance on both marine and inland waters still only plays a mainly auxiliary role in vessel traffic observation and management. The newest technical achievements in visual systems allow camera images to be used in more sophisticated tasks, such as automatic vessel recognition and identification in observed areas. With the use of deep learning algorithms and other artificial intelligence methods, such as rough sets and fuzzy sets, new functions can be designed and implemented in monitoring systems. In this paper the challenges that were encountered and the technology that has been developed in managing video streams are presented as well as the images needed for tests and proper operation of the designed Ship Recognition and Identification System (SHREC). The current technologies, typical setups and capabilities of cameras, with regard to existing on-water video monitoring systems, are also presented. The aspects of collecting the test data in the Szczecin Water Junction area are also described. The main part of the article focuses on presenting the video data pre-processing, storing and managing procedures that have been developed for the purposes of the SHREC system.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2019, 60 (132); 56-63
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Platforma przetwarzania rozproszonego bazująca na sieci NoC
Distributed processing platform based on NoC network
Autorzy:
Łuczak, A.
Kurc, M.
Stępniewska, M.
Wegner, K.
Powiązania:
https://bibliotekanauki.pl/articles/154056.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie rozproszone
układy programowalne
FPGA
kompresja obrazu
AVC
VC-1
sieć w układzie
sieć NoC
scattered processing
video compression
Network on Chip (NoC)
NoC network
Opis:
W artykule zaprezentowano oryginalną platformę przetwarzania rozproszonego wykorzystującą sieć NoC (Network-on-Chip) jako infrastrukturę komunikacyjną. Proponowaną platformę zrealizowano wykorzystując układy FPGA jako elementy na których zaprogramowano interesujące projektanta bloki obliczeniowe. Pokazano cechy takiego systemu oraz zalety przetwarzania rozproszonego realizowanego na wielu niezależnych fizycznie układach ASIC czy FPGA.
The paper presents an original dissipated processing platform based on Network on Chip as communicative infrastructure. In the introduction the need for using dissipated processing to increase computational power of video compression systems is shown. Features of the dissipated processing system and advantages of its implementing in many physically independent FPGA or ASIC are shown. Several consecutive logical structures of the proposed system, differing in flexibility and implementation efforts, are given. In the third section a novel version of Network on Chip used as a communicative layer in the proposed platform is described. The hierarchic structure of this network and implemented communication modules are described. The proposed platform was built basing on Field Programmable Gate Array (FPGA) as elements on which computational blocks were programmed. Schematic diagram of the proposed system is shown in Fig. 1. The complete platform composed of nine boards with Field Programmable Gate Array (FPGA) is presented in Fig. 5.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 690-692
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real time 8K video quality assessment using FPGA
Autorzy:
Wielgosz, M.
Pietroń, M.
Karwatowski, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/114403.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
video quality
video metrics
image processing
FPGA
Opis:
This paper presents a hardware architecture of the video quality assessment module. Two different metrics were implemented on FPGA using modern High Level Language for digital system design – Impulse C. FPGA resources consumption of the presented module is low, which enables module-level parallelization. Tests conducted for four modules working concurrently show that 1.96 GB/s throughput can be achieved. The module is capable of processing 8K video stream in a real-time manner i.e. 30 frames/second. Such high performance of the presented solution was achieved due to the series of architectural optimization introduced to the module, such as reduction of data precision and reuse of various module components.
Źródło:
Measurement Automation Monitoring; 2016, 62, 6; 187-189
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny system wizyjnego nadzoru do detekcji naruszenia obszarów chronionych
Reconfigurable video surveillance system for detecting intrusion into protected areas
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156595.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
analiza obrazów
układy rekonfigurowane
systemy monitoringu wizyjnego
image processing
image analysis
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy system do detekcji naruszenia obszarów chronionych oparty o analizę obrazu kolorowego o rozdzielczości 640 x 480 zaimplementowany w zasobach rekonfigurowalnych układu FPGA. Składa się on z szeregu modułów: akwizycji obrazu, konwersji z przestrzeni barw RGB do CIE Lab, generacji tła z uwzględnieniem informacji o krawędziach, odejmowania tła, binaryzacji warunkowej, filtru medianowego, dylatacji morfologicznej, indeksacji jednoprzebiegowej, analizy położenia wykrytych obiektów oraz wizualizacji wyników. W pracy omówiono budowę każdego z modułów, zużycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania.
In the paper a hardware implementation of an algorithm for detection of intrusion into protected areas is presented. The system is composed of several functional modules: colour space conversion from RGB to CIE Lab, Sobel gradient calculation, background generation (running average algorithm), moving object segmentation, median filtering, morphological dilation, connected component labeling integrated with analysis of the detected objects (area and bounding box determination) and visualization of the detection results. The most important features of the proposed solution are: use of the CIE Lab colour space which allows improving segmentation results and reducing the noise introduced by shadows; advanced segmentation which is based on integration of luminance, chrominance and edge information and a thresholding scheme using two thresholds; use of a one-pass connected component labeling and analysis algorithm and its FPGA implementation. The use of a high-end Virtex 6 FPGA device allowed obtaining real-time performance in processing a 640 x 480 colour video stream. The proposed system was tested on several sequences. The obtained results show that it detects correctly the intrusion into protected zones. The module could be used in a smart-camera design, where the image processing and analysis is integrated with the imaging sensor and a surveillance system operator receives only information about intrusion detection.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 584-586
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies