Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video image processing" wg kryterium: Temat


Tytuł:
Road user protection via intelligent camera surveillance
Autorzy:
Schiereck, B.
Powiązania:
https://bibliotekanauki.pl/articles/393457.pdf
Data publikacji:
2010
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
ruch drogowy
bezpieczeństwo ruchu drogowego
bezpieczeństwo pieszych
przetwarzanie obrazów video
road traffic
road traffic safety
pedestrian safety
video image processing
Opis:
Because of increasing traffic volume and complexity, road safety is now more than ever a hot topic on the government agenda. Traffic managers at all levels are organizing today debates with the following central topic: how can we better protect the road user? One of the solutions to improve pedestrian safety is via Video Image Processing technology. This video detection technology detects faster than any other detection technology. By analyzing the video images in real time, you immediately receive a clear image of potentially dangerous situations. Result: the danger of the incident is substantially reduced and secondary impacts are prevented. Is video detection a cure-all? Just like any other ITS technology, this detection technology must be used correctly. Different applications require different cameras and different camera positions. One must not start implementing video detection technology without a complete understanding of the costs and benefits associated with these systems. If the correct guidelines and parameters are taken into account and implemented correctly, video detection has proven to be very reliable and can offer great solutions to the end user.
Źródło:
Archives of Transport System Telematics; 2010, 3, 3; 52-55
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inland waterway vessels tracking using closed circuit television
Autorzy:
Kujawski, A.
Powiązania:
https://bibliotekanauki.pl/articles/135539.pdf
Data publikacji:
2015
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
inland shipping
image and video processing
tracking objects
CCTV surveillance
vessel positioning
safety of inland navigation
Opis:
The aim of this paper is to use closed-circuit television (CCTV) to search and track moving objects in inland waterways. The area of the analysis is the part of the West Odra river between the Długi and Kolejowy bridges in Szczecin. The points of interest are chosen intentionally due to the risk of vessel collision with bridges. The results of the research into the implemented methods of tracking objects could be utilized in the future to extend inland navigation services, which could be used by the captains of the ships and River Information Services operational personnel as well.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2015, 44 (116); 135-140
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real time 8K video quality assessment using FPGA
Autorzy:
Wielgosz, M.
Pietroń, M.
Karwatowski, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/114403.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
video quality
video metrics
image processing
FPGA
Opis:
This paper presents a hardware architecture of the video quality assessment module. Two different metrics were implemented on FPGA using modern High Level Language for digital system design – Impulse C. FPGA resources consumption of the presented module is low, which enables module-level parallelization. Tests conducted for four modules working concurrently show that 1.96 GB/s throughput can be achieved. The module is capable of processing 8K video stream in a real-time manner i.e. 30 frames/second. Such high performance of the presented solution was achieved due to the series of architectural optimization introduced to the module, such as reduction of data precision and reuse of various module components.
Źródło:
Measurement Automation Monitoring; 2016, 62, 6; 187-189
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic adaptation of Human-Computer Interaction system
Automatyczna adaptacja interfejsu człowiek-komputer
Autorzy:
Przybyło, J.
Powiązania:
https://bibliotekanauki.pl/articles/274635.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
interakcja człowiek-komputer
przetwarzanie i analiza obrazów
adaptacja
kalibracja
human-computer interaction
image and video processing
adaptation and calibration
Opis:
Human-computer interaction (HCI) is an emerging field of science aimed at providing natural ways for humans to use computers. Among many systems are vision-based approaches, utilizing face tracking and facial action recognition. Many sources of variation in facial appearance exists, which make recognition a challenging task. Often, uncomfortable manual calibration of the system is required. Therefore, in our opinion the key issue is the automatic adaptation of the machine to human rather than vice versa.
Interakcja człowiek-komputer (ang. human-computer interaction - HCI) to nowa dziedzina nauki ukierunkowana na rozwój naturalnych i intuicyjnych sposobów korzystania z komputerów i rządzeń. Wśród wielu stosowanych rozwiązań znajdują się systemy potrafiące śledzić cechy i rozpoznawać mimikę twarzy, wykorzystujące algorytmy przetwarzania i analizy obrazów. Rozpoznawanie mimiki jest trudnym zadaniem ze względu na istnienie wielu źródeł zmienności w wyglądzie twarzy. Bardzo często skutkuje to koniecznością ręcznej i niewygodnej kalibracji systemu. Dlatego, też zdaniem autora, kluczową sprawą jest takie konstruowanie algorytmów, aby system adaptował się automatycznie do człowieka, a nie odwrotnie.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 12; 86-88
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA implementation of procedures for video quality assessment
Autorzy:
Wielgosz, M.
Karwatowski, M.
Pietron, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305403.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
video quality
video metrics
image processing
FPGA
Impulse C
Opis:
The video resolutions used in a variety of media are constantly rising. While manufacturers struggle to perfect their screens, it is also important to ensure the high quality of the displayed image. Overall quality can be measured using a Mean Opinion Score (MOS). Video quality can be affected by miscellaneous artifacts appearing at every stage of video creation and transmission. In this paper, we present a solution to calculate four distinct video quality metrics that can be applied to a real-time video quality assessment system. Our assessment module is capable of processing 8K resolution in real time set at a level of 30 frames per second. The throughput of 2.19 GB/s surpasses the performance of pure software solutions. The module was created using a high-level language to concentrate on architectural optimization.
Źródło:
Computer Science; 2018, 19 (3); 279-305
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reliability of Pulse Measurements in Videoplethysmography
Autorzy:
Rumiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/221360.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
videoplethysmography
vital signs measurements
video processing
image processing
smart glasses
Opis:
Reliable, remote pulse rate measurement is potentially very important for medical diagnostics and screening. In this paper the Videoplethysmography was analyzed especially to verify the possible use of signals obtained for the YUV color model in order to estimate the pulse rate, to examine what is the best pulse estimation method for short video sequences and finally, to analyze how potential PPG-signals can be distinguished from other (e.g. background) signals. The presented methods were verified using data collected from 60 volunteers.
Źródło:
Metrology and Measurement Systems; 2016, 23, 3; 359-371
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of a Raspberry PI single-board computer for image acquisition and transmission
Autorzy:
Sieczkowski, K.
Sondej, T.
Powiązania:
https://bibliotekanauki.pl/articles/114628.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Raspberry Pi
single-board computer
video monitoring
image processing
Opis:
The article presents an analysis of the use of a single-board computer Raspberry PI for video acquisition and transmission. The article focuses on requirements necessary for the recorded image to be used for face analysis to identify facial expressions and microexpressions. The quality of the recorded video frames was verified for different resolutions and fps using PSNR (Peak Signal-to-Noise Ratio). Tests of CPU cores usage were also carried out for simultaneous recording and transmission of different types of video streams. The results show that the size of the effective image area depends on the resolution of recorded video stream. Increasing the frame rate for the given video resolution has a significant impact on the value of PSNR. And the resultant CPU usage, for the available resolutions and frame rates of the video recorded, in most cases does not exceed 15% of the total computing power of the CPU.
Źródło:
Measurement Automation Monitoring; 2017, 63, 5; 180-182
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronizacja obrazów pochodzących z różnych źródeł z zastosowaniem układu programowalnego
System for synchronization of video images from different sources
Autorzy:
Krupiński, M.
Sosnowski, T.
Bieszczad, G.
Maruda, H.
Powiązania:
https://bibliotekanauki.pl/articles/155072.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
synchronizacja sygnału wideo
przetwarzanie obrazów
video synchronization
image processing
Opis:
W ciągu ostatnich lat na znaczeniu zyskują systemy do analizy obrazu rejestrowanego w wielu zakresach widmowych. Przetwarzanie obrazów z wielu źródeł wymaga wcześniejszej synchronizacji obrazów w czasie. W artykule przedstawiono metodę synchronizacji strumieni danych obrazowych pochodzących z różnych kamer. Moduł realizujący metodę synchronizacji został opisany w języku VHDL i zaimplementowany w układzie FPGA. Przeprowadzono testy synchronizacji obrazów z kamery wizyjnej i termowizyjnej.
In the recent years the rapid development of systems for automatic or semi-automatic recording and analysis of various processes have been observed. Those systems can be used in such areas as military applications, machine diagnostic systems, security and surveillance systems and many others. They usually comprise several different sensors which operate on various physical principles. It increases the system efficiency because a multi-sensor system is usually better than the set of independent sensors. Thermal and daylight cameras are more and more often integrated in sensor fusion systems. It is mainly because thermal cameras provide the capability to constantly monitor the area (both during day and night) under varying weather conditions. One of the key problems in the processing of images originating from different sources (cameras) is spatial and temporal matching of their images. The cameras capture the images at different moments of time due to different internal clocks, which complicates the simultaneous processing of such image data. The paper presents the solution to this problem by introducing the method for synchronization of real-time recordings captured by different cameras. The appropriate algorithms have been written in the VHDL language and implemented in a programmable integrated circuit. The experimental verification of the presented method has also been performed. The algorithm has been tested on Terasic Board with two cameras, one thermovision camera (Fig. 5), and a video camera.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 905-907
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On-water video surveillance: data management for a ship identification system
Autorzy:
Popik, Adrian
Zaniewicz, Grzegorz
Wawrzyniak, Natalia
Powiązania:
https://bibliotekanauki.pl/articles/134912.pdf
Data publikacji:
2019
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
video surveillance
cameras
image
processing
ship identification
River Information Services
Opis:
Video surveillance on both marine and inland waters still only plays a mainly auxiliary role in vessel traffic observation and management. The newest technical achievements in visual systems allow camera images to be used in more sophisticated tasks, such as automatic vessel recognition and identification in observed areas. With the use of deep learning algorithms and other artificial intelligence methods, such as rough sets and fuzzy sets, new functions can be designed and implemented in monitoring systems. In this paper the challenges that were encountered and the technology that has been developed in managing video streams are presented as well as the images needed for tests and proper operation of the designed Ship Recognition and Identification System (SHREC). The current technologies, typical setups and capabilities of cameras, with regard to existing on-water video monitoring systems, are also presented. The aspects of collecting the test data in the Szczecin Water Junction area are also described. The main part of the article focuses on presenting the video data pre-processing, storing and managing procedures that have been developed for the purposes of the SHREC system.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2019, 60 (132); 56-63
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonstrukcja potrącenia pieszego, udokumentowanego na nagraniu wideo, przy wykorzystaniu programu Photorect 2.0
Reconstruction of a video recorded pedestrian accident, using the Photorect 2.0 software
Autorzy:
Winiarska, Weronika
Kędziora, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/26917672.pdf
Data publikacji:
2022
Wydawca:
Wydawnictwo Instytutu Ekspertyz Sądowych
Tematy:
fotogrametria
film video
przetwarzanie obrazu
synchronizacja symulacji
dystorsja
nagrywanie wideo
photogrammetry
video film
image processing
distortion
Opis:
Coraz częściej materiał dowodowy dotyczący wypadku drogowego zawiera filmy z kamer, które stanowią przydatny materiał w pracy biegłego. Analiza zapisanego na nich przebiegu zdarzenia jest najbardziej wiarygodną podstawą odtworzenia wypadku w tym prędkości i działań podejmowanych przez jego uczestników. Efektywne wykorzystanie nagrania wideo do analizy wypadku drogowego wymaga zwykle przeprowadzenia choćby jego wstępnej obróbki, np. wykadrowania i usunięcia niepotrzebnych fragmentów. W celu polepszenia jakości źródłowego materiału wideo w zakresie odwzorowania cech geometrycznych obiektów nagranych na filmie, potrzebne jest dokonanie korekty dystorsji, a następnie ortorektyfikacji. Często niezbędne jest także polepszenie obrazu, poprzez nakładanie na zapis wideo filtrów. Operacje te są możliwe do realizacji z użyciem programu PHOTORECT 2.0, co omówiono w artykule. Przekształcony film wideo, pozbawiony efektu perspektywy, odpowiednio wykadrowany oraz poddany ekstrakcji klatek użyto do przygotowania komputerowej symulacji zdarzenia, zsynchronizowanej z tym filmem.
Increasingly, evidence of a road accident includes video recordings that provide useful material in the work of an expert w itness. The analysis of the recorded course of the event is the most reliable basis for accident reconstruction, including the speed and actions taken by the participants. An effective use of a video recording for a road accident analysis usually requires at least its initial processing, e.g. framing and removing unnecessary parts. In order to improve the quality of the source video material in terms of mapping the geometric features of the objects recorded on the film, it is necessary to correct the distortion, followed by orthorectification. It is also often necessary to improve the image by applying filters to the video recording. These operations are possible with the use of Photorect 2.0, which is discussed in the article. The transformed video, post-processed by means of perspective effect elimination, cropping and frame extraction was used for the preparation of a computer simulation of the event, synchronized with this film.
Źródło:
Paragraf na Drodze; 2022, 3; 71-88
1505-3520
2956-3631
Pojawia się w:
Paragraf na Drodze
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny system wizyjnego nadzoru do detekcji naruszenia obszarów chronionych
Reconfigurable video surveillance system for detecting intrusion into protected areas
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156595.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
analiza obrazów
układy rekonfigurowane
systemy monitoringu wizyjnego
image processing
image analysis
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy system do detekcji naruszenia obszarów chronionych oparty o analizę obrazu kolorowego o rozdzielczości 640 x 480 zaimplementowany w zasobach rekonfigurowalnych układu FPGA. Składa się on z szeregu modułów: akwizycji obrazu, konwersji z przestrzeni barw RGB do CIE Lab, generacji tła z uwzględnieniem informacji o krawędziach, odejmowania tła, binaryzacji warunkowej, filtru medianowego, dylatacji morfologicznej, indeksacji jednoprzebiegowej, analizy położenia wykrytych obiektów oraz wizualizacji wyników. W pracy omówiono budowę każdego z modułów, zużycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania.
In the paper a hardware implementation of an algorithm for detection of intrusion into protected areas is presented. The system is composed of several functional modules: colour space conversion from RGB to CIE Lab, Sobel gradient calculation, background generation (running average algorithm), moving object segmentation, median filtering, morphological dilation, connected component labeling integrated with analysis of the detected objects (area and bounding box determination) and visualization of the detection results. The most important features of the proposed solution are: use of the CIE Lab colour space which allows improving segmentation results and reducing the noise introduced by shadows; advanced segmentation which is based on integration of luminance, chrominance and edge information and a thresholding scheme using two thresholds; use of a one-pass connected component labeling and analysis algorithm and its FPGA implementation. The use of a high-end Virtex 6 FPGA device allowed obtaining real-time performance in processing a 640 x 480 colour video stream. The proposed system was tested on several sequences. The obtained results show that it detects correctly the intrusion into protected zones. The module could be used in a smart-camera design, where the image processing and analysis is integrated with the imaging sensor and a surveillance system operator receives only information about intrusion detection.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 584-586
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on the characteristics of traffic ow with the use of video registration
Autorzy:
Celiński, I.
Powiązania:
https://bibliotekanauki.pl/articles/393633.pdf
Data publikacji:
2014
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
image processing
vision processing
road network
video registration
traffic detection
przetwarzanie obrazów
system wizyjny
sieć dróg
wideorejestracja
wykrywanie ruchu
Opis:
The article outlines the video registration method as well as research based on obtained video footage of the characteristics of traffic flow. The method is flexible and makes it possible to research various traffic characteristics. The article presents the method’s assumptions and the manner in which traffic flow characteristics were measured. The method of registering traffic flow parameters on video was implemented in 2012 in selected sections of Katowice’s road network. An important feature is the possibility of traffic flow parameterization with the use of popular camcorders. The thus-obtained footage is processed using so-called open library vision graphics procedures in order to establish traffic flow characteristics in near real-time.
Źródło:
Archives of Transport System Telematics; 2014, 7, 1; 3-8
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Monitor for Anti-Aircraft Guidance and Observation Systems
Monitor dla przeciwlotniczych systemów naprowadzania i systemów obserwacyjnych
Autorzy:
Kruk, Rafał
Rempała, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/403687.pdf
Data publikacji:
2019
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
vision systems
military monitor
hardware image processing
video fusion
motion detection
systemy wizyjne
monitor militarny
sprzętowe przetwarzanie obrazu
fuzja wideo
wykrywanie ruchu
Opis:
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
Źródło:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa; 2019, 10, 2 (36); 143-156
2081-5891
Pojawia się w:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies