Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video processing" wg kryterium: Temat


Wyświetlanie 1-23 z 23
Tytuł:
Reliability of Pulse Measurements in Videoplethysmography
Autorzy:
Rumiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/221360.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
videoplethysmography
vital signs measurements
video processing
image processing
smart glasses
Opis:
Reliable, remote pulse rate measurement is potentially very important for medical diagnostics and screening. In this paper the Videoplethysmography was analyzed especially to verify the possible use of signals obtained for the YUV color model in order to estimate the pulse rate, to examine what is the best pulse estimation method for short video sequences and finally, to analyze how potential PPG-signals can be distinguished from other (e.g. background) signals. The presented methods were verified using data collected from 60 volunteers.
Źródło:
Metrology and Measurement Systems; 2016, 23, 3; 359-371
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorytm sterowania lotem mikrosamolotu w kanionie ulic z wykorzystaniem systemu wizyjnego
Control algorithm of micro aerial vehicle flight in streets canyons based on vision system
Autorzy:
Kownacki, C.
Powiązania:
https://bibliotekanauki.pl/articles/387445.pdf
Data publikacji:
2010
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
sterowanie
mikrosamolot
przetwarzanie obrazów
algorytm
control
microplane model
video processing
algorithms
Opis:
Artykuł przedstawia algorytm autonomicznego sterowania lotem mikrosamolotu w kanionach ulic z wykorzystaniem obrazu z kamery jako nośnika informacji o otoczeniu mikrosamolotu. Struktura algorytmu i proces przetwarzania informacji video została tak skonstruowana, aby możliwa była jego realizacja z wykorzystaniem dostępnych urządzeń tj. mikrokamer, zaawansowanego autopilota oraz procesorów sygnałowych DSP. Na podstawie opracowanego modelu algorytmu przygotowano i wykonano badania symulacyjne. Uzyskane wyniki potwierdzają skuteczność opracowanego algorytmu w autonomicznym sterowaniu lotem mikrosamolotu w kanionach ulic. Jednakże przeprowadzone symulacje nie wykorzystywały rzeczywistego obrazu video, a jedynie uproszczony model perspektywicznego obrazu mapy ulicy. Dlatego też należy przeprowadzić dalsze badania uwzględniające wszystkie etapy przetwarzania obrazu.
The paper presents a control algorithm of autonomous flight of micro aerial vehicle in streets’ canyon using camera as a source of information about surrounding environment. The algorithm structure and the video processing routines were designed in the way which enables possibility of the algorithm realization using available devices such as micro cameras, advanced autopilots and DSP processors. Basing on the designed algorithm model a simulation experiment was conducted. The results confirm the effectiveness of the proposed control algorithm of micro aerial vehicle autonomous flight in streets’ canyons. The simulation didn’t use the real video signal, but only simplified model of perspective view on street map was employed. That is why the research should be continued including all steps of video processing routine.
Źródło:
Acta Mechanica et Automatica; 2010, 4, 3; 76-86
1898-4088
2300-5319
Pojawia się w:
Acta Mechanica et Automatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fast Prototyping for Video Monitoring Systems with the Use of DSP Module
Autorzy:
Chmielewska, A.
Weychan, R.
Marciniak, T.
Dąbrowski, A.
Hartwich, M.
Owczarczak, M.
Powiązania:
https://bibliotekanauki.pl/articles/226392.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
video processing
CCTV system
urban surveillance monitoring
threat detection
Matlab / Simulink
Code Composer Studio
DSP
Opis:
This paper presents techniques for fast prototyping of real-time hardware / software video processing systems for urban surveillance monitoring equipment. During the experimental research the evaluation module with the TMS320DM6437 signal processor programmed with the use of the Code Composer Studio and Matlab / Simulink environments has been used. Analyzed algorithms can support the work of monitoring video operators. In particular, we analyzed efficiency of implementation of the algorithms using two examples: detection of painting theft and signaling of crossing a pedestrian pass at the red light.
Źródło:
International Journal of Electronics and Telecommunications; 2013, 59, 4; 375-381
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Usuwanie tła w wideo nagraniach pochodzących z monitorowania basenu pływackiego
Background removal in video recordings from swimming pool monitoring
Autorzy:
Reiter, K.
Kowalczuk, Z.
Powiązania:
https://bibliotekanauki.pl/articles/274967.pdf
Data publikacji:
2018
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
monitoring
basen pływacki
przetwarzanie obrazów
usuwanie tła
eliminacja szumów
OpenCV
video surveillance
background subtraction
video processing
noise cancellation
Opis:
Automatyczna obróbka obrazu w czasie rzeczywistym jest kluczowa dla wielu rozwiązań monitoringu wykorzystywanych m.in. w celach bezpieczeństwa. Często jednym z ważniejszych etapów obróbki jest oddzielenie tła od obiektów na pierwszym planie, tak aby wykluczyć wszystkie nieistotne informacje z obrazu. Celem pracy jest podsumowanie doświadczenia zdobytego podczas śledzenia pływaków oraz pokazanie możliwości skutecznego automatycznego nadzoru wideo osób korzystających z basenu. Porównano skuteczność działania dwóch wybranych algorytmów (MOG i KNN) przy użyciu różnych odwzorowań kolorów oraz omówiono zalety i wady analizowanych metod.
Automatic real-time image processing is crucial for many (video surveillance) monitoring solutions used, among others for security purposes. Often one of the most important stages of computer vision processing is separating the background from the objects in the foreground, so as to exclude all irrelevant information from the image. The aim of this work is to summarize the experience gained while tracking swimmers and to show the possibility of effective automatic video surveillance of people using a swimming pool. The effectiveness of two selected algorithms (MOG and KNN) is compared using different color mappings and the advantages and disadvantages of the analyzed methods are discussed.
Źródło:
Pomiary Automatyka Robotyka; 2018, 22, 3; 15-22
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inland waterway vessels tracking using closed circuit television
Autorzy:
Kujawski, A.
Powiązania:
https://bibliotekanauki.pl/articles/135539.pdf
Data publikacji:
2015
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
inland shipping
image and video processing
tracking objects
CCTV surveillance
vessel positioning
safety of inland navigation
Opis:
The aim of this paper is to use closed-circuit television (CCTV) to search and track moving objects in inland waterways. The area of the analysis is the part of the West Odra river between the Długi and Kolejowy bridges in Szczecin. The points of interest are chosen intentionally due to the risk of vessel collision with bridges. The results of the research into the implemented methods of tracking objects could be utilized in the future to extend inland navigation services, which could be used by the captains of the ships and River Information Services operational personnel as well.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2015, 44 (116); 135-140
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Distant Measurement of Plethysmographic Signal in Various Lighting Conditions Using Configurable Frame-Rate Camera
Autorzy:
Przybyło, J.
Kańtoch, E.
Jabłoński, M.
Augustyniak, P.
Powiązania:
https://bibliotekanauki.pl/articles/221113.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
photoplethysmography
remote patient monitoring
heart rate detection
video signal processing
Opis:
Videoplethysmography is currently recognized as a promising noninvasive heart rate measurement method advantageous for ubiquitous monitoring of humans in natural living conditions. Although the method is considered for application in several areas including telemedicine, sports and assisted living, its dependence on lighting conditions and camera performance is still not investigated enough. In this paper we report on research of various image acquisition aspects including the lighting spectrum, frame rate and compression. In the experimental part, we recorded five video sequences in various lighting conditions (fluorescent artificial light, dim daylight, infrared light, incandescent light bulb) using a programmable frame rate camera and a pulse oximeter as the reference. For a video sequence-based heart rate measurement we implemented a pulse detection algorithm based on the power spectral density, estimated using Welch’s technique. The results showed that lighting conditions and selected video camera settings including compression and the sampling frequency influence the heart rate detection accuracy. The average heart rate error also varies from 0.35 beats per minute (bpm) for fluorescent light to 6.6 bpm for dim daylight.
Źródło:
Metrology and Measurement Systems; 2016, 23, 4; 579-592
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic adaptation of Human-Computer Interaction system
Automatyczna adaptacja interfejsu człowiek-komputer
Autorzy:
Przybyło, J.
Powiązania:
https://bibliotekanauki.pl/articles/274635.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
interakcja człowiek-komputer
przetwarzanie i analiza obrazów
adaptacja
kalibracja
human-computer interaction
image and video processing
adaptation and calibration
Opis:
Human-computer interaction (HCI) is an emerging field of science aimed at providing natural ways for humans to use computers. Among many systems are vision-based approaches, utilizing face tracking and facial action recognition. Many sources of variation in facial appearance exists, which make recognition a challenging task. Often, uncomfortable manual calibration of the system is required. Therefore, in our opinion the key issue is the automatic adaptation of the machine to human rather than vice versa.
Interakcja człowiek-komputer (ang. human-computer interaction - HCI) to nowa dziedzina nauki ukierunkowana na rozwój naturalnych i intuicyjnych sposobów korzystania z komputerów i rządzeń. Wśród wielu stosowanych rozwiązań znajdują się systemy potrafiące śledzić cechy i rozpoznawać mimikę twarzy, wykorzystujące algorytmy przetwarzania i analizy obrazów. Rozpoznawanie mimiki jest trudnym zadaniem ze względu na istnienie wielu źródeł zmienności w wyglądzie twarzy. Bardzo często skutkuje to koniecznością ręcznej i niewygodnej kalibracji systemu. Dlatego, też zdaniem autora, kluczową sprawą jest takie konstruowanie algorytmów, aby system adaptował się automatycznie do człowieka, a nie odwrotnie.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 12; 86-88
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Non-contact video-based remote photoplethysmography for human stress detection
Autorzy:
Nikolaiev, Sergii
Telenyk, Sergii
Tymoshenko, Yury
Powiązania:
https://bibliotekanauki.pl/articles/385232.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
video processing
web cameras
stress index
remote photoplethysmography
rPPG
heart rate
heart rate variability
Predictive
Preventive
Personalized Medicine
Participatory Medicine
Opis:
This paper presents the experimental results for stress index calculation using developed by the authors information technology for non-contact remote human heart rate variability (HRV) retrieval in various conditions from video stream using common wide spread web cameras with minimal frame resolution of 640x480 pixels at average frame rate of 25 frames per second. The developed system architecture based on remote photoplethysmography (rPPG) technology is overviewed including description of all its main components and processes involved in converting video stream of frames into valuable rPPG signal. Also, algorithm of RR-peaks detection and RR-intervals retrieval is described. It is capable to detect 99.3% of heart contractions from raw rPPG signal. The usecases of measuring stress index in a wide variety of situations starting with car and tractor drivers at work research and finishing with students passing exams are presented and analyzed in detail. The results of the experiments have shown that the rPPG system is capable of retrieving stress level that is in accordance with the feelings of experiments’ participants.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 2; 63-73
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Road user protection via intelligent camera surveillance
Autorzy:
Schiereck, B.
Powiązania:
https://bibliotekanauki.pl/articles/393457.pdf
Data publikacji:
2010
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
ruch drogowy
bezpieczeństwo ruchu drogowego
bezpieczeństwo pieszych
przetwarzanie obrazów video
road traffic
road traffic safety
pedestrian safety
video image processing
Opis:
Because of increasing traffic volume and complexity, road safety is now more than ever a hot topic on the government agenda. Traffic managers at all levels are organizing today debates with the following central topic: how can we better protect the road user? One of the solutions to improve pedestrian safety is via Video Image Processing technology. This video detection technology detects faster than any other detection technology. By analyzing the video images in real time, you immediately receive a clear image of potentially dangerous situations. Result: the danger of the incident is substantially reduced and secondary impacts are prevented. Is video detection a cure-all? Just like any other ITS technology, this detection technology must be used correctly. Different applications require different cameras and different camera positions. One must not start implementing video detection technology without a complete understanding of the costs and benefits associated with these systems. If the correct guidelines and parameters are taken into account and implemented correctly, video detection has proven to be very reliable and can offer great solutions to the end user.
Źródło:
Archives of Transport System Telematics; 2010, 3, 3; 52-55
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real time 8K video quality assessment using FPGA
Autorzy:
Wielgosz, M.
Pietroń, M.
Karwatowski, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/114403.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
video quality
video metrics
image processing
FPGA
Opis:
This paper presents a hardware architecture of the video quality assessment module. Two different metrics were implemented on FPGA using modern High Level Language for digital system design – Impulse C. FPGA resources consumption of the presented module is low, which enables module-level parallelization. Tests conducted for four modules working concurrently show that 1.96 GB/s throughput can be achieved. The module is capable of processing 8K video stream in a real-time manner i.e. 30 frames/second. Such high performance of the presented solution was achieved due to the series of architectural optimization introduced to the module, such as reduction of data precision and reuse of various module components.
Źródło:
Measurement Automation Monitoring; 2016, 62, 6; 187-189
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA implementation of procedures for video quality assessment
Autorzy:
Wielgosz, M.
Karwatowski, M.
Pietron, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305403.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
video quality
video metrics
image processing
FPGA
Impulse C
Opis:
The video resolutions used in a variety of media are constantly rising. While manufacturers struggle to perfect their screens, it is also important to ensure the high quality of the displayed image. Overall quality can be measured using a Mean Opinion Score (MOS). Video quality can be affected by miscellaneous artifacts appearing at every stage of video creation and transmission. In this paper, we present a solution to calculate four distinct video quality metrics that can be applied to a real-time video quality assessment system. Our assessment module is capable of processing 8K resolution in real time set at a level of 30 frames per second. The throughput of 2.19 GB/s surpasses the performance of pure software solutions. The module was created using a high-level language to concentrate on architectural optimization.
Źródło:
Computer Science; 2018, 19 (3); 279-305
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of a Raspberry PI single-board computer for image acquisition and transmission
Autorzy:
Sieczkowski, K.
Sondej, T.
Powiązania:
https://bibliotekanauki.pl/articles/114628.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Raspberry Pi
single-board computer
video monitoring
image processing
Opis:
The article presents an analysis of the use of a single-board computer Raspberry PI for video acquisition and transmission. The article focuses on requirements necessary for the recorded image to be used for face analysis to identify facial expressions and microexpressions. The quality of the recorded video frames was verified for different resolutions and fps using PSNR (Peak Signal-to-Noise Ratio). Tests of CPU cores usage were also carried out for simultaneous recording and transmission of different types of video streams. The results show that the size of the effective image area depends on the resolution of recorded video stream. Increasing the frame rate for the given video resolution has a significant impact on the value of PSNR. And the resultant CPU usage, for the available resolutions and frame rates of the video recorded, in most cases does not exceed 15% of the total computing power of the CPU.
Źródło:
Measurement Automation Monitoring; 2017, 63, 5; 180-182
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronizacja obrazów pochodzących z różnych źródeł z zastosowaniem układu programowalnego
System for synchronization of video images from different sources
Autorzy:
Krupiński, M.
Sosnowski, T.
Bieszczad, G.
Maruda, H.
Powiązania:
https://bibliotekanauki.pl/articles/155072.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
synchronizacja sygnału wideo
przetwarzanie obrazów
video synchronization
image processing
Opis:
W ciągu ostatnich lat na znaczeniu zyskują systemy do analizy obrazu rejestrowanego w wielu zakresach widmowych. Przetwarzanie obrazów z wielu źródeł wymaga wcześniejszej synchronizacji obrazów w czasie. W artykule przedstawiono metodę synchronizacji strumieni danych obrazowych pochodzących z różnych kamer. Moduł realizujący metodę synchronizacji został opisany w języku VHDL i zaimplementowany w układzie FPGA. Przeprowadzono testy synchronizacji obrazów z kamery wizyjnej i termowizyjnej.
In the recent years the rapid development of systems for automatic or semi-automatic recording and analysis of various processes have been observed. Those systems can be used in such areas as military applications, machine diagnostic systems, security and surveillance systems and many others. They usually comprise several different sensors which operate on various physical principles. It increases the system efficiency because a multi-sensor system is usually better than the set of independent sensors. Thermal and daylight cameras are more and more often integrated in sensor fusion systems. It is mainly because thermal cameras provide the capability to constantly monitor the area (both during day and night) under varying weather conditions. One of the key problems in the processing of images originating from different sources (cameras) is spatial and temporal matching of their images. The cameras capture the images at different moments of time due to different internal clocks, which complicates the simultaneous processing of such image data. The paper presents the solution to this problem by introducing the method for synchronization of real-time recordings captured by different cameras. The appropriate algorithms have been written in the VHDL language and implemented in a programmable integrated circuit. The experimental verification of the presented method has also been performed. The algorithm has been tested on Terasic Board with two cameras, one thermovision camera (Fig. 5), and a video camera.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 905-907
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On-water video surveillance: data management for a ship identification system
Autorzy:
Popik, Adrian
Zaniewicz, Grzegorz
Wawrzyniak, Natalia
Powiązania:
https://bibliotekanauki.pl/articles/134912.pdf
Data publikacji:
2019
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
video surveillance
cameras
image
processing
ship identification
River Information Services
Opis:
Video surveillance on both marine and inland waters still only plays a mainly auxiliary role in vessel traffic observation and management. The newest technical achievements in visual systems allow camera images to be used in more sophisticated tasks, such as automatic vessel recognition and identification in observed areas. With the use of deep learning algorithms and other artificial intelligence methods, such as rough sets and fuzzy sets, new functions can be designed and implemented in monitoring systems. In this paper the challenges that were encountered and the technology that has been developed in managing video streams are presented as well as the images needed for tests and proper operation of the designed Ship Recognition and Identification System (SHREC). The current technologies, typical setups and capabilities of cameras, with regard to existing on-water video monitoring systems, are also presented. The aspects of collecting the test data in the Szczecin Water Junction area are also described. The main part of the article focuses on presenting the video data pre-processing, storing and managing procedures that have been developed for the purposes of the SHREC system.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2019, 60 (132); 56-63
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonstrukcja potrącenia pieszego, udokumentowanego na nagraniu wideo, przy wykorzystaniu programu Photorect 2.0
Reconstruction of a video recorded pedestrian accident, using the Photorect 2.0 software
Autorzy:
Winiarska, Weronika
Kędziora, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/26917672.pdf
Data publikacji:
2022
Wydawca:
Wydawnictwo Instytutu Ekspertyz Sądowych
Tematy:
fotogrametria
film video
przetwarzanie obrazu
synchronizacja symulacji
dystorsja
nagrywanie wideo
photogrammetry
video film
image processing
distortion
Opis:
Coraz częściej materiał dowodowy dotyczący wypadku drogowego zawiera filmy z kamer, które stanowią przydatny materiał w pracy biegłego. Analiza zapisanego na nich przebiegu zdarzenia jest najbardziej wiarygodną podstawą odtworzenia wypadku w tym prędkości i działań podejmowanych przez jego uczestników. Efektywne wykorzystanie nagrania wideo do analizy wypadku drogowego wymaga zwykle przeprowadzenia choćby jego wstępnej obróbki, np. wykadrowania i usunięcia niepotrzebnych fragmentów. W celu polepszenia jakości źródłowego materiału wideo w zakresie odwzorowania cech geometrycznych obiektów nagranych na filmie, potrzebne jest dokonanie korekty dystorsji, a następnie ortorektyfikacji. Często niezbędne jest także polepszenie obrazu, poprzez nakładanie na zapis wideo filtrów. Operacje te są możliwe do realizacji z użyciem programu PHOTORECT 2.0, co omówiono w artykule. Przekształcony film wideo, pozbawiony efektu perspektywy, odpowiednio wykadrowany oraz poddany ekstrakcji klatek użyto do przygotowania komputerowej symulacji zdarzenia, zsynchronizowanej z tym filmem.
Increasingly, evidence of a road accident includes video recordings that provide useful material in the work of an expert w itness. The analysis of the recorded course of the event is the most reliable basis for accident reconstruction, including the speed and actions taken by the participants. An effective use of a video recording for a road accident analysis usually requires at least its initial processing, e.g. framing and removing unnecessary parts. In order to improve the quality of the source video material in terms of mapping the geometric features of the objects recorded on the film, it is necessary to correct the distortion, followed by orthorectification. It is also often necessary to improve the image by applying filters to the video recording. These operations are possible with the use of Photorect 2.0, which is discussed in the article. The transformed video, post-processed by means of perspective effect elimination, cropping and frame extraction was used for the preparation of a computer simulation of the event, synchronized with this film.
Źródło:
Paragraf na Drodze; 2022, 3; 71-88
1505-3520
2956-3631
Pojawia się w:
Paragraf na Drodze
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on the characteristics of traffic ow with the use of video registration
Autorzy:
Celiński, I.
Powiązania:
https://bibliotekanauki.pl/articles/393633.pdf
Data publikacji:
2014
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
image processing
vision processing
road network
video registration
traffic detection
przetwarzanie obrazów
system wizyjny
sieć dróg
wideorejestracja
wykrywanie ruchu
Opis:
The article outlines the video registration method as well as research based on obtained video footage of the characteristics of traffic flow. The method is flexible and makes it possible to research various traffic characteristics. The article presents the method’s assumptions and the manner in which traffic flow characteristics were measured. The method of registering traffic flow parameters on video was implemented in 2012 in selected sections of Katowice’s road network. An important feature is the possibility of traffic flow parameterization with the use of popular camcorders. The thus-obtained footage is processed using so-called open library vision graphics procedures in order to establish traffic flow characteristics in near real-time.
Źródło:
Archives of Transport System Telematics; 2014, 7, 1; 3-8
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny system wizyjnego nadzoru do detekcji naruszenia obszarów chronionych
Reconfigurable video surveillance system for detecting intrusion into protected areas
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156595.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
analiza obrazów
układy rekonfigurowane
systemy monitoringu wizyjnego
image processing
image analysis
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy system do detekcji naruszenia obszarów chronionych oparty o analizę obrazu kolorowego o rozdzielczości 640 x 480 zaimplementowany w zasobach rekonfigurowalnych układu FPGA. Składa się on z szeregu modułów: akwizycji obrazu, konwersji z przestrzeni barw RGB do CIE Lab, generacji tła z uwzględnieniem informacji o krawędziach, odejmowania tła, binaryzacji warunkowej, filtru medianowego, dylatacji morfologicznej, indeksacji jednoprzebiegowej, analizy położenia wykrytych obiektów oraz wizualizacji wyników. W pracy omówiono budowę każdego z modułów, zużycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania.
In the paper a hardware implementation of an algorithm for detection of intrusion into protected areas is presented. The system is composed of several functional modules: colour space conversion from RGB to CIE Lab, Sobel gradient calculation, background generation (running average algorithm), moving object segmentation, median filtering, morphological dilation, connected component labeling integrated with analysis of the detected objects (area and bounding box determination) and visualization of the detection results. The most important features of the proposed solution are: use of the CIE Lab colour space which allows improving segmentation results and reducing the noise introduced by shadows; advanced segmentation which is based on integration of luminance, chrominance and edge information and a thresholding scheme using two thresholds; use of a one-pass connected component labeling and analysis algorithm and its FPGA implementation. The use of a high-end Virtex 6 FPGA device allowed obtaining real-time performance in processing a 640 x 480 colour video stream. The proposed system was tested on several sequences. The obtained results show that it detects correctly the intrusion into protected zones. The module could be used in a smart-camera design, where the image processing and analysis is integrated with the imaging sensor and a surveillance system operator receives only information about intrusion detection.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 584-586
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Monitor for Anti-Aircraft Guidance and Observation Systems
Monitor dla przeciwlotniczych systemów naprowadzania i systemów obserwacyjnych
Autorzy:
Kruk, Rafał
Rempała, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/403687.pdf
Data publikacji:
2019
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
vision systems
military monitor
hardware image processing
video fusion
motion detection
systemy wizyjne
monitor militarny
sprzętowe przetwarzanie obrazu
fuzja wideo
wykrywanie ruchu
Opis:
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
Źródło:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa; 2019, 10, 2 (36); 143-156
2081-5891
Pojawia się w:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O pewnej metodzie wspomagania identyfikacji wizyjnej obiektów podwodnych
On a method for supporting visual identification of underwater objects
Autorzy:
Żak, Bogdan
Garus, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1359354.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Medycyny i Techniki Hiperbarycznej
Tematy:
ozpoznanie akwenu podwodnego
przetwarzanie obrazów
identyfikacja obiektów na obrazach wizyjnych
reconnaissance of an underwater area
image processing
identification of objects in video images
Opis:
Poszukiwanie i wykrycie obiektów znajdujących się w toni wodnej realizowane jest przez grupy wyspecjalizowanych nurków i płetwonurków. Jednakże ich czas przebywania pod wodą oraz możliwości penetracji głębin są ograniczone. Z tych względów coraz częściej do tych zadań wykorzystywane są bezzałogowe pojazdy podwodne wyposażone w środki technicznej obserwacji do których należą między innymi kamery TV. Tak więc do rozpoznania i klasyfikacji obiektów podwodnych są wykorzystywane obrazy wizyjne pochodzące z kamer zainstalowanych na pojazdach. Proces rozpoznania i identyfikacji obiektów jest procesem żmudnym i trudnym, wymagającym analizy wielu sekwencji obrazów, dlatego dąży się do jego automatyzacji. Wychodząc na przeciw tym potrzebom w artykule przedstawiono koncepcję identyfikacji podwodnych obiektów na podstawie obrazów wizyjnych akwenu podwodnego przesłanego z bezzałogowego pojazdu podwodnego na okręt bazę. Opisano metody przetwarzania wstępnego obrazów wizyjnych akwenu podwodnego oraz metodę poszukiwania wybranych obiektów na tych obrazach i ich identyfikację przy wykorzystaniu transformaty Hougha. Ponadto w pracy przedstawiono wyniki wstępnego przetwarzania oraz identyfikacji dokonanej na obrazach akwenu podwodnego oraz obrazie po operacji rozplotu.
The search and detection of objects under water is carried out by groups of specialised divers. However, their time underwater and their ability to penetrate the depths are limited. For these reasons, the use of unmanned underwater vehicles equipped with technical observation equipment, including TV cameras, is becoming increasingly popular for these tasks. Video images from cameras installed on vehicles are used to identify and classify underwater objects. The process of recognition and identification of objects is tedious and difficult and requires the analysis of numerous sequences of images, and so it is desirable to automate this process. In response to these needs, this article presents the concept of identification of underwater objects based on visual images from an underwater body of water sent from an unmanned underwater vehicle to a base vessel. The methods of initial processing of the observed images from an underwater area as well as the method of searching for selected objects in these images and their identification with the use of the Hough transform will be described. Furthermore, the paper presents the results of the preliminary processing and identification of the observed images following a deconvolution operation.
Źródło:
Polish Hyperbaric Research; 2019, 1(66); 25-34
1734-7009
2084-0535
Pojawia się w:
Polish Hyperbaric Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Platforma przetwarzania rozproszonego bazująca na sieci NoC
Distributed processing platform based on NoC network
Autorzy:
Łuczak, A.
Kurc, M.
Stępniewska, M.
Wegner, K.
Powiązania:
https://bibliotekanauki.pl/articles/154056.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie rozproszone
układy programowalne
FPGA
kompresja obrazu
AVC
VC-1
sieć w układzie
sieć NoC
scattered processing
video compression
Network on Chip (NoC)
NoC network
Opis:
W artykule zaprezentowano oryginalną platformę przetwarzania rozproszonego wykorzystującą sieć NoC (Network-on-Chip) jako infrastrukturę komunikacyjną. Proponowaną platformę zrealizowano wykorzystując układy FPGA jako elementy na których zaprogramowano interesujące projektanta bloki obliczeniowe. Pokazano cechy takiego systemu oraz zalety przetwarzania rozproszonego realizowanego na wielu niezależnych fizycznie układach ASIC czy FPGA.
The paper presents an original dissipated processing platform based on Network on Chip as communicative infrastructure. In the introduction the need for using dissipated processing to increase computational power of video compression systems is shown. Features of the dissipated processing system and advantages of its implementing in many physically independent FPGA or ASIC are shown. Several consecutive logical structures of the proposed system, differing in flexibility and implementation efforts, are given. In the third section a novel version of Network on Chip used as a communicative layer in the proposed platform is described. The hierarchic structure of this network and implemented communication modules are described. The proposed platform was built basing on Field Programmable Gate Array (FPGA) as elements on which computational blocks were programmed. Schematic diagram of the proposed system is shown in Fig. 1. The complete platform composed of nine boards with Field Programmable Gate Array (FPGA) is presented in Fig. 5.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 690-692
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stosowanie monitoringu w bibliotece a ochrona danych osobowych pracowników biblioteki
Library monitoring and the protection of personal data of library staff
Autorzy:
Kulikowska, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/541345.pdf
Data publikacji:
2018
Wydawca:
Akademia Wychowania Fizycznego im. Jerzego Kukuczki w Katowicach
Tematy:
monitoring wizyjny
wizerunek
dane osobowe
monitoring w miejscu pracy
przetwarzanie danych
RODO
video monitoring
facial image
personal data
workplace monitoring
processing of personal data
GDPR
Opis:
The introduction of the General Data Protection Regulation (GDPR) has had an impact on the functionality of cultural institutions such as libraries. The libraries use video monitoring, which involves processing of personal data of people using library resources, library employees and other third parties. Due to the implementation of GDPR new provisions have been added to the Polish employment law which, among others, regulate the monitoring in the workplace. The new regulations outlines the circumstances under which monitoring is permissible. The libraries as employers have to adhere to this legislation by informing employees about the use of monitoring in the workplace.
Rozpoczęcie stosowania ogólnego Rozporządzenia o ochronie danych (RODO) wywarło wpływ na funkcjonowanie instytucji kultury takich jak biblioteki. Biblioteki stosują monitoring wizyjny, co wiąże się w szczególności z przetwarzaniem danych osobowych pracowników biblioteki, jak również innych osób trzecich. Konieczność zapewnienia stosowania RODO w polskim porządku prawnym doprowadziła do uregulowania stanu prawnego w zakresie stosowania monitoringu w miejscu pracy poprzez zmianę przepisów prawa pracy. Nowe przepisy nakładają na biblioteki jako pracodawców szereg obowiązków związanych ze stosowaniem monitoringu w miejscu pracy, które wiążą się z koniecznością poinformowania pracowników o stosowaniu monitoringu, w szczególności poprzez wprowadzenie zmian do regulaminu pracy.
Źródło:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy; 2018, 3(53); 62-75
2084-5464
Pojawia się w:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-23 z 23

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies