Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video processing" wg kryterium: Wszystkie pola


Tytuł:
Rozpoznawanie symboli języka migowego z wykorzystaniem algorytmów cyfrowego przetwarzania obrazów
Realtime sign language recognizing using digital video processing algorithms
Autorzy:
Fogiel, A.
Tkacz, J.
Powiązania:
https://bibliotekanauki.pl/articles/154943.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Microsoft Kinect
OpenCV
OpenNI
język migowy
sign language
Opis:
W artykule został opisany proces projektowania i realizacji aplikacji, przeznaczonej do analizy, w czasie rzeczywistym, obrazów cyfrowych zawierających symbole języka migowego. Stworzone oprogramowanie zostało napisane w języku C++. Wykorzystuje ono bibliotekę OpenCV w połączeniu z sensorem Microsoft Kinect. Oprogramowanie przetwarza około 15 klatek obrazu w ciągu sekundy i rozpoznaje gesty ze skutecznością 71% . Opracowane oprogramowanie jest odporne w znacznym stopniu na wpływ warunków oświetleniowych.
The paper describes the implementation process of application that recognizes sign language symbols which are presented by a user in real time. The first part of this paper presents software and libraries used by this program. It also contains description of a Microsoft Kinect sensor with explanation of its operation. The second part of this paper is dedicated to KinectSL application. It presents the structure of the application, its algorithm and a study that led to the described method of recognizing sign language gestures. Section 5 deals with main problems that appeared while working on the project such as detecting writs and fingers. Subsection 5.4 contains the detailed explanation of parameters that are passed to a KNN classifier and formulas necessary to compute them. The presented application is multi-platform and can be run on Windows, Linux and MacOS operating systems. This software is able to recognize gestures for two hand at once that allows it to support advanced gestures. The tests carried out showed that KinectSL processed 15 frames per second and its performance of gestures recognizing was above 71 percent. The described system is a good basis to create a program that will be able to fluent translate sign language. It can also be used in industry and entertainment to control processes with user gestures.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 11, 11; 1167-1170
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorytm sterowania lotem mikrosamolotu w kanionie ulic z wykorzystaniem systemu wizyjnego
Control algorithm of micro aerial vehicle flight in streets canyons based on vision system
Autorzy:
Kownacki, C.
Powiązania:
https://bibliotekanauki.pl/articles/387445.pdf
Data publikacji:
2010
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
sterowanie
mikrosamolot
przetwarzanie obrazów
algorytm
control
microplane model
video processing
algorithms
Opis:
Artykuł przedstawia algorytm autonomicznego sterowania lotem mikrosamolotu w kanionach ulic z wykorzystaniem obrazu z kamery jako nośnika informacji o otoczeniu mikrosamolotu. Struktura algorytmu i proces przetwarzania informacji video została tak skonstruowana, aby możliwa była jego realizacja z wykorzystaniem dostępnych urządzeń tj. mikrokamer, zaawansowanego autopilota oraz procesorów sygnałowych DSP. Na podstawie opracowanego modelu algorytmu przygotowano i wykonano badania symulacyjne. Uzyskane wyniki potwierdzają skuteczność opracowanego algorytmu w autonomicznym sterowaniu lotem mikrosamolotu w kanionach ulic. Jednakże przeprowadzone symulacje nie wykorzystywały rzeczywistego obrazu video, a jedynie uproszczony model perspektywicznego obrazu mapy ulicy. Dlatego też należy przeprowadzić dalsze badania uwzględniające wszystkie etapy przetwarzania obrazu.
The paper presents a control algorithm of autonomous flight of micro aerial vehicle in streets’ canyon using camera as a source of information about surrounding environment. The algorithm structure and the video processing routines were designed in the way which enables possibility of the algorithm realization using available devices such as micro cameras, advanced autopilots and DSP processors. Basing on the designed algorithm model a simulation experiment was conducted. The results confirm the effectiveness of the proposed control algorithm of micro aerial vehicle autonomous flight in streets’ canyons. The simulation didn’t use the real video signal, but only simplified model of perspective view on street map was employed. That is why the research should be continued including all steps of video processing routine.
Źródło:
Acta Mechanica et Automatica; 2010, 4, 3; 76-86
1898-4088
2300-5319
Pojawia się w:
Acta Mechanica et Automatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Usuwanie tła w wideo nagraniach pochodzących z monitorowania basenu pływackiego
Background removal in video recordings from swimming pool monitoring
Autorzy:
Reiter, K.
Kowalczuk, Z.
Powiązania:
https://bibliotekanauki.pl/articles/274967.pdf
Data publikacji:
2018
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
monitoring
basen pływacki
przetwarzanie obrazów
usuwanie tła
eliminacja szumów
OpenCV
video surveillance
background subtraction
video processing
noise cancellation
Opis:
Automatyczna obróbka obrazu w czasie rzeczywistym jest kluczowa dla wielu rozwiązań monitoringu wykorzystywanych m.in. w celach bezpieczeństwa. Często jednym z ważniejszych etapów obróbki jest oddzielenie tła od obiektów na pierwszym planie, tak aby wykluczyć wszystkie nieistotne informacje z obrazu. Celem pracy jest podsumowanie doświadczenia zdobytego podczas śledzenia pływaków oraz pokazanie możliwości skutecznego automatycznego nadzoru wideo osób korzystających z basenu. Porównano skuteczność działania dwóch wybranych algorytmów (MOG i KNN) przy użyciu różnych odwzorowań kolorów oraz omówiono zalety i wady analizowanych metod.
Automatic real-time image processing is crucial for many (video surveillance) monitoring solutions used, among others for security purposes. Often one of the most important stages of computer vision processing is separating the background from the objects in the foreground, so as to exclude all irrelevant information from the image. The aim of this work is to summarize the experience gained while tracking swimmers and to show the possibility of effective automatic video surveillance of people using a swimming pool. The effectiveness of two selected algorithms (MOG and KNN) is compared using different color mappings and the advantages and disadvantages of the analyzed methods are discussed.
Źródło:
Pomiary Automatyka Robotyka; 2018, 22, 3; 15-22
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kurs e-learningowy: obróbka materiału wideo w programie Pinnacle Studio oparty na teorii kognitywnej procesu uczenia się
Course E-learning: Video Material Processing Program Pinnacle Studio Based on the Theory of Learning Process Cognitive
Autorzy:
WARCHOŁ, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/455703.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rzeszowski
Tematy:
e-learning
teoria kognitywna
Pinnacle Studio
cognitive theory
Opis:
Skonstruowany kurs e-learningowy oparty na teorii kognitywnego uczenia się stworzony został na potrzeby osób, które chcą nauczyć się tworzenia własnego profesjonalnego materiału filmowego na bazie programu Pinnacle Studio.
Designed e-learning course based on cognitive learning theory was developed for the needs of people who want to learn how to create your own professional footage based on Pinnacle Studio.
Źródło:
Edukacja-Technika-Informatyka; 2015, 6, 4; 169-175
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementacja obliczania map dysparycji w czasie rzeczywistym dla strumienia wizyjnego 3D zrealizowana w układzie FPGA
Real-time FPGA implementation of disparity map calculation for a 3D video stream
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/157765.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
dysparycja
SAD
ZSAD
układy FPGA
3D
systemy stereowizyjne
przetwarzanie obrazów
FPGA devices
disparity
stereovision
real time image processing
Opis:
W artykule opisano system umożliwiający odbieranie i przetwarzanie strumienia wideo w technologii 3D transmitowanego w standardzie HDMI (tryb side by side), co pozwala na współpracę z dostępnymi na rynku kamerami 3D. Zaproponowana architektura umożliwia implementację popularnych metod obliczania map dysparycji: m. in. SAD oraz opartych o transformatę Censusa, realizację sprawdzenia symetryczności mapy oraz filtrację medianową poprawiającą jakość wyników. W pracy omówiono budowę każdego z modułów, użycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania na płycie ewaluacyjnej VC707 z układem Virtex 7.
In the paper a system for acquisition and processing of a 3D video stream is presented. It can work with 3D HDMI cameras available on the market. In Section 2 the basic concepts of stereovision systems are described [1]. In Section 3 three distance metrics, SAD [4], ZSAD and Census [5], used for correspondence matching are discussed. Evaluation of the matching process on the Middlebury dataset [2] is also presented. The best results were obtained for the SAD and ZSAD methods and greyscale images. In Table 1 there are shown three best configurations. Figure 1 illustrates the obtained disparity maps. A description of the hardware implementation is given in Section 4. The block diagram of the system is presented in Figure 2. The proposed solution is able to process images transmitted in side by side mode, to compute two disparity maps (left to right and right to left, method from [4]), to use SAD or ZSAD cost function, to check maps consistency and execute median filtering for final image processing. The described module is highly parameterizable: different cost functions, window sizes and disparity range can be used, image size and median filtering size can be adjusted. FPGA resource utilization is presented in Table 2. A picture of the working system is shown in Figure 3 (1280 x 720 @60 fps, real-time video-stream processing). The proposed module can be used for video surveillance, pedestrian collision avoidance systems or in autonomous vehicles.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 8, 8; 748-750
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stosowanie monitoringu w bibliotece a ochrona danych osobowych pracowników biblioteki
Library monitoring and the protection of personal data of library staff
Autorzy:
Kulikowska, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/541345.pdf
Data publikacji:
2018
Wydawca:
Akademia Wychowania Fizycznego im. Jerzego Kukuczki w Katowicach
Tematy:
monitoring wizyjny
wizerunek
dane osobowe
monitoring w miejscu pracy
przetwarzanie danych
RODO
video monitoring
facial image
personal data
workplace monitoring
processing of personal data
GDPR
Opis:
The introduction of the General Data Protection Regulation (GDPR) has had an impact on the functionality of cultural institutions such as libraries. The libraries use video monitoring, which involves processing of personal data of people using library resources, library employees and other third parties. Due to the implementation of GDPR new provisions have been added to the Polish employment law which, among others, regulate the monitoring in the workplace. The new regulations outlines the circumstances under which monitoring is permissible. The libraries as employers have to adhere to this legislation by informing employees about the use of monitoring in the workplace.
Rozpoczęcie stosowania ogólnego Rozporządzenia o ochronie danych (RODO) wywarło wpływ na funkcjonowanie instytucji kultury takich jak biblioteki. Biblioteki stosują monitoring wizyjny, co wiąże się w szczególności z przetwarzaniem danych osobowych pracowników biblioteki, jak również innych osób trzecich. Konieczność zapewnienia stosowania RODO w polskim porządku prawnym doprowadziła do uregulowania stanu prawnego w zakresie stosowania monitoringu w miejscu pracy poprzez zmianę przepisów prawa pracy. Nowe przepisy nakładają na biblioteki jako pracodawców szereg obowiązków związanych ze stosowaniem monitoringu w miejscu pracy, które wiążą się z koniecznością poinformowania pracowników o stosowaniu monitoringu, w szczególności poprzez wprowadzenie zmian do regulaminu pracy.
Źródło:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy; 2018, 3(53); 62-75
2084-5464
Pojawia się w:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonstrukcja potrącenia pieszego, udokumentowanego na nagraniu wideo, przy wykorzystaniu programu Photorect 2.0
Reconstruction of a video recorded pedestrian accident, using the Photorect 2.0 software
Autorzy:
Winiarska, Weronika
Kędziora, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/26917672.pdf
Data publikacji:
2022
Wydawca:
Wydawnictwo Instytutu Ekspertyz Sądowych
Tematy:
fotogrametria
film video
przetwarzanie obrazu
synchronizacja symulacji
dystorsja
nagrywanie wideo
photogrammetry
video film
image processing
distortion
Opis:
Coraz częściej materiał dowodowy dotyczący wypadku drogowego zawiera filmy z kamer, które stanowią przydatny materiał w pracy biegłego. Analiza zapisanego na nich przebiegu zdarzenia jest najbardziej wiarygodną podstawą odtworzenia wypadku w tym prędkości i działań podejmowanych przez jego uczestników. Efektywne wykorzystanie nagrania wideo do analizy wypadku drogowego wymaga zwykle przeprowadzenia choćby jego wstępnej obróbki, np. wykadrowania i usunięcia niepotrzebnych fragmentów. W celu polepszenia jakości źródłowego materiału wideo w zakresie odwzorowania cech geometrycznych obiektów nagranych na filmie, potrzebne jest dokonanie korekty dystorsji, a następnie ortorektyfikacji. Często niezbędne jest także polepszenie obrazu, poprzez nakładanie na zapis wideo filtrów. Operacje te są możliwe do realizacji z użyciem programu PHOTORECT 2.0, co omówiono w artykule. Przekształcony film wideo, pozbawiony efektu perspektywy, odpowiednio wykadrowany oraz poddany ekstrakcji klatek użyto do przygotowania komputerowej symulacji zdarzenia, zsynchronizowanej z tym filmem.
Increasingly, evidence of a road accident includes video recordings that provide useful material in the work of an expert w itness. The analysis of the recorded course of the event is the most reliable basis for accident reconstruction, including the speed and actions taken by the participants. An effective use of a video recording for a road accident analysis usually requires at least its initial processing, e.g. framing and removing unnecessary parts. In order to improve the quality of the source video material in terms of mapping the geometric features of the objects recorded on the film, it is necessary to correct the distortion, followed by orthorectification. It is also often necessary to improve the image by applying filters to the video recording. These operations are possible with the use of Photorect 2.0, which is discussed in the article. The transformed video, post-processed by means of perspective effect elimination, cropping and frame extraction was used for the preparation of a computer simulation of the event, synchronized with this film.
Źródło:
Paragraf na Drodze; 2022, 3; 71-88
1505-3520
2956-3631
Pojawia się w:
Paragraf na Drodze
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronizacja obrazów pochodzących z różnych źródeł z zastosowaniem układu programowalnego
System for synchronization of video images from different sources
Autorzy:
Krupiński, M.
Sosnowski, T.
Bieszczad, G.
Maruda, H.
Powiązania:
https://bibliotekanauki.pl/articles/155072.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
synchronizacja sygnału wideo
przetwarzanie obrazów
video synchronization
image processing
Opis:
W ciągu ostatnich lat na znaczeniu zyskują systemy do analizy obrazu rejestrowanego w wielu zakresach widmowych. Przetwarzanie obrazów z wielu źródeł wymaga wcześniejszej synchronizacji obrazów w czasie. W artykule przedstawiono metodę synchronizacji strumieni danych obrazowych pochodzących z różnych kamer. Moduł realizujący metodę synchronizacji został opisany w języku VHDL i zaimplementowany w układzie FPGA. Przeprowadzono testy synchronizacji obrazów z kamery wizyjnej i termowizyjnej.
In the recent years the rapid development of systems for automatic or semi-automatic recording and analysis of various processes have been observed. Those systems can be used in such areas as military applications, machine diagnostic systems, security and surveillance systems and many others. They usually comprise several different sensors which operate on various physical principles. It increases the system efficiency because a multi-sensor system is usually better than the set of independent sensors. Thermal and daylight cameras are more and more often integrated in sensor fusion systems. It is mainly because thermal cameras provide the capability to constantly monitor the area (both during day and night) under varying weather conditions. One of the key problems in the processing of images originating from different sources (cameras) is spatial and temporal matching of their images. The cameras capture the images at different moments of time due to different internal clocks, which complicates the simultaneous processing of such image data. The paper presents the solution to this problem by introducing the method for synchronization of real-time recordings captured by different cameras. The appropriate algorithms have been written in the VHDL language and implemented in a programmable integrated circuit. The experimental verification of the presented method has also been performed. The algorithm has been tested on Terasic Board with two cameras, one thermovision camera (Fig. 5), and a video camera.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 905-907
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny system wizyjnego nadzoru do detekcji naruszenia obszarów chronionych
Reconfigurable video surveillance system for detecting intrusion into protected areas
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156595.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
analiza obrazów
układy rekonfigurowane
systemy monitoringu wizyjnego
image processing
image analysis
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy system do detekcji naruszenia obszarów chronionych oparty o analizę obrazu kolorowego o rozdzielczości 640 x 480 zaimplementowany w zasobach rekonfigurowalnych układu FPGA. Składa się on z szeregu modułów: akwizycji obrazu, konwersji z przestrzeni barw RGB do CIE Lab, generacji tła z uwzględnieniem informacji o krawędziach, odejmowania tła, binaryzacji warunkowej, filtru medianowego, dylatacji morfologicznej, indeksacji jednoprzebiegowej, analizy położenia wykrytych obiektów oraz wizualizacji wyników. W pracy omówiono budowę każdego z modułów, zużycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania.
In the paper a hardware implementation of an algorithm for detection of intrusion into protected areas is presented. The system is composed of several functional modules: colour space conversion from RGB to CIE Lab, Sobel gradient calculation, background generation (running average algorithm), moving object segmentation, median filtering, morphological dilation, connected component labeling integrated with analysis of the detected objects (area and bounding box determination) and visualization of the detection results. The most important features of the proposed solution are: use of the CIE Lab colour space which allows improving segmentation results and reducing the noise introduced by shadows; advanced segmentation which is based on integration of luminance, chrominance and edge information and a thresholding scheme using two thresholds; use of a one-pass connected component labeling and analysis algorithm and its FPGA implementation. The use of a high-end Virtex 6 FPGA device allowed obtaining real-time performance in processing a 640 x 480 colour video stream. The proposed system was tested on several sequences. The obtained results show that it detects correctly the intrusion into protected zones. The module could be used in a smart-camera design, where the image processing and analysis is integrated with the imaging sensor and a surveillance system operator receives only information about intrusion detection.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 584-586
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie metod wizyjnych do analizy odkształceń kompensatora pyłoprzewodów
The analysis of video distortion compensator dust ducts with image processing using
Autorzy:
Zator, S.
Gasz, R.
Powiązania:
https://bibliotekanauki.pl/articles/376062.pdf
Data publikacji:
2015
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
pyłoprzewody
pomiary
analiza obrazów
fotogrametria
Opis:
Podczas uruchomienia i rozruchu bloku energetycznego występują znaczne zmiany geometrii zarówno kotła jak i całej infrastruktury z nim połączonej m.in. pyłoprzewodów, w których aby zminimalizować naprężenia w pyłoprzewodach, wywołane przemieszczeniem kotła, montuje się kompensatory. Autorzy wykorzystują do pomiarów przemieszczeń metody wizyjne, w szczególności metodę fotogrametryczną. Dostępne programy komercyjne na podstawie serii zdjęć pozwalają uzyskać dane w postaci „chmury punktów”, a dopiero na ich podstawie możliwe jest stworzenie modelu typu mesh. Obecnie prowadzone są prace nad oprogramowaniem, które pozwalałoby na automatyczną akwizycję i analizę danych. Dla ułatwienia orientacji systemu pomiarowego na badanym obiekcie oraz w jego nieruchomym otoczeniu instalowane są markery z kodem 12-bitowym.
During start-up and commissioning of the power unit there are significant changes in the geometry of both the boiler and the entire infrastructure connected with it, among others, dust ducts in which to minimize stresses in the dust ducts’, due to movement of the boiler, mounted compensators. The authors use methods to measure displacements vision, in particular the photogrammetric method. Commercial programs available on the basis of a series of images allow you to get the data in the form of a "point cloud", and only on this basis it is possible to create a mesh model. Work is being done on software that would allow for the automatic acquisition and data analysis. To facilitate the orientation of the measurement system on the test object and its surroundings are installed fixed markers with 12-bit code.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2015, 84; 201-206
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Platforma przetwarzania rozproszonego bazująca na sieci NoC
Distributed processing platform based on NoC network
Autorzy:
Łuczak, A.
Kurc, M.
Stępniewska, M.
Wegner, K.
Powiązania:
https://bibliotekanauki.pl/articles/154056.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie rozproszone
układy programowalne
FPGA
kompresja obrazu
AVC
VC-1
sieć w układzie
sieć NoC
scattered processing
video compression
Network on Chip (NoC)
NoC network
Opis:
W artykule zaprezentowano oryginalną platformę przetwarzania rozproszonego wykorzystującą sieć NoC (Network-on-Chip) jako infrastrukturę komunikacyjną. Proponowaną platformę zrealizowano wykorzystując układy FPGA jako elementy na których zaprogramowano interesujące projektanta bloki obliczeniowe. Pokazano cechy takiego systemu oraz zalety przetwarzania rozproszonego realizowanego na wielu niezależnych fizycznie układach ASIC czy FPGA.
The paper presents an original dissipated processing platform based on Network on Chip as communicative infrastructure. In the introduction the need for using dissipated processing to increase computational power of video compression systems is shown. Features of the dissipated processing system and advantages of its implementing in many physically independent FPGA or ASIC are shown. Several consecutive logical structures of the proposed system, differing in flexibility and implementation efforts, are given. In the third section a novel version of Network on Chip used as a communicative layer in the proposed platform is described. The hierarchic structure of this network and implemented communication modules are described. The proposed platform was built basing on Field Programmable Gate Array (FPGA) as elements on which computational blocks were programmed. Schematic diagram of the proposed system is shown in Fig. 1. The complete platform composed of nine boards with Field Programmable Gate Array (FPGA) is presented in Fig. 5.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 690-692
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
BADANIE MOŻLIWOŚCI WYKORZYSTANIA ZOBRAZOWAŃ DYNAMICZNYCH (WIDEO) Z NISKIEGO PUŁAPU LOTNICZEGO (BSP) DO OPRACOWAŃ FOTOGRAMETRYCZNYCH
Study of the possibility of using dynamic imagery (video) from a low level (BSP) for photogrammetric studies
Autorzy:
MŁYNARCZYK, ADAM
KRÓLEWICZ, SŁAWOMIR
RUTKOWSKI, PAWEŁ
Powiązania:
https://bibliotekanauki.pl/articles/896375.pdf
Data publikacji:
2019
Wydawca:
Poznańskie Towarzystwo Przyjaciół Nauk
Tematy:
UAV
photogrammetry
Metashape
film processing for photos
digital elevation model
ortophotomap
Opis:
The use of unmanned aerial vehicles is becoming more and more popular for making high-altitude and orthophotomap models. In this process, series of images are taken at specific intervals, usually lasting several seconds. This article demonstrates the ability to make models and orthophotomaps from dynamic images – video recorded from UAV. The best mutual coverage of photographs was indicated (95–96%) and the photogrammetric process for joining images was presented, through the creation of a point cloud to obtain a digital terrain model and the orotfotomap. The data was processed in 150 different variants and the usefulness of this method was demonstrated. Problems and errors that may occur during the processing of recorded image data are also described.
Źródło:
Badania Fizjograficzne Seria A - Geografia Fizyczna; 2019, 10(70); 53-64
2081-6014
Pojawia się w:
Badania Fizjograficzne Seria A - Geografia Fizyczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja i zliczanie pojazdów na podstawie danych wideo
Vehicle classification and counting on the basis of video data
Autorzy:
Czapla, Z.
Powiązania:
https://bibliotekanauki.pl/articles/312559.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
ruch drogowy
dane obrazowe
pojazdy
metody przetwarzania obrazu
klasyfikacja pojazdów
zliczanie pojazdów
pomiary parametrów ruchu drogowego
road traffic
vehicle classification
image data
vehicles
image processing approaches
couting vehicles
measuring traffic parameters
Opis:
Artykuł przedstawia metodę klasyfikacji i zliczania pojazdów na podstawie danych wideo. Wejściowa sekwencja obrazów składa się z ramek pobranych ze strumienia wideo otrzymywanego z kamery umieszczonej nad drogą. Poszczególne obrazy wejściowej sekwencji obrazów są przetwarzane oddzielnie. Definiowane są dwa pola detekcji, początkowe pole detekcji i końcowe pole detekcji. Obrazy wejściowej sekwencji obrazów są konwertowane do reprezentacji punktowej. Obliczana jest suma punktów krawędziowych dla każdego pola detekcji. Na podstawie sum punktów krawędziowych wyznaczane są stany pól detekcji. Analiza stanów pól detekcji umożliwia klasyfikację i zliczanie pojazdów. W artykule zamieszczono wyniki pomiarów.
The paper presents a method of vehicle classification and counting on the basis of video data. The input image sequence consists of consecutive frames taken from the video stream obtained from the camera placed above a road. Individual images from the input image sequence are processed separately. Two detection fields are defined, the initial detection field and the final detection field. Images from the input image sequence are converted into point representation. The sum of the edge points is calculated for each detection field. On the basis of the sums of edge points, states of the detection fields are determined. Analysis of the states of the detection fields allows vehicle classification and counting. Experimental results are provided.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2016, 17, 6; 562-565
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies