Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video image" wg kryterium: Temat


Wyświetlanie 1-42 z 42
Tytuł:
Porównanie przydatności programów „ImageJ ” i ”Carne 2” do szacowania jakości kiełbasy salami metodą komputerowej analizy obrazu ®
Comparison of usefulness of programs „ImageJ” and „Carne 2” application for estimating quality of salami sausages using Video Image Analysis®
Autorzy:
Dasiewicz, K.
Słowiński, M.
Powiązania:
https://bibliotekanauki.pl/articles/228661.pdf
Data publikacji:
2017
Wydawca:
Wyższa Szkoła Menedżerska w Warszawie
Tematy:
komputerowa analiza obrazu
ImageJ
Carne 2
salami
video image analysis
Opis:
Celem pracy przedstawionej w artykule była ocena przydatności dwóch programów komputerowych do szacowania jakości kiełbasy salami metodą komputerowej analizy obrazu. Stosując metody odwoławcze oceniono wyróżniki jakości wybranej handlowej kiełbasy salami, jednocześnie wykorzystując komputerową analizę obrazu określono udział pól białych i czerwonych oraz składowe barwy R, G i B tłuszczu, mięsa i obrazu. Na podstawie wyników stwierdzono, że między wyróżnikami jakości salami oznaczonymi metodami odwoławczymi a danymi pozyskanymi za pomocą komputerowej analizy obrazu występują istotne zależności, co wskazuje na możliwość stosowania tych programów do szacowania jakości tego typu kiełbas. Należy jednak zauważyć, że modele szacowania dla niektórych wyróżników jakości były zróżnicowane w zależności od zastosowanego programu analizującego.
The aim of this article was to evaluate usefulness of two different programs for estimating quality of salami using video image analysis. Quality attributes of salami was determined by using refference methods, simultaneously video image analysis was used to determine share of white and red fields and color components R, G and B for fat, meat and whole image. The results showed that there are significant relationships between quality attributes and obtained data, which indicates usefulness of both programs to estimate quality of this type of sausages. However it should be noted, that estimation models for some of the attributes should be developed separately for each type of program.
Źródło:
Postępy Techniki Przetwórstwa Spożywczego; 2017, 1; 77-81
0867-793X
2719-3691
Pojawia się w:
Postępy Techniki Przetwórstwa Spożywczego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Próba zastosowania lotniczych termowizyjnych obrazów wideo do wykrywania miejsc nielegalnego składowania odpadów zwierzęcych
Attempt of using aerial thermal video images for detecting places of illegal dumping of animal waste
Autorzy:
Kijowski, A.
Mania, W.
Powiązania:
https://bibliotekanauki.pl/articles/132181.pdf
Data publikacji:
2009
Wydawca:
Polskie Towarzystwo Geograficzne
Tematy:
lotnictwo
obraz termowizyjny
odpady zwierzęce
aerial
thermal video image
animal waste
Opis:
Access to the remote sensing data was increasing in Poland since 1989. This procccess had stimulating impact on scientific research in the scope of changes in the environment. Special attention should be given to the thermal imagery methods because of its information potential. Presented paper discusses the possibilities of using information from thermal images for detecting of places of illegal dumping of animal waste in the ground. On the basis of earlier survey and gathered data draft flight plan was created, covering the sorroundings of Śmiłowo (around 30 sq km). Theoretical thesis for the subject was an assumption that all disturbances of the ground and soil structure should give visible representation in both thermal and visible images. Moreover the process of decay of animal tissues should be the source of heat, which can be observed through thermal sensor. Several places of potential dumping of animal waste were selected. For detailed ground verification eight of them were chosen. In these location geological drillings were performed and than analysis of the samples. Thermovision is a method with great potential for the monitoing of the environment, but its effectiveness depends on the access to another sources of geoinformation.
Źródło:
Teledetekcja Środowiska; 2009, 41; 71-77
1644-6380
Pojawia się w:
Teledetekcja Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ procesu mieszania drobnego mięsa wołowego na dokładność szacowania zawartości tłuszczu metodą komputerowej analizy obrazu®
Effect of the mixing process of beef trimmings on the accuracy of estimating the fat content by the video image analysis method®
Autorzy:
Dasiewicz, K.
Cegiełka, A.
Kornatowska, M.
Rola, S.
Powiązania:
https://bibliotekanauki.pl/articles/227856.pdf
Data publikacji:
2017
Wydawca:
Wyższa Szkoła Menedżerska w Warszawie
Tematy:
komputerowa analiza obrazu
mięso drobne
proces mieszania
video image analysis
fat content
beef trimmings
mixing
Opis:
Celem pracy przedstawionej w artykule była ocena wpływu procesu mieszania drobnego mięsa wołowego na precyzję szacowania zawartości tłuszczu metodą komputerowej analizy obrazu. W badanym mięsie przeprowadzono oznaczenia składu chemicznego stosując metodę spektrometrii transmisyjnej w bliskiej podczerwieni. Równocześnie stosując komputerową analizę obrazu określono udział pól białych, czerwonych, nierozpoznanych (przed mieszaniem, po pierwszym i po drugim mieszaniu). Stwierdzono, że wyliczone wysokie współczynniki korelacji pomiędzy zawartością tłuszczu a udziałem pól białych w drobnym mięsie wołowym niezależnie od krotności mieszania wskazują na możliwość szacowania zawartości tłuszczu metodą komputerowej analizy obrazu. Natomiast niewielkie różnice w wyliczonych wartościach współczynników korelacji sugerują możliwość pominięcia procesu mieszania przed szacowaniem zawartości tłuszczu metodą KAO.
The aim of this study was to evaluate the influence of mixing process of beef trimmings on the precision of fat content estimation by video image analysis (VIA) method. Determination of chemical composition of beef using near-infrared spectrometry method was carried out. At the same time using video image analysis the content of white, red, unrecognized spots (before mixing, after the first and second mixing) was determined. It was found that there is a possibility, irrespective of the multiplicity of mixing, to use video image analysis to determine the fat content in beef trimmings, based on the high correlation coefficients between fat content and white spots content. However, slight variations in the calculated correlation coefficients suggest that the mixing process may be omitted prior to VIA fat content estimation.
Źródło:
Postępy Techniki Przetwórstwa Spożywczego; 2017, 2; 32-36
0867-793X
2719-3691
Pojawia się w:
Postępy Techniki Przetwórstwa Spożywczego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Road user protection via intelligent camera surveillance
Autorzy:
Schiereck, B.
Powiązania:
https://bibliotekanauki.pl/articles/393457.pdf
Data publikacji:
2010
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
ruch drogowy
bezpieczeństwo ruchu drogowego
bezpieczeństwo pieszych
przetwarzanie obrazów video
road traffic
road traffic safety
pedestrian safety
video image processing
Opis:
Because of increasing traffic volume and complexity, road safety is now more than ever a hot topic on the government agenda. Traffic managers at all levels are organizing today debates with the following central topic: how can we better protect the road user? One of the solutions to improve pedestrian safety is via Video Image Processing technology. This video detection technology detects faster than any other detection technology. By analyzing the video images in real time, you immediately receive a clear image of potentially dangerous situations. Result: the danger of the incident is substantially reduced and secondary impacts are prevented. Is video detection a cure-all? Just like any other ITS technology, this detection technology must be used correctly. Different applications require different cameras and different camera positions. One must not start implementing video detection technology without a complete understanding of the costs and benefits associated with these systems. If the correct guidelines and parameters are taken into account and implemented correctly, video detection has proven to be very reliable and can offer great solutions to the end user.
Źródło:
Archives of Transport System Telematics; 2010, 3, 3; 52-55
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
3D modeling of architectural objects from video data obtained with the fixed focal length lens geometry
Modelowanie 3D obiektów architektonicznych na podstawie danych wideo pozyskanych z wykorzystaniem obiektywu stało-ogniskowego
Autorzy:
Deliś, P.
Kędzierski, M.
Fryśkowska, A.
Wilińska, M.
Powiązania:
https://bibliotekanauki.pl/articles/972663.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
obraz wideo
orientacja obrazu
pakiet regulacji
modelowanie 3D
video image
image orientation
bundle adjustment
terrestrial laser scanning
3D modeling
Opis:
The article describes the process of creating 3D models of architectural objects on the basis of video images, which had been acquired by a Sony NEX-VG10E fixed focal length video camera. It was assumed, that based on video and Terrestrial Laser Scanning data it is possible to develop 3D models of architectural objects. The acquisition of video data was preceded by the calibration of video camera. The process of creating 3D models from video data involves the following steps: video frames selection for the orientation process, orientation of video frames using points with known coordinates from Terrestrial Laser Scanning (TLS), generating a TIN model using automatic matching methods. The above objects have been measured with an impulse laser scanner, Leica ScanStation 2. Created 3D models of architectural objects were compared with 3D models of the same objects for which the self-calibration bundle adjustment process was performed. In this order a PhotoModeler Software was used. In order to assess the accuracy of the developed 3D models of architectural objects, points with known coordinates from Terrestrial Laser Scanning were used. To assess the accuracy a shortest distance method was used. Analysis of the accuracy showed that 3D models generated from video images differ by about 0.06 ÷ 0.13 m compared to TLS data.
Artykuł zawiera opis procesu opracowania modeli 3D obiektów architektonicznych na podstawie obrazów wideo pozyskanych kamerą wideo Sony NEX-VG10E ze stałoogniskowym obiektywem. Przyjęto założenie, że na podstawie danych wideo i danych z naziemnego skaningu laserowego (NSL) możliwe jest opracowanie modeli 3D obiektów architektonicznych. Pozyskanie danych wideo zostało poprzedzone kalibracją kamery wideo. Model matematyczny kamery był oparty na rzucie perspektywicznym. Proces opracowania modeli 3D na podstawie danych wideo składał się z następujących etapów: wybór klatek wideo do procesu orientacji, orientacja klatek wideo na podstawie współrzędnych odczytanych z chmury punktów NSL, wygenerowanie modelu 3D w strukturze TIN z wykorzystaniem metod automatycznej korelacji obrazów. Opracowane modele 3D zostały porównane z modelami 3D tych samych obiektów, dla których została przeprowadzona samokalibracja metodą wiązek. W celu oceny dokładności opracowanych modeli 3D obiektów architektonicznych wykorzystano punkty naziemnego skaningu laserowego. Do oceny dokładności wykorzystano metodę najkrótszej odległości. Analiza dokładności wykazała, że dokładność modeli 3D generowanych na podstawie danych wideo wynosi około 0.06 ÷ 0.13m względem danych NSL.
Źródło:
Geodesy and Cartography; 2013, 62, 2; 123-138
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie obrazu wideo do wyznaczania położenia przemieszczającego się obiektu
Utilization of cameras image for moving vehicle localization
Autorzy:
Typiak, A.
Powiązania:
https://bibliotekanauki.pl/articles/210289.pdf
Data publikacji:
2010
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
maszyny robocze
zdalne sterowanie
wyznaczanie położenia
obrazy wideo
engineering machines
remote control
localization
video image
laser telemeter
Opis:
Wyznaczanie trasy na podstawie analizy obrazów wizyjnych umożliwi budowę układu sterowania nadążnego dla Bezzałogowych Pojazdów Lądowych. Warunkiem koniecznym dla opracowania takiego układu jest opracowanie metody kalibracji kamer. Na podstawie analizy literatury i badań własnych przyjęto metodę kalibracji z wykorzystaniem wzorca przestrzennego. Przeprowadzone na stanowisku pomiary umożliwiły wyznaczenie zewnętrznych i wewnętrznych parametrów systemu wizyjnego bez demontowania układu wizyjnego. W drugiej części artykułu opisano metodę wyznaczania odległości do obiektu o znanych wymiarach na podstawie analizy obrazu wideo przy określonym położeniu i orientacji kamery. Badania terenowe wykazały, że dla kamery o rozdzielczości 3072 × 2304 błąd względny wyznaczania odległości na dystansie od 0,5 do 45 m nie przekraczał 2%. W dalszych pracach rozwojowych zakłada się uzyskanie z kamer obrazu przestrzennego. Umożliwi to urzeczywistnienie widoku obserwowanych obiektów i precyzyjniejsze określenie ich położenia. Budowa bezzałogowych pojazdów transportowych wymaga podjęcia i realizacji szerokiego spektrum prac badawczych. Jednym z problemów jest opracowanie systemu sterowania w oparciu o wyznaczanie położenia i odwzorowanie trasy wytypowanego obiektu. W referacie przedstawiono wyniki badań nad zastosowaniem kamery wideo do wyznaczania położenia obiektów w otoczeniu pojazdu bezzałogowego.
The ability to set up a path on the basis of images acquired from onboard cameras will allow construction of steering systems for the Unmanned Ground Vehicles. The necessity in this case is to develop effective methods for camera calibration. Basing on the literature analysis and on own research, a method using a three-dimensional pattern was chosen. Tests carried out in the laboratory conditions proven the ability to calculate external and internal parameters of the system without the need to disassemble the entire vision system, while using this solution. Second part of the article focuses on a method to designate the distance of an object with known dimensions (length, height, etc.), based on the video footage from a camera which position and orientation is also known. Field test shown that it is possible to achieve less than 2% error while using a camera resolutions of 3072 × 2304 on a distance from 0.5 to 45 m with this solution. Further research is concentrated on acquiring a stereo-image which will grant the operator a better visualization of the surrounding and will allow more accurate calculations for the steering system. Building unmanned transport vehicles requires a lot of research to be carried out in different areas. One of them is creating a steering system based on position localization and path visualization of a specified object. The article shows research results from a video camera for calculating the position of objects in the vicinity of an Unmanned Ground Vehicle.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2010, 59, 1; 225-238
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonstrukcja scen termalnych w autorskim programie Vision Plus 3D
Reconstruction of thermal scenes in the authors’ software, Vision Plus 3D
Autorzy:
Sawicki, P.
Zwolenik, S.
Grabowski, S.
Powiązania:
https://bibliotekanauki.pl/articles/129779.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
scena 3D
metoda DLT
rekonstrukcja 3D
emisyjność kierunkowa
video image
thermal image
scene 3D
DLT method
3D reconstruction
directional emissivity
Opis:
Praca przedstawia algorytm rekonstrukcji 3D scen termalnych w celu korekcji emisyjności kierunkowej, który został zaimplementowany w autorskim programie „Vision Plus 3D”. Wyznaczenie orientacji cyfrowych obrazów wizyjnych i termalnych oraz położenia rejestrowanego obiektu w przestrzeni 3D realizuje zastosowana w programie metoda bezpośredniej transformacji liniowej DLT (Direct Linear Transformation). Opracowany program „Vision Plus 3D” obsługuje różne formaty rastrowe. Zapis i import danych pomiarowych oraz narzędzi jest wykonywany w plikach w formacie XML. Interaktywny, równoczesny pomiar na obrazach cyfrowych punktów i zdefiniowanych obiektów geometrycznych wspomagany jest dodatkowymi funkcjami obsługi oraz algorytmami automatyzującymi pomiar. Aplikacja jest funkcjonalnie powiązana z platformą bazowego cyfrowego sytemu wideo-termalnego „Vision Plus”, zewnętrzną biblioteką „Vision” oraz dodatkowym modułem „Vision Plus Thermal Analyst”. „Vision Plus 3D” jest obiektową, 32-bitową aplikacją Windows, oprogramowaną w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio. Opracowany program tworzy nowe możliwości analizy, pomiaru oraz zaawansowanego przetwarzania cyfrowych obrazów wizyjnych i termalnych. W pracy przedstawiono eksperyment rekonstrukcji 3D sceny termalnej dla powierzchni nachylonej za pomocą programu „Vision Plus 3D”. Na podstawie otrzymanych danych obliczony został kąt między wektorem normalnym do zdefiniowanej płaszczyzny obiektu oraz osią optyczną kamery termalnej. Wyznaczenie średniej temperatury radiacyjnej oraz korekcję temperatury metodą korekcji emisyjności kierunkowej w zdefiniowanym obszarze termogramu przeprowadzono w aplikacji „Vision Plus Thermal Analyst”.
The paper presents an algorithm for 3D reconstruction of thermal scenes for the purposes of directional emissivity correction, which was implemented in the authors’ software „Vision Plus 3D”. Determination of the orientation of images (visual and thermal) and the position of a recorded object in 3D space is enabled by the Direct Linear Transformation method used in the application. „Vision Plus 3D” software works with various raster formats. Saving and importing of measurement data as well as of tools is executed using XML format files. Interactive, simultaneous measurement of points and defined geometrical objects from digital images is supported by additional functions and algorithms, which automate the measurement. The application is functionally related to the „Vision Plus” digital video-thermal basic system platform, the „Vision” external library and the „Vision Plus Thermal Analyst” additional module. „Vision Plus 3D” is a 32-bit Windows object application, programmed in Object Pascal language using the Borland Developer Studio package. This software opens new possibilities for analysis, measurement and advanced processing of visual and thermal digital images. The paper presents experimental reconstruction of the 3D thermal scene of a sloping surface using the „Vision Plus 3D” application. The angle between a normal vector of a defined plane and the optical axis of the thermal camera is calculated based on the data received. The calculation of average radiant temperature as well as a temperature correction in the defined area of the thermal image using the directional emissivity correction method were both carried out in „Vision Plus Thermal Analyst” module.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2009, 20; 377-386
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inland waterway vessels tracking using closed circuit television
Autorzy:
Kujawski, A.
Powiązania:
https://bibliotekanauki.pl/articles/135539.pdf
Data publikacji:
2015
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
inland shipping
image and video processing
tracking objects
CCTV surveillance
vessel positioning
safety of inland navigation
Opis:
The aim of this paper is to use closed-circuit television (CCTV) to search and track moving objects in inland waterways. The area of the analysis is the part of the West Odra river between the Długi and Kolejowy bridges in Szczecin. The points of interest are chosen intentionally due to the risk of vessel collision with bridges. The results of the research into the implemented methods of tracking objects could be utilized in the future to extend inland navigation services, which could be used by the captains of the ships and River Information Services operational personnel as well.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2015, 44 (116); 135-140
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real time 8K video quality assessment using FPGA
Autorzy:
Wielgosz, M.
Pietroń, M.
Karwatowski, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/114403.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
video quality
video metrics
image processing
FPGA
Opis:
This paper presents a hardware architecture of the video quality assessment module. Two different metrics were implemented on FPGA using modern High Level Language for digital system design – Impulse C. FPGA resources consumption of the presented module is low, which enables module-level parallelization. Tests conducted for four modules working concurrently show that 1.96 GB/s throughput can be achieved. The module is capable of processing 8K video stream in a real-time manner i.e. 30 frames/second. Such high performance of the presented solution was achieved due to the series of architectural optimization introduced to the module, such as reduction of data precision and reuse of various module components.
Źródło:
Measurement Automation Monitoring; 2016, 62, 6; 187-189
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Możliwości interpretacyjne zobrazowań pozyskanych przy wykorzystaniu techniki video w zakresie UV
Autorzy:
Dębski, W.
Walczykowski, P.
Kamiński, P.
Powiązania:
https://bibliotekanauki.pl/articles/130523.pdf
Data publikacji:
2002
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
UV
technika video
rozpoznawanie obrazów
video technique
image recognition
Opis:
Zobrazowania pozyskane w zakresie UV niosą ze sobą bardzo dużą ilość informacji, niemożliwej, ze wzglądu na fizyczne właściwości promieniowania, do rejestracji z pułapu satelitarnego. Do rejestracji tych zobrazowań autorzy wykorzystali techniką video. Pomimo, że nie są to zobrazowania kartometryczne, ich niewątpliwe walory interpretacyjne czynią je bardzo przydatnymi w procesie rozpoznawania obrazów.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2002, 12; 107-114
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA implementation of procedures for video quality assessment
Autorzy:
Wielgosz, M.
Karwatowski, M.
Pietron, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305403.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
video quality
video metrics
image processing
FPGA
Impulse C
Opis:
The video resolutions used in a variety of media are constantly rising. While manufacturers struggle to perfect their screens, it is also important to ensure the high quality of the displayed image. Overall quality can be measured using a Mean Opinion Score (MOS). Video quality can be affected by miscellaneous artifacts appearing at every stage of video creation and transmission. In this paper, we present a solution to calculate four distinct video quality metrics that can be applied to a real-time video quality assessment system. Our assessment module is capable of processing 8K resolution in real time set at a level of 30 frames per second. The throughput of 2.19 GB/s surpasses the performance of pure software solutions. The module was created using a high-level language to concentrate on architectural optimization.
Źródło:
Computer Science; 2018, 19 (3); 279-305
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stereoscopic 3DTV Video Quality Metric: the Compressed Average Image Intensity
Autorzy:
Wilczewski, G.
Powiązania:
https://bibliotekanauki.pl/articles/309475.pdf
Data publikacji:
2018
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
3D image analysis
image impairments
stereoscopy
video quality
Opis:
This paper presents a newly designed stereoscopic video quality metric. Overall insights towards the creation of mechanisms utilized within the genuine metric are presented herein. Delivery of the core information and motivation behind the features implemented, as well as functionality of the Compressed Average Image Intensity (CAII) quality metric are of utmost importance. The mechanisms created might be characterized as an objective, reliable and versatile quality evaluation tool for advanced analysis of the content delivery chain within stereoscopic video services.
Źródło:
Journal of Telecommunications and Information Technology; 2018, 2; 8-14
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic adaptation of Human-Computer Interaction system
Automatyczna adaptacja interfejsu człowiek-komputer
Autorzy:
Przybyło, J.
Powiązania:
https://bibliotekanauki.pl/articles/274635.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
interakcja człowiek-komputer
przetwarzanie i analiza obrazów
adaptacja
kalibracja
human-computer interaction
image and video processing
adaptation and calibration
Opis:
Human-computer interaction (HCI) is an emerging field of science aimed at providing natural ways for humans to use computers. Among many systems are vision-based approaches, utilizing face tracking and facial action recognition. Many sources of variation in facial appearance exists, which make recognition a challenging task. Often, uncomfortable manual calibration of the system is required. Therefore, in our opinion the key issue is the automatic adaptation of the machine to human rather than vice versa.
Interakcja człowiek-komputer (ang. human-computer interaction - HCI) to nowa dziedzina nauki ukierunkowana na rozwój naturalnych i intuicyjnych sposobów korzystania z komputerów i rządzeń. Wśród wielu stosowanych rozwiązań znajdują się systemy potrafiące śledzić cechy i rozpoznawać mimikę twarzy, wykorzystujące algorytmy przetwarzania i analizy obrazów. Rozpoznawanie mimiki jest trudnym zadaniem ze względu na istnienie wielu źródeł zmienności w wyglądzie twarzy. Bardzo często skutkuje to koniecznością ręcznej i niewygodnej kalibracji systemu. Dlatego, też zdaniem autora, kluczową sprawą jest takie konstruowanie algorytmów, aby system adaptował się automatycznie do człowieka, a nie odwrotnie.
Źródło:
Pomiary Automatyka Robotyka; 2011, 15, 12; 86-88
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie obrazów cyfrowych w systemie video-termalnym VISION PLUS
Autorzy:
Sawicki, P.
Powiązania:
https://bibliotekanauki.pl/articles/130680.pdf
Data publikacji:
1999
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
system video-termalny
VISION PLUS
obraz termalny
obraz wizyjny
fotogrametria
video-thermal system
thermal image
vision image
photogrametry
Opis:
Multisensoralny, hybrydowy system video-termalny VISION PLUS wraz z programem fotogrametrycznym POPOS umożliwia rejestrację oraz przetwarzanie cyfrowych obrazów wizyjnych i termalnych. Na ich podstawie możliwe jest pozyskanie i opracowanie informacji metrologicznych o obiektach rejestrowanych w bliskim zasięgu. Jego podstawowym przeznaczeniem jest przede wszystkim rejestracja procesów dynamicznych, szybkozmiennych. W pracy przedstawiono przyjęte rozwiązania i funkcje użytkowe systemu. Na przykładzie opracowania metrologicznego omówiono warunki rejestracji cyfrowych obrazów wizyjnych i termalnych. Opisano i analizowano zakres, sposób i wyniki opracowania fotogrametrycznego i termograficznego. Określony też został typowy schemat pomiarów i badań metrologicznych w bliskim zasięgu z zastosowaniem omawianego cyfrowego systemu videotermalnego.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 1999, 9; 155-165
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic estimation of the brightness changes for background suppression methods used for video tracking of vehicles
Autorzy:
Okarma, K.
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/393475.pdf
Data publikacji:
2012
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
analiza obrazów
video śledzenie
automatyczna estymacja
image analysis
video tracking
automatic estimation
Opis:
One of the typical distortions in the background estimation methods is a change of lighting conditions, since each such change influences on the luminance of pixels in the captured images, which may be classified as the background. The global changes are relatively easy to compensate, but in practical applications the character of most of such changes is rather local. These changes may be caused e.g. by clouds, moving large objects, street lamps etc. Nevertheless, their influence on the results of the background estimation should be reduced therefore a local adaptive correction algorithm, applied as the pre-processing step, is proposed in the paper, assuming known geometrical configuration of the observed road
Źródło:
Archives of Transport System Telematics; 2012, 5, 4; 17-20
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of the spatio-temporal vector median filtering algorithms using colour video quality metrics
Autorzy:
Okarma, K.
Powiązania:
https://bibliotekanauki.pl/articles/97449.pdf
Data publikacji:
2011
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
Vector Median Filter
VMF
video quality
image quality
Opis:
In this paper the application of the combined video quality assessment method as well as some other recently developed objective metrics for the analysis of the results of the nonlinear colour video filtering is discussed. The spatio-temporal versions of colour image filtering methods, including the Vector Median Filter, can be obtained using frame-by-frame approach but the proper choice of the spatio-temporal kernel weights and the colour space used during filtration should be based on a reliable video quality assessment. In some earlier papers the combined video quality assessment method has been proposed, which has a highly linear correlation with subjective quality scores and can be extended into the colour version. As the illustration of the problem, some results of the colour video denoising using the spatio-temporal VMF, also in a weighted version, together with the quality assessment results have been presented in the paper.
Źródło:
Computer Applications in Electrical Engineering; 2011, 9; 200-212
1508-4248
Pojawia się w:
Computer Applications in Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of a Raspberry PI single-board computer for image acquisition and transmission
Autorzy:
Sieczkowski, K.
Sondej, T.
Powiązania:
https://bibliotekanauki.pl/articles/114628.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Raspberry Pi
single-board computer
video monitoring
image processing
Opis:
The article presents an analysis of the use of a single-board computer Raspberry PI for video acquisition and transmission. The article focuses on requirements necessary for the recorded image to be used for face analysis to identify facial expressions and microexpressions. The quality of the recorded video frames was verified for different resolutions and fps using PSNR (Peak Signal-to-Noise Ratio). Tests of CPU cores usage were also carried out for simultaneous recording and transmission of different types of video streams. The results show that the size of the effective image area depends on the resolution of recorded video stream. Increasing the frame rate for the given video resolution has a significant impact on the value of PSNR. And the resultant CPU usage, for the available resolutions and frame rates of the video recorded, in most cases does not exceed 15% of the total computing power of the CPU.
Źródło:
Measurement Automation Monitoring; 2017, 63, 5; 180-182
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorytm kompresji obrazów dla bezprzewodowej kapsuły endoskopowej
Image compression algorithm for wireless endoscopy capsule
Autorzy:
Turcza, P.
Duplaga, M.
Powiązania:
https://bibliotekanauki.pl/articles/155607.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompresja obrazów
kapsuła endoskopowa
image compression
video endoscopy capsule
Opis:
Artykuł prezentuje algorytm kompresji obrazów planowany do zastosowania w bezprzewodowej kapsule ednoskopewj. Algorytm przeznaczony do tego typu zastosowań oprócz możliwie wysokiego stopnia kompresji musi cechować się bardzo niskim poborem mocy. To wymaganie wyklucza użycie standardowych metod. Proponowany algorytm oparty jest o całkowitoliczbowe wersje transformacji DCT i transformacji falkowej oraz koder Huffmana. W porównaniu do algorytmów konkurencyjnych proponowany algorytm oferuje znacznie większy stopień kompresji przy nieco większej (głównie pamięciowej) złożoności.
The paper describes image compression algorithm suitable for wireless capsule endoscopy. Due to power limitation and small size conditions traditional image compression techniques are not appropriate and dedicated ones are neccessary. The proposed algorithm is based on integer version of discrete cosine transform (DCT) and wavelet transform (DWT) with Huffman entropy coder. Thanks to integer DCT/wavelet application it has low complexity and power consumption. Additionally, the algorithm can provide lossless compression as well as high-quality lossy compression.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 9 bis, 9 bis; 165-168
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronizacja obrazów pochodzących z różnych źródeł z zastosowaniem układu programowalnego
System for synchronization of video images from different sources
Autorzy:
Krupiński, M.
Sosnowski, T.
Bieszczad, G.
Maruda, H.
Powiązania:
https://bibliotekanauki.pl/articles/155072.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
synchronizacja sygnału wideo
przetwarzanie obrazów
video synchronization
image processing
Opis:
W ciągu ostatnich lat na znaczeniu zyskują systemy do analizy obrazu rejestrowanego w wielu zakresach widmowych. Przetwarzanie obrazów z wielu źródeł wymaga wcześniejszej synchronizacji obrazów w czasie. W artykule przedstawiono metodę synchronizacji strumieni danych obrazowych pochodzących z różnych kamer. Moduł realizujący metodę synchronizacji został opisany w języku VHDL i zaimplementowany w układzie FPGA. Przeprowadzono testy synchronizacji obrazów z kamery wizyjnej i termowizyjnej.
In the recent years the rapid development of systems for automatic or semi-automatic recording and analysis of various processes have been observed. Those systems can be used in such areas as military applications, machine diagnostic systems, security and surveillance systems and many others. They usually comprise several different sensors which operate on various physical principles. It increases the system efficiency because a multi-sensor system is usually better than the set of independent sensors. Thermal and daylight cameras are more and more often integrated in sensor fusion systems. It is mainly because thermal cameras provide the capability to constantly monitor the area (both during day and night) under varying weather conditions. One of the key problems in the processing of images originating from different sources (cameras) is spatial and temporal matching of their images. The cameras capture the images at different moments of time due to different internal clocks, which complicates the simultaneous processing of such image data. The paper presents the solution to this problem by introducing the method for synchronization of real-time recordings captured by different cameras. The appropriate algorithms have been written in the VHDL language and implemented in a programmable integrated circuit. The experimental verification of the presented method has also been performed. The algorithm has been tested on Terasic Board with two cameras, one thermovision camera (Fig. 5), and a video camera.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 905-907
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On-water video surveillance: data management for a ship identification system
Autorzy:
Popik, Adrian
Zaniewicz, Grzegorz
Wawrzyniak, Natalia
Powiązania:
https://bibliotekanauki.pl/articles/134912.pdf
Data publikacji:
2019
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
video surveillance
cameras
image
processing
ship identification
River Information Services
Opis:
Video surveillance on both marine and inland waters still only plays a mainly auxiliary role in vessel traffic observation and management. The newest technical achievements in visual systems allow camera images to be used in more sophisticated tasks, such as automatic vessel recognition and identification in observed areas. With the use of deep learning algorithms and other artificial intelligence methods, such as rough sets and fuzzy sets, new functions can be designed and implemented in monitoring systems. In this paper the challenges that were encountered and the technology that has been developed in managing video streams are presented as well as the images needed for tests and proper operation of the designed Ship Recognition and Identification System (SHREC). The current technologies, typical setups and capabilities of cameras, with regard to existing on-water video monitoring systems, are also presented. The aspects of collecting the test data in the Szczecin Water Junction area are also described. The main part of the article focuses on presenting the video data pre-processing, storing and managing procedures that have been developed for the purposes of the SHREC system.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2019, 60 (132); 56-63
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reliability of Pulse Measurements in Videoplethysmography
Autorzy:
Rumiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/221360.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
videoplethysmography
vital signs measurements
video processing
image processing
smart glasses
Opis:
Reliable, remote pulse rate measurement is potentially very important for medical diagnostics and screening. In this paper the Videoplethysmography was analyzed especially to verify the possible use of signals obtained for the YUV color model in order to estimate the pulse rate, to examine what is the best pulse estimation method for short video sequences and finally, to analyze how potential PPG-signals can be distinguished from other (e.g. background) signals. The presented methods were verified using data collected from 60 volunteers.
Źródło:
Metrology and Measurement Systems; 2016, 23, 3; 359-371
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza porównawcza metod kompresji obrazów cyfrowych
Comparative analysis of methods of compression of digital images
Autorzy:
Moskalczuk, P.
Jóźwiak, P.
Kwiatkowski, Ł.
Powiązania:
https://bibliotekanauki.pl/articles/324188.pdf
Data publikacji:
2012
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
obraz cyfrowy
kompresja obrazu
WebM
MPEG-1
plik wideo
digital image
image compression
video file
Opis:
W artykule przedstawiono metody kompresji obrazów cyfrowych, wykazując różnice technologiczne w różnych formatach. Wykonano analizę kompresji pliku wideo do różnych formatów wskazując zalety najnowszych technologii w porównaniu ze starszymi rozwiązaniami.
In the paper a compression method of digital images showing the technology gap in different formats has been presented. An analysis of compressed video to various formats showing the adventages of the latest technologies in comparison with the older technologies has been presented, too.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2012, 61; 255-266
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Lokalizacja obiektów na obrazach cyfrowych z wideorejestratora ruchu drogowego
Autorzy:
Czapla, Z.
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/196398.pdf
Data publikacji:
2011
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
ruch drogowy
wideorejestrator
obraz cyfrowy
konwersja obrazów
road traffic
video recorder
digital image
image converting
Opis:
Artykuł przedstawia zagadnienia analizy scen ruchu drogowego. Jako metodę przetwarzania wstępnego w detekcji cech punktowych obiektów wykorzystano konwersję obrazu do dwuwarstwowego modelu danych. Do dwuwarstwowego modelu danych obrazu zastosowano detektory cech punktowych FAST i SUSAN. Do lokalizacji obiektów nadaje się – i jest prosta obliczeniowo – detekcja cech punktowych obiektów (przy zastosowaniu dwuwarstwowego modelu danych).
The paper presents issues of road traffic scene analysis. Image conversion into the two-layer data model is used as a preliminary processing method in detection of object feature points. The feature points detectors FAST and SUSAN are applied to two-layer data model of an image. Detection of object feature points using the two-layer data model is suitable for the object location and it is computationally simple.
Źródło:
Zeszyty Naukowe. Transport / Politechnika Śląska; 2011, 71; 27-34
0209-3324
2450-1549
Pojawia się w:
Zeszyty Naukowe. Transport / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonstrukcja potrącenia pieszego, udokumentowanego na nagraniu wideo, przy wykorzystaniu programu Photorect 2.0
Reconstruction of a video recorded pedestrian accident, using the Photorect 2.0 software
Autorzy:
Winiarska, Weronika
Kędziora, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/26917672.pdf
Data publikacji:
2022
Wydawca:
Wydawnictwo Instytutu Ekspertyz Sądowych
Tematy:
fotogrametria
film video
przetwarzanie obrazu
synchronizacja symulacji
dystorsja
nagrywanie wideo
photogrammetry
video film
image processing
distortion
Opis:
Coraz częściej materiał dowodowy dotyczący wypadku drogowego zawiera filmy z kamer, które stanowią przydatny materiał w pracy biegłego. Analiza zapisanego na nich przebiegu zdarzenia jest najbardziej wiarygodną podstawą odtworzenia wypadku w tym prędkości i działań podejmowanych przez jego uczestników. Efektywne wykorzystanie nagrania wideo do analizy wypadku drogowego wymaga zwykle przeprowadzenia choćby jego wstępnej obróbki, np. wykadrowania i usunięcia niepotrzebnych fragmentów. W celu polepszenia jakości źródłowego materiału wideo w zakresie odwzorowania cech geometrycznych obiektów nagranych na filmie, potrzebne jest dokonanie korekty dystorsji, a następnie ortorektyfikacji. Często niezbędne jest także polepszenie obrazu, poprzez nakładanie na zapis wideo filtrów. Operacje te są możliwe do realizacji z użyciem programu PHOTORECT 2.0, co omówiono w artykule. Przekształcony film wideo, pozbawiony efektu perspektywy, odpowiednio wykadrowany oraz poddany ekstrakcji klatek użyto do przygotowania komputerowej symulacji zdarzenia, zsynchronizowanej z tym filmem.
Increasingly, evidence of a road accident includes video recordings that provide useful material in the work of an expert w itness. The analysis of the recorded course of the event is the most reliable basis for accident reconstruction, including the speed and actions taken by the participants. An effective use of a video recording for a road accident analysis usually requires at least its initial processing, e.g. framing and removing unnecessary parts. In order to improve the quality of the source video material in terms of mapping the geometric features of the objects recorded on the film, it is necessary to correct the distortion, followed by orthorectification. It is also often necessary to improve the image by applying filters to the video recording. These operations are possible with the use of Photorect 2.0, which is discussed in the article. The transformed video, post-processed by means of perspective effect elimination, cropping and frame extraction was used for the preparation of a computer simulation of the event, synchronized with this film.
Źródło:
Paragraf na Drodze; 2022, 3; 71-88
1505-3520
2956-3631
Pojawia się w:
Paragraf na Drodze
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny system wizyjnego nadzoru do detekcji naruszenia obszarów chronionych
Reconfigurable video surveillance system for detecting intrusion into protected areas
Autorzy:
Kryjak, T.
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156595.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
analiza obrazów
układy rekonfigurowane
systemy monitoringu wizyjnego
image processing
image analysis
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy system do detekcji naruszenia obszarów chronionych oparty o analizę obrazu kolorowego o rozdzielczości 640 x 480 zaimplementowany w zasobach rekonfigurowalnych układu FPGA. Składa się on z szeregu modułów: akwizycji obrazu, konwersji z przestrzeni barw RGB do CIE Lab, generacji tła z uwzględnieniem informacji o krawędziach, odejmowania tła, binaryzacji warunkowej, filtru medianowego, dylatacji morfologicznej, indeksacji jednoprzebiegowej, analizy położenia wykrytych obiektów oraz wizualizacji wyników. W pracy omówiono budowę każdego z modułów, zużycie zasobów FPGA, zużycie mocy, a także przykładowe rezultaty działania.
In the paper a hardware implementation of an algorithm for detection of intrusion into protected areas is presented. The system is composed of several functional modules: colour space conversion from RGB to CIE Lab, Sobel gradient calculation, background generation (running average algorithm), moving object segmentation, median filtering, morphological dilation, connected component labeling integrated with analysis of the detected objects (area and bounding box determination) and visualization of the detection results. The most important features of the proposed solution are: use of the CIE Lab colour space which allows improving segmentation results and reducing the noise introduced by shadows; advanced segmentation which is based on integration of luminance, chrominance and edge information and a thresholding scheme using two thresholds; use of a one-pass connected component labeling and analysis algorithm and its FPGA implementation. The use of a high-end Virtex 6 FPGA device allowed obtaining real-time performance in processing a 640 x 480 colour video stream. The proposed system was tested on several sequences. The obtained results show that it detects correctly the intrusion into protected zones. The module could be used in a smart-camera design, where the image processing and analysis is integrated with the imaging sensor and a surveillance system operator receives only information about intrusion detection.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 584-586
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rekonfigurowalny moduł akwizycji i transmisji obrazów dla systemów monitoringu wizyjnego
A reconfigurable image acquisition and transmission module for video surveillance systems
Autorzy:
Komorkiewicz, M.
Gorgoń, M.
Powiązania:
https://bibliotekanauki.pl/articles/156412.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
transmisja obrazów
zmiana rozdzielczości
układy rekonfigurowane
systemy monitoringu wizyjnego
image transmission
image resizing
reconfigurable devices
video surveillance systems
Opis:
W artykule opisano działający w czasie rzeczywistym sprzętowy moduł do odbioru strumienia wizyjnego z kamery HDMI, zmiany rozdzielczości obrazu oraz dalszej jego transmisji przy wykorzystaniu sieci Ethernet (1 Gbps). Aby możliwe było ograniczenie kosztów oraz wykorzystanie zaprezentowanego modułu w urządzeniach wbudowanych, na żadnym etapie przetwarzania nie jest wykorzystywane buforowanie danych w zewnętrznej pamięci. W ramach prac zostało przebadane, jak parametry transmisji (rozmiar obrazu, maksymalny rozmiar pakietów) wpływają na jej przepustowość. Omówiono budowę każdego z modułów, zużycie zasobów FPGA całego systemu, rozpraszanie mocy, a także przykładowe rezultaty działania na płycie ewaluacyjnej SP605 firmy Xilinx.
Automated video surveillance systems are an important means of providing security. In projects such as SIMPOZ, INDECT or VIRAT the main tendency was to replace the human operator in a tedious task of video analysis. Because computer vision algorithms demand a lot of computational power, reconfigurable devices are often used for this type of applications. In the paper a module for video acquisition and transmission for a reconfigurable device is presented. It is the basic component of a reconfigurable based video surveillance system. An FMC card is used to allow FPGA to receive a video from the HDMI source (other FMC cards can be used if needed). In the next step, the image is streamed to module which scale it down. This operation is necessary to meet the bandwidth of transmission media and other modules processing capabilities. A hardware module provides Ethernet communication with 1 Gbps speed. Packet forming, checksum computation, ARP requests, IP and UDP protocols are realized in hardware using several finite state machines. The images or data obtained from analysis are transferred in UDP packets. The proposed system can process both grayscale and color images. The idea was verified using the Xilinx SP605 board with a low power Spartan 6 device.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 8, 8; 821-823
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FMC Video Acquisition Module with Camera Link Interface
Autorzy:
Mielczarek, A.
Makowski, D.
Jabłoński, G.
Perek, P.
Orlikowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/398003.pdf
Data publikacji:
2012
Wydawca:
Politechnika Łódzka. Wydział Mikroelektroniki i Informatyki
Tematy:
frame grabber
kamera szybka
Camera Link
akwizycja obrazów
akwizycja video
moduł FMC
fast camera
image acquisition
video acquisition
FMC module
Opis:
The paper describes an universal module for video stream acquisition from fast cameras with Camera Link interface. The first version of the referenced standard defines three configurations: Base, Medium and Full. The developed module supports all of them achieving transmission speeds up to 5.44 Gb/s for raw image data in the Full configuration. The module is designed according to FPGA Mezzanine Card (FMC) standard and can cooperate with carrier boards containing High-Pin Count (HPC) version of the connector. The module was tested with the TEWS TAMC-641 module.
Źródło:
International Journal of Microelectronics and Computer Science; 2012, 3, 3; 95-98
2080-8755
2353-9607
Pojawia się w:
International Journal of Microelectronics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance of video detectors working with lossy compressed video streams
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/393365.pdf
Data publikacji:
2012
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
czujnik wideo
sekwencja obrazów
stratna kompresja obrazów
parametry ruchu drogowego
video detector
image sequence
lossy image compression
road traffic parameters
Opis:
Complex traffic control systems are equipped with a range of cameras for traffic surveillance, road traffic measurements. On many sites the different cameras cover the same observation areas but provide different quality streams to the system, usually compressed for surveillance and raw for vehicle detection. Elimination of duplicate cameras especially high quality devices is desired for enhancing the performance of systems. Vehicle detectors based on image processing are sensitive to the quality of input video streams. The paper presents results from tests of using lossy data compression for delivering video streams to vehicle detectors for traffic control. The limit of data loss is determined for assuring correct vehicle detection. The recommendations can be used for optimising traffic vision systems.
Źródło:
Archives of Transport System Telematics; 2012, 5, 1; 22-28
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Segmentation of digital images from a road traffic videorecorder
Segmentacja obrazów cyfrowych z wideorejestracją ruchu drogowego
Autorzy:
Czapla, Z.
Powiązania:
https://bibliotekanauki.pl/articles/197749.pdf
Data publikacji:
2012
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
ruch drogowy
wideorejestracja
segmentacja obrazu cyfrowego
road traffic
video recording
segmentation of digital image
Opis:
The proposed segmentation method uses the two-layer data model of digital images. The two-layer data model consists of a different value layer and a base value layer. An original image pixel values are obtained by appropriate combining pixel values of both layers. A base pixel value together with corresponding difference pixel values constitute a data cluster. The principle of segmentation is division of an image greyscale into disjoint ranges and assigning of individually base values to the proper ranges. The segmentation process utilizes the base values mainly and therefore proposed technique is computationally attractive.
W proponowanej metodzie segmentacji wykorzystuje się dwuwarstwowy model danych obrazów cyfrowych. Model ten składa się z warstwy wartości różnicowych oraz warstwy wartości bazowych. Pierwotna wartość piksela jest otrzymywana przez odpowiednie łączenie wartości pikseli z obu warstw. Wartość bazowa piksela wraz z odpo-wiadającymi mu wartościami różnicowymi tworzą klaster danych. Zasada segmentacji polega na podziale przedziału poziomów szarości na rozłączne zakresy oraz przyporządkowaniu poszczególnych wartości bazowych do odpowiednich zakresów. W procesie segmentacji wykorzystywane są głównie wartości bazowe i dlatego proponowana technika jest oblicze-niowo atrakcyjna.
Źródło:
Zeszyty Naukowe. Transport / Politechnika Śląska; 2012, 74; 27-36
0209-3324
2450-1549
Pojawia się w:
Zeszyty Naukowe. Transport / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis on the dynamic deformations of the images from digital film sequences
Badania zniekształceń dynamicznych obrazów pochodzących z cyfrowych sekwencji filmowych
Autorzy:
Markowski, T.
Powiązania:
https://bibliotekanauki.pl/articles/145385.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
image sequences
digital video camera
internal geometry
non-metric camera
camera calibration
sekwencje obrazów
kamera cyfrowa
kalibracja kamery
Opis:
Image sequences, in particular digital video sequences, are characterised by the features which result in their high potential as measurement data. However, as early as at the stage of visual assessment of digital film images, originating, in particular, from amateur cameras, occurrence of some deformations may be observed, which may highly influence the results of measurements performed using these images; such deformations differ from deformations occurred in the case of static photographic images. It results both, by the method of image recording, using an electronic shutter and interlaced or progressive scanning, as well as the method of file recording and compression. It is worth to notice the systematic nature of such deformations, which highly depend on mutual motions of a camera and recorded objects. The objective of presented research works was to develop the mathematical description of image deformations, as a function of motion parameters. This would allow for adaptation of the camera calibration process to the demands of sequential imaging, as well as for modification of algorithms of measurements using self-calibration, and, as a result, minimisation of deformations. Another objective was to analyse the influence of deformations, typical for digital film images, on the results of measurements performed using these images, by means of series of experiments, which were based on multiple calibration of static and a moving camera, also with the use of a spatial test field. The first part was made by developing formulas based on some geometric relations, using some simplifications. On the stage of experimental research a certain degree of compatibility of experimental results and theoretical assumptions were confirmed.
Zobrazowania sekwencyjne, a w szczególności sekwencje filmowe, posiadają cechy, dzięki którym mogą mieć duży potencjał pomiarowy. Należą do nich między innymi systematyka i stosunkowo duża częstotliwość obrazowania, skutkujące dużą liczbą obserwacji oraz podobieństwem sąsiednich obrazów (co ma znaczenie przy automatyzacji pomiarów), a ponadto zmniejszony wkład pracy operatora kamery, możliwość pozyskiwania i przetwarzania w czasie rzeczywistym oraz ogromna i nadal zwiększająca się dostępność zobrazowań. Jednak już na etapie oceny wzrokowej cyfrowych zobrazowań filmowych, zwłaszcza pochodzących z kamer określanych powszechnie jako amatorskie, zauważyć można występowanie pewnych zniekształceń, które mogą mieć znaczący wpływ na wyniki pomiarów. Jest to spowodowane zarówno sposobem rejestracji, z wykorzystaniem migawki elektronicznej i przeplotowego lub progresywnego skanowania, jak i metodami zapisu i kompresji plików. Warto zauważyć, iż są to w dużym stopniu deformacje systematyczne, uzależnione od wzajemnego ruchu kamery i badanego obiektu. Celem opisanych w artykule badań była próba opisu, typowych dla cyfrowych zobrazowań filmowych, zniekształceń dynamicznych, w funkcji parametrów ruchu kamery względem obiektu, jak również próba zbadania rozkładu deformacji poprzez wykonane w odpowiedni sposób wielokrotne kalibracje kamery, w celu porównania otrzymanych wartości z rozważaniami teoretycznymi. Pierwsza część została wykonana, poprzez wyprowadzenie w oparciu o relacje geometryczne, wzorów, opisujących deformacje dynamiczne obrazu, w funkcji współrzędnych tłowych, prędkości liniowej lub kątowej, czasu rejestracji pojedynczej linii obrazu oraz odległości obrazowej i odległości kamery od obiektu. Część druga, eksperymentalna, obejmowała z kolei analizy rozkładu zniekształceń dynamicznych dla kilku przykładowych sekwencji, zarejestrowanych w trakcie obrotów kamery wokół poszczególnych osi układu współrzędnych. Analizując wyniki eksperymentów, potwierdzono pewną zgodność występujących rzeczywistych zniekształceń z przewidywaniami, które pojawiły się na etapie rozważań teoretycznych. Niestety nie udało się przeprowadzić konkretnych analiz liczbowych, ponieważ na tym etapie nie opracowano jeszcze metody wyznaczenia czasu rejestracji pojedynczej linii obrazu, co uniemożliwiło oszacowanie wartości teoretycznych deformacji.
Źródło:
Geodesy and Cartography; 2015, 64, 1; 43-64
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Relacja między dyskursem popularnonaukowym w serwisie YouTube a wizerunkiem vlogera na przykładzie prowadzących kanały Historia Bez Cenzury oraz Irytujący Historyk
The relationship between popular science discourse in YouTube and the image of a vlogger, based on the examples of “Historia Bez Cenzury” and “Irytujący Historyk” channels
Autorzy:
Barańska-Szmitko, Anna
Powiązania:
https://bibliotekanauki.pl/articles/520762.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie
Tematy:
YouTube
wizerunek
dyskurs popularnonaukowy
styl popularnonaukowy
wideoblog
wloger
image
popular science discourse
popular science style
video blog
vlogger
Opis:
The purpose of this paper is to determine what kind of image could be communicated by a historian in his/her films, shared on their YouTube channel. Moreover, there is a question whether the features of a popular science video blog influence the image of a vlogger, which is constructed by a recipient. Research was conducted among respondents who watched a film and then described the image of the historian. The results indicate that the image of a vlogger consists mainly of features based on communication skills, expressiveness, knowledge, sense of humor, passion and involvement, as well as self-confidence. Although the discourse facilitates communication of some image qualities, their proportions are different, depending on a particular vlogger.
Celem niniejszego tekstu jest określenie, jaki wizerunek może być komunikowany przez historyka w jego filmach, zamieszczonych na kanale w serwisie YouTube. Ponadto podejmie się próbę odpowiedzi na pytanie, czy cechy dyskursu popularnonaukowego wideobloga wpływają na konstruowany przez odbiorcę wizerunek youtubera. Badania przeprowadzono z udziałem respondentów, którzy oglądali film, a następnie określali wizerunek historyka. Wyniki pozwalają zauważyć, że wizerunek wlogera składa się głównie z cech opartych na komunikatywności, ekspresyjności, wiedzy, humorze, pasji i zaangażowaniu oraz pewności siebie. Choć dyskurs ułatwia komunikowanie niektórych cech wizerunkowych, to proporcje tych cech w wizerunku są różne w zależności od wlogera.
Źródło:
Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura; 2020, 12, 2; 62-77
2083-7275
Pojawia się w:
Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on the characteristics of traffic ow with the use of video registration
Autorzy:
Celiński, I.
Powiązania:
https://bibliotekanauki.pl/articles/393633.pdf
Data publikacji:
2014
Wydawca:
Polskie Stowarzyszenie Telematyki Transportu
Tematy:
image processing
vision processing
road network
video registration
traffic detection
przetwarzanie obrazów
system wizyjny
sieć dróg
wideorejestracja
wykrywanie ruchu
Opis:
The article outlines the video registration method as well as research based on obtained video footage of the characteristics of traffic flow. The method is flexible and makes it possible to research various traffic characteristics. The article presents the method’s assumptions and the manner in which traffic flow characteristics were measured. The method of registering traffic flow parameters on video was implemented in 2012 in selected sections of Katowice’s road network. An important feature is the possibility of traffic flow parameterization with the use of popular camcorders. The thus-obtained footage is processed using so-called open library vision graphics procedures in order to establish traffic flow characteristics in near real-time.
Źródło:
Archives of Transport System Telematics; 2014, 7, 1; 3-8
1899-8208
Pojawia się w:
Archives of Transport System Telematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A system for evaluating performance of video codecs in image compression
System do badania skuteczności kodeków wideo w kodowaniu obrazu
Autorzy:
Parfieniuk, M.
Szpakowicz, A.
Powiązania:
https://bibliotekanauki.pl/articles/88436.pdf
Data publikacji:
2016
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
wideo
obraz
kodowanie
kompresja
kodek
HEVC
H.264
dekompozycja składowa polifazowa
video
image
coding
compression
codec
MPEG4 AVC
polyphase
decomposition
Opis:
This article presents a system for evaluating how well do video codecs perform in still image compression. As it is time consuming and tedious to directly configure and run the reference H.265 (HEVC) and H.264 (MPEG4 AVC) codecs, our tool makes experimenting easier and more efficient. The system provides a graphical user interface for conveniently and quickly preparing input files, for repeatedly running video codecs, and for analysing output data. In the background, there are algorithms for forming video sequences and configuration files, for batch executing an encoder, and for extracting information from output files. Our research was mainly aimed at speeding-up experiments related to compressing an image represented as a video sequence composed of its polyphase components. The system has allowed us to experimentally verify that, like its predecessor, the H.264, the HEVC standard needs modified entropy codes for effectively processing decimated images.
Artykuł prezentuje system do badania sprawności kodeków wideo w kompresowaniu obrazu. Ponieważ bezpośrednie konfigurowanie i uruchamianie referencyjnych kodeków H.265 (HEVC) i H.264 (MPEG4 AVC) jest pracą czasochłonną i żmudną, omawiane narzędzie pozwala przeprowadzać eksperymenty łatwiej i szybciej. System jest wyposażony w graficzny interfejs użytkownika do wygodnego i sprawnego przygotowywania ˙ plików wejściowych, do wielokrotnego uruchamiania kodeków wideo i do analizowania danych wyjściowych. Interfejs opiera się na podprogramach do formowania sekwencji wideo i plików konfiguracyjnych, do wsadowego uruchamiania koderów i do wydobywania informacji z plików wynikowych. Głównym celem pracy nad systemem było przyspieszenie eksperymentów nad kodowaniem obrazu reprezentowanego jako sekwencja wideo złożona z jego składowych polifazowych. System umożliwił eksperymentalne sprawdzenie, że podobnie jak H.264, standard HEVC może skutecznie przetwarzać obrazy zdecymowane, ale wymaga to zoptymalizowania kodów entropijnych.
Źródło:
Advances in Computer Science Research; 2016, 13; 59-73
2300-715X
Pojawia się w:
Advances in Computer Science Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Monitor for Anti-Aircraft Guidance and Observation Systems
Monitor dla przeciwlotniczych systemów naprowadzania i systemów obserwacyjnych
Autorzy:
Kruk, Rafał
Rempała, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/403687.pdf
Data publikacji:
2019
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
vision systems
military monitor
hardware image processing
video fusion
motion detection
systemy wizyjne
monitor militarny
sprzętowe przetwarzanie obrazu
fuzja wideo
wykrywanie ruchu
Opis:
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
Źródło:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa; 2019, 10, 2 (36); 143-156
2081-5891
Pojawia się w:
Problemy Mechatroniki : uzbrojenie, lotnictwo, inżynieria bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O pewnej metodzie wspomagania identyfikacji wizyjnej obiektów podwodnych
On a method for supporting visual identification of underwater objects
Autorzy:
Żak, Bogdan
Garus, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1359354.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Medycyny i Techniki Hiperbarycznej
Tematy:
ozpoznanie akwenu podwodnego
przetwarzanie obrazów
identyfikacja obiektów na obrazach wizyjnych
reconnaissance of an underwater area
image processing
identification of objects in video images
Opis:
Poszukiwanie i wykrycie obiektów znajdujących się w toni wodnej realizowane jest przez grupy wyspecjalizowanych nurków i płetwonurków. Jednakże ich czas przebywania pod wodą oraz możliwości penetracji głębin są ograniczone. Z tych względów coraz częściej do tych zadań wykorzystywane są bezzałogowe pojazdy podwodne wyposażone w środki technicznej obserwacji do których należą między innymi kamery TV. Tak więc do rozpoznania i klasyfikacji obiektów podwodnych są wykorzystywane obrazy wizyjne pochodzące z kamer zainstalowanych na pojazdach. Proces rozpoznania i identyfikacji obiektów jest procesem żmudnym i trudnym, wymagającym analizy wielu sekwencji obrazów, dlatego dąży się do jego automatyzacji. Wychodząc na przeciw tym potrzebom w artykule przedstawiono koncepcję identyfikacji podwodnych obiektów na podstawie obrazów wizyjnych akwenu podwodnego przesłanego z bezzałogowego pojazdu podwodnego na okręt bazę. Opisano metody przetwarzania wstępnego obrazów wizyjnych akwenu podwodnego oraz metodę poszukiwania wybranych obiektów na tych obrazach i ich identyfikację przy wykorzystaniu transformaty Hougha. Ponadto w pracy przedstawiono wyniki wstępnego przetwarzania oraz identyfikacji dokonanej na obrazach akwenu podwodnego oraz obrazie po operacji rozplotu.
The search and detection of objects under water is carried out by groups of specialised divers. However, their time underwater and their ability to penetrate the depths are limited. For these reasons, the use of unmanned underwater vehicles equipped with technical observation equipment, including TV cameras, is becoming increasingly popular for these tasks. Video images from cameras installed on vehicles are used to identify and classify underwater objects. The process of recognition and identification of objects is tedious and difficult and requires the analysis of numerous sequences of images, and so it is desirable to automate this process. In response to these needs, this article presents the concept of identification of underwater objects based on visual images from an underwater body of water sent from an unmanned underwater vehicle to a base vessel. The methods of initial processing of the observed images from an underwater area as well as the method of searching for selected objects in these images and their identification with the use of the Hough transform will be described. Furthermore, the paper presents the results of the preliminary processing and identification of the observed images following a deconvolution operation.
Źródło:
Polish Hyperbaric Research; 2019, 1(66); 25-34
1734-7009
2084-0535
Pojawia się w:
Polish Hyperbaric Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Half-byte format of images from a road traffic data recorder
Półbajtowy format obrazów z rejestratora danych ruchowych
Autorzy:
Czapla, Z.
Powiązania:
https://bibliotekanauki.pl/articles/375604.pdf
Data publikacji:
2009
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
rejestrator ruchu
konwersja obrazów
przetwarzanie obrazów
ruch drogowy
wideorejestrator
zdarzenia drogowe
traffic recorder
image conversion
pattern recognition
road traffic
video recorder
traffic incidents
Opis:
The paper proposes the image half-byte format applying to images from a road traffic data recorder. The format defines image pixel values using differences between a pixel value and a determined base value. The image half-byte representation can be further processed by appropriate methods. The paper presents also results of converting test images into the half-byte format.
W artykule zaproponowano półbajtowy format obrazów zastosowany do obrazów z rejestratora danych ruchowych. Format określa wartości pikseli korzystając z różnic między wartością piksela a ustaloną wartością bazowa. Półbajtowa reprezentacja obrazu może być dalej przetwarzana przy wykorzystaniu odpowiednich metod. Przedstawiono również wyniki konwersji obrazów testowych do formatu półbajtowego.
Źródło:
Transport Problems; 2009, 4, 2; 85-91
1896-0596
2300-861X
Pojawia się w:
Transport Problems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stosowanie monitoringu w bibliotece a ochrona danych osobowych pracowników biblioteki
Library monitoring and the protection of personal data of library staff
Autorzy:
Kulikowska, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/541345.pdf
Data publikacji:
2018
Wydawca:
Akademia Wychowania Fizycznego im. Jerzego Kukuczki w Katowicach
Tematy:
monitoring wizyjny
wizerunek
dane osobowe
monitoring w miejscu pracy
przetwarzanie danych
RODO
video monitoring
facial image
personal data
workplace monitoring
processing of personal data
GDPR
Opis:
The introduction of the General Data Protection Regulation (GDPR) has had an impact on the functionality of cultural institutions such as libraries. The libraries use video monitoring, which involves processing of personal data of people using library resources, library employees and other third parties. Due to the implementation of GDPR new provisions have been added to the Polish employment law which, among others, regulate the monitoring in the workplace. The new regulations outlines the circumstances under which monitoring is permissible. The libraries as employers have to adhere to this legislation by informing employees about the use of monitoring in the workplace.
Rozpoczęcie stosowania ogólnego Rozporządzenia o ochronie danych (RODO) wywarło wpływ na funkcjonowanie instytucji kultury takich jak biblioteki. Biblioteki stosują monitoring wizyjny, co wiąże się w szczególności z przetwarzaniem danych osobowych pracowników biblioteki, jak również innych osób trzecich. Konieczność zapewnienia stosowania RODO w polskim porządku prawnym doprowadziła do uregulowania stanu prawnego w zakresie stosowania monitoringu w miejscu pracy poprzez zmianę przepisów prawa pracy. Nowe przepisy nakładają na biblioteki jako pracodawców szereg obowiązków związanych ze stosowaniem monitoringu w miejscu pracy, które wiążą się z koniecznością poinformowania pracowników o stosowaniu monitoringu, w szczególności poprzez wprowadzenie zmian do regulaminu pracy.
Źródło:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy; 2018, 3(53); 62-75
2084-5464
Pojawia się w:
Bibliotheca Nostra. Śląski Kwartalnik Naukowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Method for pre-processing of level crossing image
Метод предварительной обработки изображения железнодорожного переезда
Autorzy:
Rybalka, R.
Honcharov, K.
Powiązania:
https://bibliotekanauki.pl/articles/374689.pdf
Data publikacji:
2015
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
level crossing
video surveillance
fuzzy inference system
wavelet transform
image compression
camera system
przejazd kolejowy
nadzór wideo
wnioskowanie rozmyte
transformata falkowa
kompresja obrazu
system kamer
Opis:
Actuality of problem in the improvement of transport safety at level crossings (LC) is caused by increasing the number of vehicles and reducing discipline of vehicle drivers. One of ways for solution of this problem is associated with using the video surveillance systems for monitoring danger area of level crossing. In such systems due to the limited bandwidth of data channel usually the image compression techniques are used. In this paper the pre-processing method for compression of images is presented. Proposed method accounts unequal subjective informational content of different LC image regions (using fuzzy logic and wavelet transform). Comparison of this method with plain set partitioning in hierarchical trees (SPIHT) technique showed that proposed method allows obtaining better result at image compression in terms of reconstruction quality and compression ratio.
Актуальность проблемы повышения безопасности движения на железнодорожных переездах обусловлена увеличением количества автотранспортных средств и снижением дисциплины водителей. Одно из направлений для решения данной проблемы связано с использованием систем видеонаблюдения для мониторинга опасной зоны переезда. С учетом ограниченной полосы пропускания канала передачи данных в таких системах обычно применяется сжатие изображений. В данной работе представлен метод предварительной обработки для сжатия изображений. Предложенный метод учитывает неодинаковое субъективное информационное заполнение различных участков изображения переезда (используя нечеткую логику и вейвлет преобразование). Сравнение данного метода с простым методом пространственно упорядоченных иерархических деревьев (SPIHT) показало, что предложенный метод позволяет получить лучший результат при сжатии изображения с точки зрения качества восстановления и степени сжатия.
Źródło:
Transport Problems; 2015, 10, 1; 79-86
1896-0596
2300-861X
Pojawia się w:
Transport Problems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A recording method of the working surface of counter samples during slide mating with PTFE-based composites
Metod rejestracji obrazów powierzchni roboczej przeciwpróbki podczas współpracy ślizgowej z kompozytami na bazie PTFE
Autorzy:
Oleksiak, Z.
Wiązania, G.
Kot, M.
Powiązania:
https://bibliotekanauki.pl/articles/190299.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
PTFE composites
deposited layer
image recording during sliding friction
video-stroboscope
stereometric analysis of slide images
kompozyty PTFE
rejestrowanie obrazów podczas tarcia
wideostroboskop
stereologiczna analiza obrazów ślizgania
Opis:
Images of the disk working surface are recorded during its revolution in order to forecast linear wear of PTFE-based composites. Particle agglomerates (enlarged 80×) of the investigated composite deposited on the disk working surface during the slide mating are seen in those images. Those agglomerates are commonly called the transfer film. The investigation capacities of a special tribotester equipped with video-stroboscope as well as the ways of image recording in a ‘bright’ and ‘dark’ field are presented in the paper. Photographs and schemes of subassemblies of the tribotester are given. The selected images of geometrical features of the transfer film recorded during revolutions of the disk are included. It was shown that images obtained in the ‘dark’ field are easier to be processed and computer analysed compared to the images obtained in the ‘bright’ field. A conceptual approach to the application of the computer analysis results for forecasting the wear of the PTFE composites under testing is presented.
W pracy przedstawiono metodę szybkiego prognozowania intensywności zużywania liniowego kompozytów PTFE, poprzez rejestrowanie obrazów powierzchni roboczej tarczy pracującej jako przeciwpróbka, podczas jej ruchu obrotowego. Na tych obrazach, przy powiększeniu (80×), widoczne są skupiska cząstek badanego kompozytu pozostawiane na powierzchni roboczej tarczy podczas współpracy ślizgowej. W pracy przedstawiono możliwości badawcze specjalnego tribotestera wyposażonego w wideostroboskop oraz sposoby rejestracji tych obrazów w „jasnym” polu i „ciemnym” polu. Omówiono fotografie i schematy podzespołów tego tribotestera. Zamieszczono wybrane obrazy zmian cech geometrycznych warstwy kompozytu osadzonej na tarczy, zarejestrowane podczas jej ruchu obrotowego. Wykazano, że obrazy uzyskane w „ciemnym” polu są łatwiejsze do przetwarzania i analizy komputerowej. Przedstawiono koncepcję wykorzystania wyników komputerowej analizy zarejestrowanych obrazów do prognozowania zużywania badanych kompozytów PTFE.
Źródło:
Tribologia; 2017, 272, 2; 139-148
0208-7774
Pojawia się w:
Tribologia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Nie tylko do archiwum. Wokół literackiego zdarzenia i filmowego dokumentu
Not Just for the Archive. On the Literary Event and Documentary Film
Autorzy:
Pławuszewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1359017.pdf
Data publikacji:
2016-10-28
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
documantary film
interpretation
addition
video camera
meeting
observation
dokumentarianism
image
slam poetry
author
literary culture
word
literature
film dokumentalny
interpretacja
dodatek
kamera
spotkanie
obserwacja
dokumentalizm
obraz
kultura literacka
słowo
slam poetycki
autor
literatura
Opis:
Artykuł jest próbą przyjrzenia się miejscu spotkania: kina dokumentalnego i kultury literackiej, pojmowanej tu w kontekście „zdarzeniowości” i jej dwóch konkretnych przejawów, czyli poetyckiego slamu i spotkania autorskiego. Rozważając to zagadnienie, trudno poprzestać na wniosku, iż dokumentalna kamera, towarzysząc slamowej rywalizacji lub spotkaniu z pisarzem, musi ograniczyć swój udział wyłącznie do nieskomplikowanej funkcji archiwizacyjnej. Analiza wybranych przykładów (warto od razu dodać – katalog filmowych tytułów, uosabiających sformułowane rozpoznania, nie jest bogaty) dowodzi, że wspomniany „styk” zawiera w sobie potencjał znacznie szerszy: dokument potrafi skutecznie uchwycić choćby unikalną dramaturgię zdarzenia, jego semantykę wpisaną nie tylko w słowo, ale i obraz, kryje on w sobie też niemałe możliwości interpretacyjne. Innymi słowy, jeśli ujmować filmowy dokumentalizm jako „dodatek” do literackiego zdarzenia, to tylko ze świadomością tych nie zawsze oczywistych, lecz istotnych znaczeniowo implikacji.
The article attempts to examine the meeting-point of documentary film and literary culture, understood here in the context of the “event” and its two concrete manifestations, i.e., the poetry slam and the public meeting with an author. In considering this problem, it is difficult to accept the conclusion that the documentary film camera, in following the competition at a slam or the meeting with the author, must limit its participation exclusively to a simple archival function. An analysis of chosen examples (it should also be immediately clarified that the list of film titles embodying the diagnosis here formulated is not extensive) shows that the “encounter” in question contains much broader potential: a documentary can, if nothing else, effectively capture the unique dramaturgy of the event, its semantics as inscribed not only in the word, but also in the image, and conceals within itself great interpretative possibilities. In other words, if we treat film documentarianism as an “addition” to the literary event, we can do so only with an awareness of these implications, which are not always obvious but are certainly significatively relevant.
Źródło:
Forum Poetyki; 2016, 6; 34-43
2451-1404
Pojawia się w:
Forum Poetyki
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-42 z 42

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies