Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "video stream" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
The progressive transmission method based on the 2-D wavelet transform for a digital video signal
Autorzy:
Murawski, K.
Powiązania:
https://bibliotekanauki.pl/articles/273329.pdf
Data publikacji:
2001
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
wavelet transform
digital transmission
video stream
multiresolution analysis
Opis:
This paper presents a method of progressive digital transmission of a video stream, based on picture frame multi-resolution analysis.
Źródło:
Biuletyn Instytutu Automatyki i Robotyki; 2001, R. 7, nr 15, 15; 15-25
1427-3578
Pojawia się w:
Biuletyn Instytutu Automatyki i Robotyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorithms for detecting disorders of the BLDC motor with direct control
Autorzy:
Chodnicki, M.
Kordowski, P.
Nowakowski, M.
Kowaleczko, G.
Powiązania:
https://bibliotekanauki.pl/articles/246323.pdf
Data publikacji:
2016
Wydawca:
Instytut Techniczny Wojsk Lotniczych
Tematy:
UAV
Unmanned aerial vehicle
video stream
BLDC motor
rotation matrix
Opis:
Unmanned aerial vehicles are used to observe objects from the air in both kind of users – military and civilian. During the flight, UAV constantly is changing its orientation. This is due to weather conditions and commands coming from the ground control station. It has directly influence to the quality of the video stream transmitted from the cameras to the GCS. That disturbed image is hard to effective analyse. In order to eliminate the interference, UAVs are equipped with stabilized gimbals. The most of gimbals designed in Air Force Institute of Technology are using BLDC motors. Some of these systems use encoders for determining the absolute angle of motor rotation. The smaller one, which is up to 200 g, is not provided with these sensors. This angle is calculated without any feedback from the system. It is calculated by the BLDC motor`s control signals. However, lack of feedback can provide unstable work of gimbal, if it will be pushed by any force from environment. During the flight, it is unacceptable to head optoelectronic stopped working steadily. Therefore, there is a need to develop algorithms for securing the proper operation of the system stability. These algorithms can be used in other systems using stepper or BLDC motors.
Źródło:
Journal of KONES; 2016, 23, 4; 49-54
1231-4005
2354-0133
Pojawia się w:
Journal of KONES
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A method for QoS differentiation in DiffServ networks based on the long-term properties of a video stream
Autorzy:
Omiotek, Z.
Powiązania:
https://bibliotekanauki.pl/articles/106240.pdf
Data publikacji:
2012
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
QoS differentiation
DiffServ
video stream
Drop Precedence (DP)
Hurst parameter
Opis:
This paper presents a method for adjusting the level of services offered by the network with quality of service differentiation for the long-term characteristics of a transmitted video stream. The Drop Precedence (DP) field located in the header of IP packet for this purpose was used.The DP field is set dynamically, based on the measurement of the long-term properties of a source video stream entering the network. The level of traffic perturbations present in a stream is expressed by the Hurst parameter, and then mapped to the size of a priority encoded in the DP field. By that means, an adaptive differentiation of the preferences of individual streams within the same AF PHB class of service is implemented, depending on the size of perturbations existing in the flow. The use of the long-term Hurst parameter, as a criterion of classification, makes the treatment of packets marked with a given priority value does the job well on a larger time scale.
Źródło:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica; 2012, 12, 1; 47-56
1732-1360
2083-3628
Pojawia się w:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Improvement of methods of motion compensation of dynamic objects moving in video stream of the videoconferencing system
Poprawa metod kompensacji ruchu poruszających się obiektów dynamicznych w streamie wideo systemu wideokonferencyjnego
Autorzy:
Barannik, V.
Dvorsky, M.
Himenko, V.
Sorokun, A.
Powiązania:
https://bibliotekanauki.pl/articles/408561.pdf
Data publikacji:
2018
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
videoconferencing
video stream
coding
motion compensation
troop control
wideokonferencja
strumień wideo
kodowanie
kompensacja ruchu
kontrola oddziałów
Opis:
Videoconferencing gives us the opportunity to work and communicate in real time, as well as to use collective applications, interactive information exchange. Videoconferencing systems are one of the basic components of the organization of manegment, ensuring, the timeliness and necessary quality management of the implementation of objective control over the solution of the tasks. The quality of the image and the time of transmission of video information is unsatisfactory for the quality control of the troops. Considered ways to increase the efficiency of management and operational activities, due to methods of compensation of motion, using technology to reduce the volume of video data for quality improvement.
Wideokonferencje dają możliwość pracy i komunikowania się w czasie rzeczywistym, a także korzystania ze zbiorowych aplikacji, interaktywnej wymiany informacji. Systemy wideokonferencyjne są jednym z podstawowych elementów organizacji zarządzania, zapewniając terminowość i niezbędne zarządzanie jakością w zakresie realizacji kontroli nad rozwiązaniem zadań. Jakość obrazu i czas transmisji informacji wideo jest niezadowalający dla kontroli jakości wojsk. Rozważono sposoby zwiększania efektywności zarządzania i działań operacyjnych, ze względu na metody kompensacji ruchu, z wykorzystaniem technologii zmniejszającej ilość danych wideo w celu poprawy jakości.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2018, 8, 4; 48-51
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A wavelet-based vehicles detection algorithm
Algorytm detekcji pojazdów oparty na falkach
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/197783.pdf
Data publikacji:
2012
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
detekcja pojazdu
strumień wideo
transformata falkowa
DWT
kamera drogowa
vehicle detection
video stream
wavelet transform
road camera
Opis:
The detection of vehicles, in video streams from road cameras, is generally performed by analyses of the occupancy of virtual detection fields defined in image frames. This principle of detection is sensitive to ambient light variations, vehicle shadows, and camera movement. The paper presents a method for detection of vehicles that uses transformed image frames. To facilitate detection each frame is converted into a vector of pixel values. Consecutive video vectors are transformed using one-dimensional DWT. Stopped vehicles are represented by stripes, whereas moving ones by checked patches. The width of a stripe indicates vehicle size, while the length shows how long the vehicle waited at the approach to the intersection.
Wykrywanie pojazdów w strumieniu wideo z kamer drogowych oparte jest zwykle na analizie zajętości wirtualnych pól detekcji. Ten sposób wykrywania jest czuły na zmiany oświetlenia, cienie pojazdów i ruchy kamery. Artykuł przedstawia metodę wykrywania, która wykorzystuje transformaty klatek obrazów. W celu umożliwienia sprawnej analizy zawartość klatki zamieniana jest najpierw na wektor wartości pikseli. Kolejne wektory wideo są transformowane z użyciem jednowymiarowego, dyskretnego przekształcenia falkowego. Zatrzymane pojazdy są reprezentowane przez paski, a ruchome przez kratkowane placki. Szerokość paska wskazuje na rozmiar pojazdu, a długość określa, jak długo pojazd oczekiwał na wlocie skrzyżowania.
Źródło:
Zeszyty Naukowe. Transport / Politechnika Śląska; 2012, 74; 75-83
0209-3324
2450-1549
Pojawia się w:
Zeszyty Naukowe. Transport / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda dekompozycji algorytmów przetwarzania obrazów dla implementacji w układach FPGA
Method of decomposing image processing algorithms for implementation in FPGA
Autorzy:
Pamuła, W.
Powiązania:
https://bibliotekanauki.pl/articles/153064.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
FPGA
potok przetwarzania
szeregowy strumień wideo
niskopoziomowe operacje pikselowe
pipeline processing
serial video stream
low level image processing
Opis:
Artykuł prezentuje metodę dekompozycji algorytmów przetwarzania obrazów na potok przetwarzania zrealizowany z użyciem sparametryzowanych modułów. Moduły realizują niskopoziomowe operacje na pikselach obrazu oraz śledzenie zmian w wyliczonym opisie klatki obrazu. Uznano taki zakres operacji za wystarczający dla opracowania wideo detektorów obiektów. Wykorzystywany jest szeregowy strumień wideo z kamery. Implementacje dowodzą skuteczności zastosowania metody. Uzyskano prędkość przetwarzania przewyższającą wymagania pracy w czasie rzeczywistym oraz znaczną zdolność do modyfikacji własności rozwiązań.
Efficient decomposition of image processing algorithms is of paramount importance in designing FPGA based video detectors of objects for use, for instance, in surveillance systems or in road traffic control applications. Efficiency appraisal is done taking into account resource utilisation, capability of introducing new processing features and components costs. Real time processing adds additional constraints on this task. Available development tools do not facilitate the design process. The paper presents a method for decomposing the image processing algorithm into an efficient processing pipeline of parameterised components. The components perform low level image processing tasks and content tracking operations. Such a set of processing operations is adequate for designing video detectors of objects. Components for carrying out feature calculations using convolutions, morphology operators and corner detectors are presented. Their architecture is optimised for serial video streams, which provide the image contents using horizontal scanning. FPGA resource requirements are estimated for devices of leading manufacturers. The estimated processing speed exceeds the requirements of real time operation. Special attention is directed to pipelining calculations, streamlining multi operand computations, fast determination of minimum, median and maximum of values. An implementation of a video object detector, using a low cost FPGA, is presented proving the feasibility of this approach.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 6, 6; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Audio-Video Analysis Method of Public Speaking Videos to Detect Deepfake Threat
Metoda analizy audio-wideo filmów z wystąpień publicznych w celu wykrycia zagrożenia typu deepfake
Autorzy:
Wolański, Robert
Jędrasiak, Karol
Powiązania:
https://bibliotekanauki.pl/articles/35064097.pdf
Data publikacji:
2023
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
analysis of audio-video stream
detection of deepfake threats
analysis
public speeches
analiza strumienia audio-wideo
wykrywanie zagrożeń typu deepfake
analiza
wystąpienie publiczne
Opis:
Aim: The purpose of the article is to present the hypothesis that the use of discrepancies in audiovisual materials can significantly increase the effectiveness of detecting various types of deepfake and related threats. In order to verify this hypothesis, the authors proposed a new method that reveals inconsistencies in both multiple modalities simultaneously and within individual modalities separately, enabling them to effectively distinguish between authentic and altered public speaking videos. Project and methods: The proposed approach is to integrate audio and visual signals in a so-called fine-grained manner, and then carry out binary classification processes based on calculated adjustments to the classification results of each modality. The method has been tested using various network architectures, in particular Capsule networks – for deep anomaly detection and Swin Transformer – for image classification. Pre-processing included frame extraction and face detection using the MTCNN algorithm, as well as conversion of audio to mel spectrograms to better reflect human auditory perception. The proposed technique was tested on multimodal deepfake datasets, namely FakeAVCeleb and TMC, along with a custom dataset containing 4,700 recordings. The method has shown high performance in identifying deepfake threats in various test scenarios. Results: The method proposed by the authors achieved better AUC and accuracy compared to other reference methods, confirming its effectiveness in the analysis of multimodal artefacts. The test results confirm that it is effective in detecting modified videos in a variety of test scenarios which can be considered an advance over existing deepfake detection techniques. The results highlight the adaptability of the method in various architectures of feature extraction networks. Conclusions: The presented method of audiovisual deepfake detection uses fine inconsistencies of multimodal features to distinguish whether the material is authentic or synthetic. It is distinguished by its ability to point out inconsistencies in different types of deepfakes and, within each individual modality, can effectively distinguish authentic content from manipulated counterparts. The adaptability has been confirmed by the successful application of the method in various feature extraction network architectures. Moreover, its effectiveness has been proven in rigorous tests on two different audiovisual deepfake datasets.
Cel: Celem artykułu jest przedstawienie hipotezy, że wykorzystanie rozbieżności w materiałach audiowizualnych może znacznie zwiększyć skuteczność wykrywania różnych typów deepfake i związanych z nimi zagrożeń. W celu weryfikacji tej hipotezy autorzy zaproponowali nową metodę, która pozwala na ujawnienie niespójności zarówno w wielu modalnościach jednocześnie, jak i w obrębie poszczególnych modalności z osobna, umożliwiając skuteczne rozróżnienie autentycznych i zmienionych filmów z wystąpieniami publicznymi. Projekt i metody: Zaproponowane podejście polega na integracji sygnałów dźwiękowych i wizualnych w tzw. drobnoziarnisty sposób, a następnie przeprowadzeniu procesów klasyfikacji binarnej na podstawie obliczonych korekt wyników klasyfikacji każdej modalności. Metoda została przebadana z wykorzystaniem różnych architektur sieci, w szczególności sieci typu Capsule – do głębokiego wykrywania anomalii oraz Swin Transformer – do klasyfikacji obrazów. Przetwarzanie wstępne obejmowało ekstrakcję klatek i wykrywanie twarzy przy użyciu algorytmu MTCNN, a także konwersję audio na spektrogramy mel, aby lepiej odzwierciedlić ludzką percepcję słuchową. Zaproponowana technika została przetestowana na multimodalnych zbiorach danych deepfake, a mianowicie FakeAVCeleb i TMC, wraz z niestandardowym zbiorem zawierającym 4700 nagrań. Metoda wykazała wysoką skuteczność w rozpoznawaniu zagrożeń deepfake w różnych scenariuszach testowych. Wyniki: Metoda zaproponowana przez autorów osiągnęła lepsze AUC i dokładność w porównaniu z innymi metodami referencyjnymi, potwierdzając swoją skuteczność w analizie artefaktów multimodalnych. Rezultaty badań potwierdzają, że skutecznie pozwala wykryć zmodyfikowane filmy w różnych scenariuszach testowych – co można uznać za postęp w porównaniu z istniejącymi technikami wykrywania deepfake'ów. Wyniki podkreślają zdolność adaptacji metody w różnych architekturach sieci ekstrakcji cech. Wnioski: Przedstawiona metoda audiowizualnego wykrywania deepfake'ów wykorzystuje drobne niespójności cech wielomodalnych do rozróżniania, czy materiał jest autentyczny czy syntetyczny. Wyróżnia się ona zdolnością do wskazywania niespójności w różnych typach deepfake'ów i w ramach każdej indywidualnej modalności potrafi skutecznie odróżniać autentyczne treści od zmanipulowanych odpowiedników. Możliwość adaptacji została potwierdzona przez udane zastosowanie omawianej metody w różnych architekturach sieci ekstrakcji cech. Ponadto jej skuteczność została udowodniona w rygorystycznych testach na dwóch różnych audiowizualnych zbiorach danych typu deepfake.
Źródło:
Safety and Fire Technology; 2023, 62, 2; 172-180
2657-8808
2658-0810
Pojawia się w:
Safety and Fire Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of Compressed Data Stream Content in HEVC Video Encoder
Autorzy:
Stankowski, J.
Karwowski, D.
Grajek, T.
Wegner, K.
Siast, J.
Klimaszewski, K.
Stankiewicz, O.
Domański, M.
Powiązania:
https://bibliotekanauki.pl/articles/227246.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
HEVC
video compression
compressed data stream analysis
Opis:
In this paper, a detailed analysis of the content of the bitstream, produced by the HEVC video encoder is presented. With the use of the HM 10.0 reference software the following statistics were investigated: 1) the amount of data in the encoded stream related to individual frame types, 2) the relationship between the value of the QP and the size of the bitstream at the output of the encoder, 3) contribution of individual types of data to I and B frames. The above mentioned aspects have been thoroughly explored for a wide range of target bitrates. The obtained results became the basis for highlighting guidelines that allow for efficient bitrate control in the HEVC encoder.
Źródło:
International Journal of Electronics and Telecommunications; 2015, 61, 2; 121-127
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies