Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Video-Analysis" wg kryterium: Wszystkie pola


Tytuł:
The (Re)Construction of Human Conduct: “Vernacular Video Analysis”
Autorzy:
Tuma, René
Powiązania:
https://bibliotekanauki.pl/articles/2108248.pdf
Data publikacji:
2012-08-30
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Vernacular Video Analysis
Ethnomethodology
Interpretation
Interaction
Video
Workplace Studies
Visual Knowledge
Reflective Methods
Scientific Practice
Experts
Opis:
Video technology became available in the 1960s and massively diffused into nearly all institutional spheres during the following decades (Zielinski 1986). It is not only used for provision of movies and entertainment (Greenberg 2008), documenting, and recording of events in the semi-professional and private domain (Raab 2008), but also for the analysis of human conduct in psychology and education (Mittenecker 1987) and in sociology (Knoblauch et al. 2006; Knoblauch et al. 2008; Kissmann 2009; Heath, Hindmarsh and Luff 2010). In this paper, I am going to argue that with the availability of video technology a form of discursive practice of interpretive (re)construction of knowledge has been established in a variety of vernacular fields of practice. Based on the available literature and an empirical example taken from a public demonstration of such a vernacular video analysis, I will show some elements of communicative practice that allow for detailed analysis of visual knowledge. Furthermore, I will discuss methodological issues, as to be approached, and which elements can be found that constitute the communicative (re)constructive processes of analysis. 
Źródło:
Qualitative Sociology Review; 2012, 8, 2; 152-163
1733-8077
Pojawia się w:
Qualitative Sociology Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
VERNACULAR VIDEO ANALYSIS – COMMUNICATIVE CONSTRUCTION OF EVIDENCE IN POLICE WORK
Autorzy:
TUMA, RENÉ
Powiązania:
https://bibliotekanauki.pl/articles/1036402.pdf
Data publikacji:
2019-08-14
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
Sociology
Sociology of Knowledge
Interaction
Videoanalysis
Opis:
AbstractThe use of video recordings for the production of knowledge has spread all over society. This paper presents an empirical study of the processes of interpretation of audio-visual recordings. It draws on an example in the context of police work and on the other side investigation of recordings of police violence. With a theoretical background in communicative constructivism special attention is given to situated bodily forms of “making things visible” performed by the participants. Interpretation is not understood as an pure cognitive but rather an communicative process. I elaborate on that by presenting results of (reflexive) videography of practices of video-interpretation. However, the specifics of the work are not only brought upon situatively, but are embedded in an institutional and organizational context. This paper draws on the concept of work arcs, that allow to highlight the trans-situative linkage.
Źródło:
Society Register; 2019, 3, 1; 137-162
2544-5502
Pojawia się w:
Society Register
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Narratives in Illness: A Methodological Note
Autorzy:
Hydén, Lars-Christer
Powiązania:
https://bibliotekanauki.pl/articles/2138572.pdf
Data publikacji:
2008-12-30
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Narrative
Methodology
Identity
Performance
Ethnography
Video analysis
Opis:
As a result of the general growth in the interest in narratives different conception of what a story is and how to analyze has emerged. One especially interesting and methodological relevant difference is between the conception of narratives as textual objects and narratives as part of a storytelling event. The paper discusses the theoretical differences between these two analytical approaches to narratives. An example from my own research on Alzheimer’s patients telling stories illustrate the possibilities of using a performative and micro ethnographic approach to the study of storytelling in order to understand the functions of narratives – especially in relation to identity work. If stories not only are thought of as representations of events it becomes possible to view stories and story telling as social action: social states are both established, negotiated and changed through stories. This is especially important in the field of health and illness where diseases almost always are embedded in conversations and the telling of why and how symptoms were discovered or traumas received. For many patients and persons with especially communicative disabilities story telling is a challenge, but also an opportunity to actually master, maintain and often transform their identities.
Źródło:
Qualitative Sociology Review; 2008, 4, 3; 49-58
1733-8077
Pojawia się w:
Qualitative Sociology Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Face Tracking and Recognition with the Use of Particle-Filtered Local Features
Autorzy:
Stasiak, Ł. A.
Pacut, A.
Powiązania:
https://bibliotekanauki.pl/articles/308537.pdf
Data publikacji:
2010
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
biometrics
face recognition
particle filtering
video analysis
Opis:
A consistent particle filtering-based framework for the purpose of parallel face tracking and recognition from video sequences is proposed. A novel approach to defining randomized, particle filtering-driven local face features for the purpose of recognition is proposed. The potential of cumulating classification decisions based on the proposed feature set definition is evaluated. By applying cumulation mechanisms to the classification results determined from single frames and with the use of particle-filtered features, good recognition rates are obtained at the minimal computational cost. The proposed framework can operate in real-time on a typical modern PC. Additionally, the application of cumulation mechanisms makes the framework resistant to brief visual distortions, such as occlusions, head rotations or face expressions. A high performance is also obtained on low resolution images (video frames). Since the framework is based on the particle filtering principle, it is easily tunable to various application requirements (security level, hardware constraints).
Źródło:
Journal of Telecommunications and Information Technology; 2010, 4; 26-36
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Spectral analysis by a video camera in a holographic optical tweezers setup
Autorzy:
Drobczynski, S
Dus-Szachniewicz, K
Symonowicz, K.
Glogocka, D
Powiązania:
https://bibliotekanauki.pl/articles/174701.pdf
Data publikacji:
2013
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
holographic optical tweezers
power spectrum density
video analysis
Opis:
We discuss the basic parameters of the holographic tweezers equipped with a diode laser and cheap video camera. We compare these parameters with the system using a fast camera and high power Nd:YAG laser. The measured parameters are: the power spectra density calculated from tracing the position of the micron polystyrene beads and the trap stiffness. We show that this cheap optical tweezers system is sufficient for experiments in microbiology.
Źródło:
Optica Applicata; 2013, 43, 4; 739-746
0078-5466
1899-7015
Pojawia się w:
Optica Applicata
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronization of data recorded using acquisition stations with data from camera during the bubble departure
Autorzy:
Dzienis, P.
Mosdorf, R.
Powiązania:
https://bibliotekanauki.pl/articles/102394.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
experimental data synchronization
time series
video analysis
bubble departure
Opis:
In this study the first part of the experimental data was recorded in a data acquisition station, and another one was recorded with a high speed camera. The data recorded using the acquisition station was recorded with higher frequency than the time between two subsequent frames of the film. During the analysis of the experimental data the problem was related to the synchronization of measurement from acquisition station and data recorded with a camera. In this paper the method of synchronization of experimental data has been shown. A laser- phototransistor system has been used. The data synchronization was required in scaling of sampling frequency in the investigated time series.
Źródło:
Advances in Science and Technology. Research Journal; 2013, 7, 20; 29-34
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reconstruction of traffic situations from digital video-recording using method of volumetric kinetic mapping
Autorzy:
Kolla, Eduard
Ondruš, Ján
Vertal', Peter
Powiązania:
https://bibliotekanauki.pl/articles/263457.pdf
Data publikacji:
2019
Wydawca:
Sieć Badawcza Łukasiewicz. Przemysłowy Instytut Motoryzacji
Tematy:
traffic accidents
near-miss incidents
video analysis
accident reconstruction
PC-Crash
Opis:
In the past the traffic accident reconstruction was based in principle only on indirect methods that use accident marks and witness reports. These data were then used within backward reconstruction of event for determination of motion status of accident participants and expression of desirable quantities as are initial velocities, impact velocities, distances travelled or temporal conditions. These methods and their accuracy are dependent on the width of intervals of input quantities or on limited possibilities for motion synchronization between numerable participants of road traffic accidents. Existence of footage from CCTV cameras that captures traffic situations presents very valuable source of information about these accidents. The goal of the article is proposal of a volumetric kinetic mapping (VKM) method of accident reconstruction from CCTV footage. The method is based on synthesis of videoediting, videoanalysis and kinetic simulation using dedicated software for accident reconstruction. The method was furthermore validated for speed-time and distance-time variables by means of experimental test runs and by subsequent application of the method in the reconstruction of these tests using PC-Crash simulation software and two videoediting software packages. Results of the reconstructions of validation runs using VKM method were then verified by comparing them to the measured data from Corrsys Datron Microstar measuring system.
Źródło:
Archiwum Motoryzacji; 2019, 84, 2; 147-170
1234-754X
2084-476X
Pojawia się w:
Archiwum Motoryzacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pattern Recognition Algorithm for Eye Tracker Sensor Video Data Analysis
Autorzy:
Murawski, K.
Różanowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/1399387.pdf
Data publikacji:
2013-09
Wydawca:
Polska Akademia Nauk. Instytut Fizyki PAN
Tematy:
42.30.Sy
42.30.Va
07.05.Pj
Opis:
The aim of the paper is to discuss research conducted at the Military University of Technology as well as the Military Institute of Aviation Medicine. The essence of the research is to develop a pattern recognition algorithm for the analysis of data received from an eye tracker sensor. Data analysis can be done using computer vision algorithms. In the article the state of the art pattern recognition algorithms were presented. Particular attention was paid to the possibilities and limitations of their use. The main part of the paper is the presentation of the author's pattern recognition algorithm. In the paper we have also shown the results obtained by other techniques of image processing, which are frequently used to determine the position of the pupil of the eye on the image.
Źródło:
Acta Physica Polonica A; 2013, 124, 3; 509-512
0587-4246
1898-794X
Pojawia się w:
Acta Physica Polonica A
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Audio-Video Analysis Method of Public Speaking Videos to Detect Deepfake Threat
Metoda analizy audio-wideo filmów z wystąpień publicznych w celu wykrycia zagrożenia typu deepfake
Autorzy:
Wolański, Robert
Jędrasiak, Karol
Powiązania:
https://bibliotekanauki.pl/articles/35064097.pdf
Data publikacji:
2023
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
analysis of audio-video stream
detection of deepfake threats
analysis
public speeches
analiza strumienia audio-wideo
wykrywanie zagrożeń typu deepfake
analiza
wystąpienie publiczne
Opis:
Aim: The purpose of the article is to present the hypothesis that the use of discrepancies in audiovisual materials can significantly increase the effectiveness of detecting various types of deepfake and related threats. In order to verify this hypothesis, the authors proposed a new method that reveals inconsistencies in both multiple modalities simultaneously and within individual modalities separately, enabling them to effectively distinguish between authentic and altered public speaking videos. Project and methods: The proposed approach is to integrate audio and visual signals in a so-called fine-grained manner, and then carry out binary classification processes based on calculated adjustments to the classification results of each modality. The method has been tested using various network architectures, in particular Capsule networks – for deep anomaly detection and Swin Transformer – for image classification. Pre-processing included frame extraction and face detection using the MTCNN algorithm, as well as conversion of audio to mel spectrograms to better reflect human auditory perception. The proposed technique was tested on multimodal deepfake datasets, namely FakeAVCeleb and TMC, along with a custom dataset containing 4,700 recordings. The method has shown high performance in identifying deepfake threats in various test scenarios. Results: The method proposed by the authors achieved better AUC and accuracy compared to other reference methods, confirming its effectiveness in the analysis of multimodal artefacts. The test results confirm that it is effective in detecting modified videos in a variety of test scenarios which can be considered an advance over existing deepfake detection techniques. The results highlight the adaptability of the method in various architectures of feature extraction networks. Conclusions: The presented method of audiovisual deepfake detection uses fine inconsistencies of multimodal features to distinguish whether the material is authentic or synthetic. It is distinguished by its ability to point out inconsistencies in different types of deepfakes and, within each individual modality, can effectively distinguish authentic content from manipulated counterparts. The adaptability has been confirmed by the successful application of the method in various feature extraction network architectures. Moreover, its effectiveness has been proven in rigorous tests on two different audiovisual deepfake datasets.
Cel: Celem artykułu jest przedstawienie hipotezy, że wykorzystanie rozbieżności w materiałach audiowizualnych może znacznie zwiększyć skuteczność wykrywania różnych typów deepfake i związanych z nimi zagrożeń. W celu weryfikacji tej hipotezy autorzy zaproponowali nową metodę, która pozwala na ujawnienie niespójności zarówno w wielu modalnościach jednocześnie, jak i w obrębie poszczególnych modalności z osobna, umożliwiając skuteczne rozróżnienie autentycznych i zmienionych filmów z wystąpieniami publicznymi. Projekt i metody: Zaproponowane podejście polega na integracji sygnałów dźwiękowych i wizualnych w tzw. drobnoziarnisty sposób, a następnie przeprowadzeniu procesów klasyfikacji binarnej na podstawie obliczonych korekt wyników klasyfikacji każdej modalności. Metoda została przebadana z wykorzystaniem różnych architektur sieci, w szczególności sieci typu Capsule – do głębokiego wykrywania anomalii oraz Swin Transformer – do klasyfikacji obrazów. Przetwarzanie wstępne obejmowało ekstrakcję klatek i wykrywanie twarzy przy użyciu algorytmu MTCNN, a także konwersję audio na spektrogramy mel, aby lepiej odzwierciedlić ludzką percepcję słuchową. Zaproponowana technika została przetestowana na multimodalnych zbiorach danych deepfake, a mianowicie FakeAVCeleb i TMC, wraz z niestandardowym zbiorem zawierającym 4700 nagrań. Metoda wykazała wysoką skuteczność w rozpoznawaniu zagrożeń deepfake w różnych scenariuszach testowych. Wyniki: Metoda zaproponowana przez autorów osiągnęła lepsze AUC i dokładność w porównaniu z innymi metodami referencyjnymi, potwierdzając swoją skuteczność w analizie artefaktów multimodalnych. Rezultaty badań potwierdzają, że skutecznie pozwala wykryć zmodyfikowane filmy w różnych scenariuszach testowych – co można uznać za postęp w porównaniu z istniejącymi technikami wykrywania deepfake'ów. Wyniki podkreślają zdolność adaptacji metody w różnych architekturach sieci ekstrakcji cech. Wnioski: Przedstawiona metoda audiowizualnego wykrywania deepfake'ów wykorzystuje drobne niespójności cech wielomodalnych do rozróżniania, czy materiał jest autentyczny czy syntetyczny. Wyróżnia się ona zdolnością do wskazywania niespójności w różnych typach deepfake'ów i w ramach każdej indywidualnej modalności potrafi skutecznie odróżniać autentyczne treści od zmanipulowanych odpowiedników. Możliwość adaptacji została potwierdzona przez udane zastosowanie omawianej metody w różnych architekturach sieci ekstrakcji cech. Ponadto jej skuteczność została udowodniona w rygorystycznych testach na dwóch różnych audiowizualnych zbiorach danych typu deepfake.
Źródło:
Safety and Fire Technology; 2023, 62, 2; 172-180
2657-8808
2658-0810
Pojawia się w:
Safety and Fire Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza ruchu pieszych na podstawie danych z automatycznego systemu rozpoznawania pojazdów i pieszych. Cz. 1, Opis badań i analiza obrazów wideo
Pedestrian traffic analysis based on data from automatic vehicle and pedestrian recognition system
Autorzy:
Szulecki, Artur
Szagała, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/2057818.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
przejścia dla pieszych
zachowania pieszych
analiza obrazu wideo
pedestrian crossing
pedestrian behavior
video analysis
Opis:
W artykule opisano metody badawcze oraz przedstawiono technologie i narzędzia, za pomocą których starano się zarówno zebrać, przechowywać, przetwarzać, jak i analizować dane dotyczące ruchu na przejściach dla pieszych. Przedstawiono podstawowe charakterystyki ruchu pieszego zebrane na podstawie obrazu z systemu automatycznego rozpoznawania pieszych i pojazdów. Wykonana analiza udowodniła istnienie różnic pomiędzy zachowaniem pieszych przechodzących w grupie i pojedynczo. Jako grupę traktować należy pieszych, którzy przechodzą przez jezdnię w tym samym kierunku przynajmniej w liczbie dwóch osób.
This paper describes the research methods and presents the technologies and tools by which it sought to both collect, store, process and analyze the data concerning traffic at pedestrian crossings. The basic characteristics of pedestrian traffic collected from the automatic pedestrian and vehicle recognition system are presented. The analysis proved the existence of the differences between the behavior of the pedestrians crossing in a group and those crossing separately. A group should be considered to be pedestrians who cross the road in the same direction in the number of at least two people.
Źródło:
Drogownictwo; 2021, 11-12; 295--308
0012-6357
Pojawia się w:
Drogownictwo
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies