Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "deepfake" wg kryterium: Temat


Tytuł:
Political deepfake. Remarks de lege lata and postulates de lege ferenda
Autorzy:
Ziobroń, Agata
Powiązania:
https://bibliotekanauki.pl/articles/32873070.pdf
Data publikacji:
2024
Wydawca:
Krakowska Akademia im. Andrzeja Frycza Modrzewskiego
Tematy:
deepfake
election
politician
artistic deepfake
illicit act
Opis:
In the paper the phenomenon of political deepfake was discussed, constituting the type of political deepfake deriving from original deepfake classification regarding to the aim. It was concluded, that currently functioning measures may be insufficient. The proposition of new potential type of illicit act was formulated, differentiating socially harmful deepfake from artistic deepfake.
Źródło:
Studia Prawnicze: rozprawy i materiały; 2024, 34, 1; 79-95
1689-8052
2451-0807
Pojawia się w:
Studia Prawnicze: rozprawy i materiały
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Problem of Criminal Liability for Generating Pornography Using Artificial Intelligence
Autorzy:
Niedbała, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/46629868.pdf
Data publikacji:
2023-12-15
Wydawca:
Akademia Leona Koźmińskiego w Warszawie
Tematy:
artificial intelligence
child pornography
criminal law
deepfake
Opis:
The process of advancement of artificial intelligence (hereinafter: AI) seen in recent years results in breakthroughs in many areas of human life, such as medicine, agriculture, and science. However, despite its many advantages and benefits, it also inevitably creates room for abuse. This is particularly true of child pornography, where AI systems are increasingly being used to generate nude images of minors – both existing in reality and fictional. These cases, given much attention in the public debate, cause doubts as to whether existing normative solutions are suitable to combat this new phenomenon. The article aims to answer the question of whether the existing law makes it possible to successfully prosecute perpetrators who use AI systems to generate child pornography (including that depicting fictional characters). In addition, it also offers an analysis of the criminal liability of the developers of the AI systems used in this process and of the hosting providers managing the websites used to distribute such pornographic content.
Źródło:
Krytyka Prawa. Niezależne Studia nad Prawem; 2023, 15, 4; 69-79
2080-1084
2450-7938
Pojawia się w:
Krytyka Prawa. Niezależne Studia nad Prawem
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dylemat odpowiedzialności karnej z tytułu generowania pornografii przy wykorzystaniu sztucznej inteligencji
Autorzy:
Niedbała, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/46630438.pdf
Data publikacji:
2023-12-15
Wydawca:
Akademia Leona Koźmińskiego w Warszawie
Tematy:
sztuczna inteligencja
pornografia dziecięca
prawo karne
deepfake
Opis:
Obserwowany w ostatnich latach proces rozwoju sztucznej inteligencji (dalej: SI) prowadzi do przełomowych osiągnięć w wielu dziedzinach ludzkiego życia, takich jak medycyna, rolnictwo czy nauka. Niemniej, pomimo licznych wynikających z niego korzyści, proces ten w sposób nieunikniony stwarza również pole do nowych nadużyć. Dotyczy to w sposób szczególny pornografii dziecięcej, w przypadku której systemy SI coraz częściej wykorzystywane są do generowania nagich wizerunków małoletnich, zarówno istniejących w rzeczywistości, jak i fikcyjnych. Przypadki te, głośno komentowane w debacie publicznej, prowadzą do wątpliwości, czy obowiązujące rozwiązania normatywne dostosowane są do zwalczania tego nowego zjawiska. Celem artykułu jest udzielenie odpowiedzi na pytanie, czy de lege lata możliwe jest skuteczne pociągnięcie do odpowiedzialności karnej sprawców wykorzystujących systemy SI do generowania pornografii dziecięcej (także przedstawiającej fikcyjne postaci). Dodatkowo analizie poddano odpowiedzialność karną twórców wykorzystywanych w tym procesie systemów SI oraz podmiotów świadczących usługi hostingu zarządzających stronami internetowymi wykorzystywanymi do rozpowszechniania owych materiałów pornograficznych.
Źródło:
Krytyka Prawa. Niezależne Studia nad Prawem; 2023, 15, 4; 56-68
2080-1084
2450-7938
Pojawia się w:
Krytyka Prawa. Niezależne Studia nad Prawem
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The new sexual offences in the light of digitalisation
Autorzy:
Ambrus, István
Powiązania:
https://bibliotekanauki.pl/articles/48899286.pdf
Data publikacji:
2023-01-23
Wydawca:
Uniwersytet Warszawski. Wydawnictwa Uniwersytetu Warszawskiego
Tematy:
criminal law
cyberflashing
deepfake
revenge porn
upskirting
Opis:
Digitalisation has given rise to many new types of offences against sexual autonomy that previously either did not exist or at least were not so easily and quickly perpetrated. The first of these is the category of deepfakes. The term “deep” refers to the deep learning, AI-based technology; “fake” denotes a manipulation, which, in summary, is the use of algorithms to manipulate images or video footage to make it possible to mount someone’s face in a lifelike form on the footage – typically pornographic footage – that does not initially depict them. In practice, however, deepfakes are used not only in connection with pornographic content but often also to discredit political or business opponents. Revenge porn usually involves publishing pornographic images of the victim by the former partner out of jealousy or revenge for the break-up of a relationship. Such images or videos may be of the (typically nude) victim himself or herself, a sexual act between the perpetrator and the victim, or may be manipulated images rather than real ones, where revenge pornography is combined with deepfakes. Upskirting literally means “photographing under a skirt”, which typically involves taking unauthorised pictures or videos of female victims’ crotches. Of course, cameras existed before the advent of digitalisation, but it is only in the last decade or so that large numbers of people have a smartphone with the ability to take high-quality pictures of virtually every passer-by. Unfortunately, technological progress in this area has had a criminogenic effect, since it is easy to take such pictures or videos of an unsuspecting victim quickly and often unnoticed using a mobile phone. Cyberflashing is the phenomenon of sending a picture or video of the offender’s genitalia to the victim via a digital device without prior consent or agreement.
Źródło:
Studia Iuridica; 2022, 93; 7-19
0137-4346
Pojawia się w:
Studia Iuridica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fake Mirroring in Cyberspace as a Disinformation Tool – Doppelgangers and Deepfakes
Autorzy:
Gergelewicz, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/31341992.pdf
Data publikacji:
2024-05-09
Wydawca:
Akademia Sztuki Wojennej
Tematy:
information operations
artificial intelligence
disinformation
doppelganger
deepfake
social resilience
Opis:
The article aims to present two hostile tools employed in the cybersphere against internet users. The first one is doppelganger, and the second one is deepfake. The paper highlights some examples of using both to influence the social cognitive dimension in the infosphere. Diagrams and charts presented in the article depict the vast scope between society and the media, which is the main source of information and the nest for disinformation. The article discusses the use of artificial intelligence for hostile purposes and the possible means by which to gain resilience against disinformation.
Źródło:
Cybersecurity and Law; 2024, 11, 1; 162-184
2658-1493
Pojawia się w:
Cybersecurity and Law
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Audio-Video Analysis Method of Public Speaking Videos to Detect Deepfake Threat
Metoda analizy audio-wideo filmów z wystąpień publicznych w celu wykrycia zagrożenia typu deepfake
Autorzy:
Wolański, Robert
Jędrasiak, Karol
Powiązania:
https://bibliotekanauki.pl/articles/35064097.pdf
Data publikacji:
2023
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
analysis of audio-video stream
detection of deepfake threats
analysis
public speeches
analiza strumienia audio-wideo
wykrywanie zagrożeń typu deepfake
analiza
wystąpienie publiczne
Opis:
Aim: The purpose of the article is to present the hypothesis that the use of discrepancies in audiovisual materials can significantly increase the effectiveness of detecting various types of deepfake and related threats. In order to verify this hypothesis, the authors proposed a new method that reveals inconsistencies in both multiple modalities simultaneously and within individual modalities separately, enabling them to effectively distinguish between authentic and altered public speaking videos. Project and methods: The proposed approach is to integrate audio and visual signals in a so-called fine-grained manner, and then carry out binary classification processes based on calculated adjustments to the classification results of each modality. The method has been tested using various network architectures, in particular Capsule networks – for deep anomaly detection and Swin Transformer – for image classification. Pre-processing included frame extraction and face detection using the MTCNN algorithm, as well as conversion of audio to mel spectrograms to better reflect human auditory perception. The proposed technique was tested on multimodal deepfake datasets, namely FakeAVCeleb and TMC, along with a custom dataset containing 4,700 recordings. The method has shown high performance in identifying deepfake threats in various test scenarios. Results: The method proposed by the authors achieved better AUC and accuracy compared to other reference methods, confirming its effectiveness in the analysis of multimodal artefacts. The test results confirm that it is effective in detecting modified videos in a variety of test scenarios which can be considered an advance over existing deepfake detection techniques. The results highlight the adaptability of the method in various architectures of feature extraction networks. Conclusions: The presented method of audiovisual deepfake detection uses fine inconsistencies of multimodal features to distinguish whether the material is authentic or synthetic. It is distinguished by its ability to point out inconsistencies in different types of deepfakes and, within each individual modality, can effectively distinguish authentic content from manipulated counterparts. The adaptability has been confirmed by the successful application of the method in various feature extraction network architectures. Moreover, its effectiveness has been proven in rigorous tests on two different audiovisual deepfake datasets.
Cel: Celem artykułu jest przedstawienie hipotezy, że wykorzystanie rozbieżności w materiałach audiowizualnych może znacznie zwiększyć skuteczność wykrywania różnych typów deepfake i związanych z nimi zagrożeń. W celu weryfikacji tej hipotezy autorzy zaproponowali nową metodę, która pozwala na ujawnienie niespójności zarówno w wielu modalnościach jednocześnie, jak i w obrębie poszczególnych modalności z osobna, umożliwiając skuteczne rozróżnienie autentycznych i zmienionych filmów z wystąpieniami publicznymi. Projekt i metody: Zaproponowane podejście polega na integracji sygnałów dźwiękowych i wizualnych w tzw. drobnoziarnisty sposób, a następnie przeprowadzeniu procesów klasyfikacji binarnej na podstawie obliczonych korekt wyników klasyfikacji każdej modalności. Metoda została przebadana z wykorzystaniem różnych architektur sieci, w szczególności sieci typu Capsule – do głębokiego wykrywania anomalii oraz Swin Transformer – do klasyfikacji obrazów. Przetwarzanie wstępne obejmowało ekstrakcję klatek i wykrywanie twarzy przy użyciu algorytmu MTCNN, a także konwersję audio na spektrogramy mel, aby lepiej odzwierciedlić ludzką percepcję słuchową. Zaproponowana technika została przetestowana na multimodalnych zbiorach danych deepfake, a mianowicie FakeAVCeleb i TMC, wraz z niestandardowym zbiorem zawierającym 4700 nagrań. Metoda wykazała wysoką skuteczność w rozpoznawaniu zagrożeń deepfake w różnych scenariuszach testowych. Wyniki: Metoda zaproponowana przez autorów osiągnęła lepsze AUC i dokładność w porównaniu z innymi metodami referencyjnymi, potwierdzając swoją skuteczność w analizie artefaktów multimodalnych. Rezultaty badań potwierdzają, że skutecznie pozwala wykryć zmodyfikowane filmy w różnych scenariuszach testowych – co można uznać za postęp w porównaniu z istniejącymi technikami wykrywania deepfake'ów. Wyniki podkreślają zdolność adaptacji metody w różnych architekturach sieci ekstrakcji cech. Wnioski: Przedstawiona metoda audiowizualnego wykrywania deepfake'ów wykorzystuje drobne niespójności cech wielomodalnych do rozróżniania, czy materiał jest autentyczny czy syntetyczny. Wyróżnia się ona zdolnością do wskazywania niespójności w różnych typach deepfake'ów i w ramach każdej indywidualnej modalności potrafi skutecznie odróżniać autentyczne treści od zmanipulowanych odpowiedników. Możliwość adaptacji została potwierdzona przez udane zastosowanie omawianej metody w różnych architekturach sieci ekstrakcji cech. Ponadto jej skuteczność została udowodniona w rygorystycznych testach na dwóch różnych audiowizualnych zbiorach danych typu deepfake.
Źródło:
Safety and Fire Technology; 2023, 62, 2; 172-180
2657-8808
2658-0810
Pojawia się w:
Safety and Fire Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
LEGAL ASPECTS OF DEEPFAKES
PRAWNE ASPEKTY DEEPFAKES
Autorzy:
Langer, Maciej
Wyczik, Jakub
Powiązania:
https://bibliotekanauki.pl/articles/2053382.pdf
Data publikacji:
2021-04-20
Wydawca:
Wyższa Szkoła Humanitas
Tematy:
deepfake
liability
artificial intelligence
elections
nonconsensual pornography
odpowiedzialność
sztuczna inteligencja
wybory
pornografia
bez zgody
Opis:
The purpose of this article is to bring closer the legal aspects of deepfake. Beginning with what exactly deepfake is and what its history is, in what areas it is and can be used and what risks and benefits it brings. This article distinguishes between civil law and criminal law aspects. Furthermore, the authors have indicated examples of legal regulations of deepfake, which were adopted in such legal systems as the USA or China. At the end of the article, the authors give the potential evolutionary paths of legal solutions concerning deepfake technology.
Celem niniejszego artykułu jest przybliżenie prawnych aspektów deepfake. Poczynając od tego, czym dokładnie jest deepfake i jaka jest jego historia, w jakich obszarach jest i może być stosowany oraz jakie ryzyko i korzyści przynosi. W artykule dokonano rozróżnienia między aspektami prawa cywilnego i karnego. Ponadto autorzy wskazali przykłady regulacji prawnych dotyczących deepfake, które zostały przyjęte w takich systemach prawnych jak USA czy Chiny. Na końcu artykułu autorzy podają potencjalne ścieżki ewolucji rozwiązań prawnych dotyczących technologii deepfake.
Źródło:
Roczniki Administracji i Prawa; 2020, 4, XX; 205-212
1644-9126
Pojawia się w:
Roczniki Administracji i Prawa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rosyjska dezinformacja i wykorzystanie obrazów generowanych przez sztuczną inteligencję (deepfake) w pierwszym roku inwazji na Ukrainę
Russian disinformation and use of AI-generated images in the first year of the invasion of Ukraine
Autorzy:
Majchrzak, Adam
Powiązania:
https://bibliotekanauki.pl/articles/31339543.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Gdański. Wydawnictwo Uniwersytetu Gdańskiego
Tematy:
dezinformacja
dezinformacja rosyjska
rosyjska inwazja
sztuczna inteligencja
deepfake
disinformation
Russian disinformation
Russian invasion
artificial intelligence
Opis:
W artykule poruszono kwestię wykorzystania obrazów generowanych przy użyciu sztucznej inteligencji w ramach dezinformacji w pierwszym roku rosyjskiej inwazji na Ukrainę (24.02.2022–24.02.2023). Na podstawie przeglądu literatury, raportów oraz przekazów medialnych w językach polskim, angielskim, ukraińskim i rosyjskim wyróżniono przykłady użycia deepfake w rosyjskiej dezinformacji i oceniono, w jaki sposób użyto takiej technologii, a także jakie było jej znaczenie w teoretycznym kontekście.
The article addresses the issue of the use of images generated with the use of artificial intelligence as part of disinformation in the first year of the Russian invasion of Ukraine (24.02.2022–24.02.2023). Based on the review of the literature, reports and media coverage in Polish, English, Ukrainian and Russian, examples of the use of deepfake in Russian disinformation were highlighted and how such technology was used and what was its significance in a theoretical context.
Źródło:
Media Biznes Kultura; 2023, 1(14); 73-86
2451-1986
2544-2554
Pojawia się w:
Media Biznes Kultura
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza potencjału ataków wykorzystujących syntetycznie wygenerowane głosy na systemy biometrycznej weryfikacji mówców oraz wykrywania materiałów deepfake
Autorzy:
Bartuzi-Trokielewicz, Ewelina
Powiązania:
https://bibliotekanauki.pl/articles/31342041.pdf
Data publikacji:
2024-05-20
Wydawca:
Akademia Sztuki Wojennej
Tematy:
cyberbezpieczeństwo
biometria
weryfikacja mówców
audio deepfake
syntetyczne głosy
metody sztucznej inteligencji
uczenie maszynowe
uczenie głębokie
Opis:
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do rozwoju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod konwersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.
Źródło:
Cybersecurity and Law; 2024, 12, 2; 25-36
2658-1493
Pojawia się w:
Cybersecurity and Law
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zagrożenia hybrydowe bezpieczeństwa informacyjnego państwa
Hybrid threats to state information security
Autorzy:
Wyrębek, Henryk
Powiązania:
https://bibliotekanauki.pl/articles/22446462.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
disinformation
countering disinformation
fake news
deepfake
hybrid attacks
hybrid warfare
dezinformacja
przeciwdziałanie dezinformacji
ataki hybrydowe
wojna hybrydowa
Opis:
Aneksja Krymu oraz początki rosyjskiej agresji w Donbasie zapoczątkowały szerokie wykorzystanie w dyskursie publicystycznym i rozważaniach naukowych pojęcia zagrożenia hybrydowe, które wiąże się z takimi zagrożeniami, jak rozpowszechnianie fałszywych informacji i manipulowanie nimi w sposób podważający zaufanie społeczeństwa do władzy oraz rozpowszechnianie informacji kompromitujących polityków. Podejmując próbę osłabienia umowy społecznej, która łączy państwo i jego wyborców, podmiot prowadzący działania hybrydowe próbuje podważyć zaufanie między instytucjami państwowymi a obywatelami. W rezultacie państwo traci swoją legitymizację – która jest w dużej mierze funkcją zaufania publicznego – a co za tym idzie, traci zdolność do działania, jak stwierdził Thomas Hobbes w 1651 roku w dziele Lewiatan. W konsekwencji grupa zagrożeń hybrydowych odnoszących się do działań informacyjnych niszczy zarówno fundamenty ideowe, jak i zdolność państwa do sprawnego funkcjonowania. W artykule podjęto próbę analizy i oceny istoty zagrożeń hybrydowych mających duży wpływ na obniżenie poziomu bezpieczeństwa informacyjnego państwa.
The annexation of Crimea and the beginnings of Russian aggression in the Donbass area have sparked widespread use in journalistic discourse and scholarly considerations of the concept of hybrid threats. With threats such as spreading false information and manipulating it in a way that undermines the public's trust in government and spreading information that compromises politicians. By attempting to undermine the social contract that binds the state and its constituents, a hybrid actor seeks to undermine trust between state institutions and citizens. As a result, the state loses its legitimacy - which is largely a function of public trust - and thus loses its ability to act as Thomas Hobbes argued in his 1651 work Leviathan. Consequently, a group of hybrid threats pertaining to information activities destroys both the ideological foundations and the state's ability to function smoothly. The article attempts to analyze and assess the essence of hybrid threats that have a major impact on the reduction of the state's information security.
Źródło:
Polityka i Społeczeństwo; 2023, 21, 1; 315-330
1732-9639
Pojawia się w:
Polityka i Społeczeństwo
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies