Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Autonomiczność systemów sztucznej inteligencji jako wyzwanie dla prawa karnego

Tytuł:
Autonomiczność systemów sztucznej inteligencji jako wyzwanie dla prawa karnego
Criminal Liability of a Person Preparing a False Private Opinion for the Purposes of a Criminal Trial
Autorzy:
Rejmaniak, Rafał
Powiązania:
https://bibliotekanauki.pl/articles/2040393.pdf
Data publikacji:
2021-12-14
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Źródło:
Roczniki Nauk Prawnych; 2021, 31, 3; 95-113
1507-7896
2544-5227
Język:
polski
Prawa:
CC BY-NC-ND: Creative Commons Uznanie autorstwa - Użycie niekomercyjne - Bez utworów zależnych 4.0
Dostawca treści:
Biblioteka Nauki
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie
Opracowanie jest próbą przedstawienia wyzwań niesionych przez rozwój systemów sztucznej inteligencji dla prawa karnego. Wraz ze wzrostem autonomiczności systemu SI maleje rola człowieka, co generuje problem w zakresie ustalenia podmiotu, któremu należałoby przypisać odpowiedzialność karną za ewentualne narażanie lub naruszanie przez działanie systemu dóbr prawnie chronionych. W przypadku systemów o stosunkowo niskim stopniu autonomiczności, z reguły człowiek będzie odpowiedzialny za wywołane przez nie skutki. W odniesieniu do systemów bardziej zaawansowanych człowiek może ponosić odpowiedzialność jako gwarant nienastąpienia skutku, jeżeli obowiązek zapobiegnięcia skutkowi miał szczególny prawny charakter. Największe i, jak dotąd, nierozwiązane problemy z przypisaniem odpowiedzialności karnej powodować jednak będą potencjalne w pełni autonomiczne systemy SI.

Challenges of a previously unknown nature. One of the key problems in criminal law related to the dissemination of artificial intelligence systems is determining the entity responsible for possible violations of legally protected goods caused by such systems. The aim of the study is an attempt to answer the question: how the increase in the level of autonomy of artificial intelligence systems affects the possibility of assigning criminal liability under Polish law for the effects caused by the actions of such systems. The article will analyze the challenges posed by AI systems with varying degrees of autonomy and will examine the possibilities of using the guarantor’s concept as the entity responsible for harm caused by AI system.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies