Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "artificial intelligence act" wg kryterium: Wszystkie pola


Wyświetlanie 1-2 z 2
Tytuł:
Środki ochrony praw jednostki wobec wdrażania algorytmicznych systemów decyzyjnych do administracji publicznej – między prawem europejskim a prawem krajowym
Measures for the protection of individual rights in the face of the implementation of algorithmic decision-making systems in public administration - between European and national law
Autorzy:
Gontarz, Igor
Powiązania:
https://bibliotekanauki.pl/articles/30098205.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Szczeciński. Wydawnictwo Naukowe Uniwersytetu Szczecińskiego
Tematy:
algorithmic decision-making systems
artificial intelligence act
judicial review of administration
protection of the individual
right to good administration
algorytmiczne systemy decyzyjne
akt w sprawie sztucznej inteligencji
sądowa kontrola administracji
ochrona jednostki
prawo do dobrej administracji
Opis:
Wdrażanie do administracji publicznej algorytmicznych systemów decyzyjnych może stanowić zagrożenie dla praworządności, demokracji oraz prawa do dobrej administracji. Zarządzanie ryzykiem w tym względzie mają umożliwić instrumenty przewidziane w europejskim projekcie rozporządzenia w sprawie sztucznej inteligencji. Celem niniejszej pracy jest ustalenie sytuacji prawnej jednostki na gruncie wspomnianego aktu, a następnie odniesienie jej do założeń propozycji legislacyjnej Europejskiego Instytutu Prawa i przepisów polskiego prawa administracyjnego. W badaniach zastosowano metodę dogmatycznoprawną oraz komparatystyczną w zakresie odniesień do prawa common law obowiązującego w Zjednoczonym Królestwie. Z przeprowadzonej analizy wynika, że europejski projekt rozporządzenia całkowicie pomija jednostkę, nie przyznając jej środków prawnych wobec wdrażania wspomnianych systemów. Ochrona ta mogłaby zostać wzmocniona poprzez dopuszczenie skargi do organu nadzorczego, którego decyzje podlegałyby kontroli sądów administracyjnych, tak jak ma to miejsce w przepisach ogólnego rozporządzenia o ochronie danych. Przyjęcie tych rozwiązań do polskiego porządku prawnego mogłoby uzupełnić istniejący już model kontroli częściowo automatycznych decyzji administracji, zapewniając możliwość kwestionowania zasad ich podejmowania. Wymagałoby to jednak ustalenia tego, kto będzie miał interes prawny we wniesieniu skargi, na jakich zasadach mogłyby wziąć udział w postępowaniu organizacje społeczne oraz w jakiej relacji rozważane środki prawne powinny pozostawać w stosunku do pozostałych już funkcjonujących instrumentów, takich jak konsultacje społeczne w procesie legislacyjnym i ocena skutków regulacji.
The implementation of algorithmic decision-making systems in public administration can pose a risk to the rule of law, democracy, and the right to good administration. Risk management in this regard is intended to be enabled by the instruments provided for in the European draft act on artificial intelligence. The aim of this study is to establish the legal situation of an individual on the grounds of the aforementioned act, and then to relate it to the assumptions of the legislative proposal of the European Law Institute and the provisions of Polish administrative law. The research uses a dogmatic-legal method and a comparative method with regard to references to the common law in force in the United Kingdom. The analysis shows that the European draft regulation completely ignores the individual by not granting him/her legal remedies against the implementation of the said systems. Its protection could be strengthened by allowing complaints to the supervisory authority, whose decisions would be subject to review by administrative courts, as is the case under the provisions of the General Data Protection Regulation. Adoption of these solutions to the Polish legal order could complement the already existing model of control of partly automatic decisions of the administration, providing the possibility to challenge also the principles of their adoption. This would, however, require a determination of who would have a legal interest in lodging a complaint, the possibility for social organisations to participate in these proceedings, and the relationship to other legal instruments already in place, such as public consultations in the legislative process and impact assessments.
Źródło:
Acta Iuris Stetinensis; 2023, 46; 55-70
2083-4373
2545-3181
Pojawia się w:
Acta Iuris Stetinensis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Model systemowego przeciwdziałania dyskryminacji algorytmicznej – uwagi na tle projektu aktu w sprawie sztucznej inteligencji
A Model for Systemic Counteraction to Algorithmic Discrimination – Remarks on the Draft of Artificial Intelligence Act
Autorzy:
Ciosk, Kinga
Powiązania:
https://bibliotekanauki.pl/articles/3200829.pdf
Data publikacji:
2022-11-16
Wydawca:
Wyższa Szkoła Humanitas
Tematy:
sztuczna inteligencja
proces rekrutacyjny
kandydat do pracy
funkcja ochronna
wyjaśnialność sztucznej inteligencji
dyskryminacja algorytmiczna
algorytmiczne podejmowanie decyzj
artificial intelligence
recruitment process
job candidate
protective function
artificial intelligence explainability
algorithmic discrimination
algorithmic decision making
Opis:
Celem niniejszego opracowania jest analiza zasadności modelu systemowego przeciwdziałania aktom dyskryminacji algorytmicznej, do których dochodzić może na skutek zastosowania systemów sztucznej inteligencji w procesach rekrutacyjnych. Autorka przedmiotowy problem analizuje zarówno z perspektywy możliwości zapobiegania aktom dyskryminacji poprzez realizację należnych uprawnień przez kandydatów do pracy, jak i przepisów projektowanego unijnego rozporządzenia w sprawie sztucznej inteligencji, które poddaje ocenie, formułując postulaty de lege ferenda. Analizy zagadnienia systemowego przeciwdziałania aktom dyskryminacji algorytmicznej dokonuje również przez pryzmat założeń ochronnej funkcji prawa pracy.
The purpose of this paper is to analyze the validity of a systemic model for counteracting acts of algorithmic discrimination that may occur as a result of the use of artificial intelligence systems in recruitment processes. The author analyses the problem both from the perspective of the possibility to prevent acts of discrimination through the realization of due rights by job candidates and from the perspective of the provisions of the proposed EU regulation on artificial intelligence, which she assesses and formulates de lege ferenda postulates. She also analyses the issue of systemic prevention of acts of algorithmic discrimination considering the protective function of labor law.
Źródło:
Roczniki Administracji i Prawa; 2022, 2(XXII); 317-332
1644-9126
Pojawia się w:
Roczniki Administracji i Prawa
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies