- Tytuł:
-
Sumienie maszyny? Sztuczna inteligencja i problem odpowiedzialności moralnej
The Conscience of a Machine? Artificial Intelligence and the Problem of Moral Responsibility - Autorzy:
-
Wieczorek, Krzysztof Tomasz
Jędrzejko, Paweł - Powiązania:
- https://bibliotekanauki.pl/articles/1912551.pdf
- Data publikacji:
- 2021-09-03
- Wydawca:
- Wydawnictwo Uniwersytetu Śląskiego
- Tematy:
-
sztuczna inteligencja
etyka
reinforcement learning
autonomia decyzyjna
artificial intelligence
ethics
decision-making autonomy - Opis:
-
Przyspieszający postęp w dziedzinie inteligentnych technologii rodzi nowe wyzwania etyczne, z którymi w dłuższej lub krótszej perspektywie ludzkość będzie musiała się zmierzyć. Nieuniknionym elementem owego postępu jest rosnąca autonomia w zakresie podejmowania decyzji przez maszyny i systemy, nienadzorowane bezpośrednio przez człowieka. Co najmniej niektóre z tych decyzji będą rodzić konflikty i dylematy moralne. Już dziś warto się zastanowić nad tym, jakie środki są niezbędne, by przyszłe autonomiczne, samouczące i samoreplikujące się obiekty, wyposażone w sztuczną inteligencję i zdolne do samodzielnego działania w dużym zakresie zmienności warunków zewnętrznych, wyposażyć w specyficzny rodzaj inteligencji etycznej. Problem, z którym muszą się zmierzyć zarówno konstruktorzy, jak i użytkownicy tworów obdarzonych sztuczną inteligencją, polega na konieczności optymalnego wyważenia racji, potrzeb i interesów między obiema stronami ludzko-nieludzkiej interakcji. W sytuacji rosnącej autonomii maszyn przestaje bowiem wystarczać etyka antropocentryczna. Potrzebny jest nowy, poszerzony i zmodyfikowany model etyki, który pozwoli przewidzieć i objąć swoim zakresem dotychczas niewystępujący obszar równorzędnych relacji człowieka i maszyny. Niektórym aspektom tego zagadnienia poświęcony jest niniejszy artykuł.
The ever-accelerating progress in the area of smart technologies gives rise to new ethical challenges, which humankind will sooner or later have to face. An inevitable component of this progress is the increase in the autonomy of the decision-making processes carried out by machines and systems functioning without direct human control. At least some of these decisions will generate conflicts and moral dilemmas. It is therefore worth the while to reflect today upon the measures that need to be taken in order to endow the autonomous, self-learning and self-replicating entities – products equipped with artificial intelligence and capable of independent operation in a wide variety of external conditions and circumstances – with a unique kind of ethical intelligence. At the core of the problem, which both the designers and the users of entities bestowed with artificial intelligence must eventually face, lies the question of how to attain the optimal balance between the goals, needs and interests of both sides of the human-non-human interaction. It is so, because in the context of the expansion of the autonomy of the machines, the anthropocentric model of ethics does no longer suffice. It is therefore necessary to develop a new, extended and modified, model of ethics: a model which would encompass the whole, thus far non-existent, area of equal relations between the human and the machine, and which would allow one to predict its dynamics. The present article addresses some of the aspects of this claim. - Źródło:
-
ER(R)GO: Teoria – Literatura – Kultura; 2021, 42; 15-34
1508-6305
2544-3186 - Pojawia się w:
- ER(R)GO: Teoria – Literatura – Kultura
- Dostawca treści:
- Biblioteka Nauki