Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Kreft, Jan" wg kryterium: Wszystkie pola


Wyświetlanie 1-1 z 1
Tytuł:
Halucynacje chatbotów a prawda: główne nurty debaty i ich interpretacje
Chatbot Hallucinations vs. Truth: Mainstream Debates and Their Interpretations
Autorzy:
Kreft, Jan
Boguszewicz-Kreft, Monika
Cyrek, Barbara
Powiązania:
https://bibliotekanauki.pl/articles/30147145.pdf
Data publikacji:
2024
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
chatbots
disinformation
artificial intelligence
chatboty
dezinformacja
sztuczna inteligencja
Opis:
Generatywne systemy sztucznej inteligencji (SI) są w stanie tworzyć treści medialne poprzez zastosowanie uczenia maszynowego do dużych ilości danych szkoleniowych. Te nowe dane mogą obejmować tekst (np. Bard firmy Google, LLaMa firmy Meta lub ChatGPT firmy OpenAI) oraz elementy wizualne (np. Stable Diffusion lub DALL-E OpenAI) i dźwięk (np. VALL-E firmy Microsoft). Stopień zaawansowania tych treści może czynić je nieodróżnialnymi od twórczości człowieka. Chatboty cechują się jednak tzw. halucynacjami, które w istotnej części są nowym rodzajem dezinformacji. Celem podjętych badań jest identyfikacja głównych nurtów debaty poświęconej skutkom wykorzystania sztucznej inteligencji ze szczególnym uwzględnieniem dezinformacji z udziałem chatbotów w środowisku mediów. W badaniu przyjęto metodę badawczą systematycznego przeglądu literatury ograniczającą m.in. błąd selekcji. Interpretacja głównych nurtów debaty skłania do wniosku, że dezinformacja chatbotów w postaci ich halucynacji jest znacząca pod względem skali, jest optymalizowana i personalizowana oraz ma istotny potencjał erodowania zaufania społecznego.
Generative artificial intelligence (AI) systems are able to create content by applying machine learning to large amounts of training data. This new data may include text (e.g. Bard by Google, LLaMa by Meta or ChatGPT by OpenAI) and visuals (e.g. Stable Diffusion or DALL-E by OpenAI) and audio (e.g. VALL-E by Microsoft). The level of sophistication of this content may make it indistinguishable from human work. However, chatbots are characterized by the so-called hallucinations, which are a new type of disinformation. The aim of the article is to identify the main trends in the debate on the effects of the use of artificial intelligence, with particular emphasis on disinformation involving chatbots in the media environment.
Źródło:
Roczniki Nauk Społecznych; 2024, 52, 1; 165-185
0137-4176
Pojawia się w:
Roczniki Nauk Społecznych
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-1 z 1

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies