Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Setlak, Piotr" wg kryterium: Autor


Wyświetlanie 1-4 z 4
Tytuł:
Rola Internetu w życiu studenta. Studium socjologiczne na podstawie badań empirycznych studentów Państwowej Wyższej Szkoły Zawodowej w Tarnobrzegu
Autorzy:
Setlak, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/700449.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
Internet, young Polish generation, students, sociological study, opinion polls, Tarnobrzeg
Opis:
Th e Role of the Internet in Student’s Life. Th e Sociological Study is Based on the Empirical Researches of the Students of State Higher Vocational School in TarnobrzegFor young Poles (and especially for the others who are studying) the skill of the usingnew informative technologies doesn’t make any problems as distinct from the elderly.Th e young oft en get most of the information about surrounding them world from theInternet. In the Internet they oft en make new friends, share their opinion, make newchat groups, exchange information, do online shopping, but we can notice that theuse of the Internet by the young people can have negative points. Th at’s why we canpose question concerning the role of the Internet in life of modern young Polish generation.Is the Internet a toy for the young which addict very fast? Maybe on contrary,the access to the Internet for them is a very signifi cant element which helps them tobuild a new type of society.
Źródło:
Jagiellońskie Studia Socjologiczne; 2014, 3
000000
Pojawia się w:
Jagiellońskie Studia Socjologiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Układy pomiarowe do monitorowania zespołów napędowych metodami FAM-C i FDM-A
Autorzy:
Michałowski, Piotr
Handzel, Kacper
Cieślik, Andrzej
Sibilski, Krzysztof
Setlak, Lucjan
Powiązania:
https://bibliotekanauki.pl/chapters/2045724.pdf
Data publikacji:
2021
Wydawca:
Instytut Techniczny Wojsk Lotniczych
Źródło:
Diagnozowanie zespołów napędowych śmigłowców metodą FAM-C; 225-256
9788361021940
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance of ChatGPT-3.5 and ChatGPT-4 in the field of specialist medical knowledge on National Specialization Exam in neurosurgery
Porównanie efektywności ChatGPT-3.5 i ChatGPT-4 w zakresie specjalistycznej wiedzy medycznej na przykładzie Państwowego Egzaminu Specjalizacyjnego z neurochirurgii
Autorzy:
Laskowski, Maciej
Ciekalski, Marcin
Laskowski, Marcin
Błaszczyk, Bartłomiej
Setlak, Marcin
Paździora, Piotr
Rudnik, Adam
Powiązania:
https://bibliotekanauki.pl/articles/51616770.pdf
Data publikacji:
2024-10-15
Wydawca:
Śląski Uniwersytet Medyczny w Katowicach
Tematy:
ChatGPT
neurosurgery
artificial intelligence (AI)
neurochirurgia
sztuczna inteligencja (AI)
Opis:
INTRODUCTION: In recent times, there has been an increased number of published materials related to artificial intelligence (AI) in both the medical field, and specifically, in the domain of neurosurgery. Studies integrating AI into neurosurgical practice suggest an ongoing shift towards a greater dependence on AI-assisted tools for diagnostics, image analysis, and decision-making. MATERIAL AND METHODS: The study evaluated the performance of ChatGPT-3.5 and ChatGPT-4 on a neurosurgery exam from Autumn 2017, which was the latest exam with officially provided answers on the Medical Examinations Center in Łódź, Poland (Centrum Egzaminów Medycznych – CEM) website. The passing score for the National Specialization Exam (Państwowy Egzamin Specjalizacyjny – PES) in Poland, as administered by CEM, is 56% of the valid questions. This exam, chosen from CEM, comprised 116 single-choice questions after eliminating four outdated questions. These questions were categorized into ten thematic groups based on the subjects they address. For data collection, both ChatGPT versions were briefed on the exam rules and asked to rate their confidence in each answer on a scale from 1 (definitely not sure) to 5 (definitely sure). All the interactions were conducted in Polish and were recorded. RESULTS: ChatGPT-4 significantly outperformed ChatGPT-3.5, showing a notable improvement with a 29.4% margin (p < 0.001). Unlike ChatGPT-3.5, ChatGPT-4 successfully reached the passing threshold for the PES. ChatGPT-3.5 and ChatGPT-4 had the same answers in 61 questions (52.58%), both were correct in 28 questions (24.14%), and were incorrect in 33 questions (28.45%). CONCLUSIONS: ChatGPT-4 shows improved accuracy over ChatGPT-3.5, likely due to advanced algorithms and a broader training dataset, highlighting its better grasp of complex neurosurgical concepts.
WPROWADZENIE: W ostatnim czasie obserwuje się wzrost liczby opublikowanych artykułów dotyczących sztucznej inteligencji w dziedzinie medycyny, szczególnie w obszarze neurochirurgii. Badania dotyczące integracji sztucznej inteligencji z praktyką neurochirurgiczną wskazują na postępującą zmianę w kierunku szerszego wykorzystania narzędzi wspomaganych sztuczną inteligencją w diagnostyce, analizie obrazu i podejmowaniu decyzji. MATERIAŁ I METODY: W badaniu oceniono efektywność ChatGPT-3.5 i ChatGPT-4 na Państwowym Egzaminie Specjalizacyjnym (PES) z neurochirurgii przeprowadzonym jesienią 2017 r., który w czasie przeprowadzania badania był najnowszym dostępnym na stronie Centrum Egzaminów Medycznych (CEM) egzaminem z oficjalnie udostępnionymi odpowiedziami. Próg zdawalności egzaminu specjalizacyjnego wynosi 56% poprawnych odpowiedzi. Egzamin składał się ze 116 pytań jednokrotnego wyboru, po wyeliminowaniu czterech z uwagi na ich niezgodność z aktualną wiedzą. Ze względu na poruszane zagadnienia pytania podzielono na dziesięć grup tematycznych. Na potrzeby gromadzenia danych obie wersje ChatGPT zostały poinformowane o zasadach egzaminu i poproszone o ocenę stopnia pewności co do każdej odpowiedzi w skali od 1 (zdecydowanie niepewny) do 5 (zdecydowanie pewny). Wszystkie interakcje odbywały się w języku polskim i były rejestrowane. WYNIKI: ChatGPT-4 wyraźnie przewyższył ChatGPT-3.5 z różnicą wynoszącą 29,4% (p < 0,001). W przeciwieństwie do ChatGPT-3.5, ChatGPT-4 z sukcesem osiągnął próg zdawalności dla PES. W testach ChatGPT-3.5 i ChatGPT-4 odpowiedzi były takie same w 61 pytaniach (52,58%), w obu przypadkach były poprawne w 28 pytaniach (24,14%) i niepoprawne w 33 pytaniach (28,45%). WNIOSKI: ChatGPT-4 osiąga większą poprawność w udzielanych odpowiedziach w porównaniu z ChatGPT-3.5, prawdopodobnie dzięki zaawansowanym algorytmom i szerszemu zbiorowi danych treningowych, co podkreśla lepsze zrozumienie złożonych koncepcji neurochirurgicznych.
Źródło:
Annales Academiae Medicae Silesiensis; 2024, 78; 253-258
1734-025X
Pojawia się w:
Annales Academiae Medicae Silesiensis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Diagnosing helicopter propulsion units with the FAM-C method
Autorzy:
Gębura, Andrzej
Zieja, Mariusz
Masiewicz, Mariusz
Kowalczyk, Henryk
Cieślik, Andrzej
Rokicki, Edward
Tokarski, Tomasz
Florczak, Jarosław
Kwiatkowski, Tadeusz
Handzel, Kacper
Kołcon, Andrzej
Poradowski, Michał
Michałowski, Piotr
Sibilski, Krzysztof
Setlak, Lucjan
Powiązania:
https://bibliotekanauki.pl/books/33500685.pdf
Data publikacji:
2024-07-01
Wydawca:
Instytut Techniczny Wojsk Lotniczych
Opis:
The monograph addresses the issue of diagnosing propulsion units of helicopters operated in the Polish Air Force from the perspective of diagnostic measurements via the innovative FAM-C and FDM-A methods. It contains seven chapters.
Dostawca treści:
Biblioteka Nauki
Książka
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies