Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "przetwarzanie języka" wg kryterium: Temat


Tytuł:
Zastosowanie gier skierowanych na cel do anotacji korpusów językowych
The applications of games with a purpose used for obtaining annotated language resources
Autorzy:
Włodarczyk, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/460019.pdf
Data publikacji:
2015
Wydawca:
Fundacja Pro Scientia Publica
Tematy:
gry skierowane na cel
GWAP
crowdsourcing
human computation
przetwarzanie języka naturalnego
sztuczna inteligencja, AI-zupełne
anotacja korpusu
Wordrobe
game with a purpose
natural language processing
artificial intelligence, AI-complete
corpus annotation
Opis:
Istnienie problemów AI-zupełnych przyczyniło się do poszukiwań alternatywnych sposobów rozwiązywania problemów sztucznej inteligencji, nie opartych wyłącznie na pracy komputera. Pomimo że komunikacja jest dla ludzi czymś oczywistym, nadal nie istnieje sposób jej automatyzacji. Aktualnie powszechnie stosowanym podejściem w rozwiązywaniu problemów NLP jest podejście statystyczne, którego powodzenie zależy od wielkości korpusu językowego. Przygotowanie rzetelnego zbioru danych jest zatem kluczowym aspektem tworzenia statystycznego systemu sztucznej inteligencji. Z uwagi na zaangażowanie specjalistów jest to proces czasochłonny i kosztowny. Jednym z obiecujących podejść, pomagających zredukować czas i koszt tworzenia otagowanego korpusu, jest korzystanie z gier skierowanych na cel. Ambicją niniejszej pracy jest przybliżenie poszczególnych etapów tworzenia gry przeznaczonej do pozyskania zasobów językowych oraz omówienie skuteczności jej działania. Analiza ta zostanie przeprowadzona na podstawie kolekcji gier Wordrobe wspierających anotacje korpusu języka naturalnego.
The existence of AI-complete problems has led to a growth in research of alternative ways of solving artificial intelligence problems, which are not based solely on the computer. Although for us communication is obvious, there is still no way automate it. The current widely-used approach to solving the problems of NLP is a statistical one, whose success depends on the size of the training corpus. The preparation of a reliable set of data is therefore a key aspect in creating an artificial intelligence statistical system. Due to the involvement of a large number of specialists this is a very time-consuming and expensive process. One promising approache in helping reduce the time and cost of creating a tagged corpus is the use of games with a purpose. The objective of this paper is to present the stages of creating games with a purpose used for obtaining annotated language resources and to discuss its effectiveness. This analysis will be done based on the Wordrobe project, a collection of games created to support the gathering of an annotated corpus of natural language.
Źródło:
Ogrody Nauk i Sztuk; 2015, 5; 112-220
2084-1426
Pojawia się w:
Ogrody Nauk i Sztuk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
When Negative Turns out to Be Positive: Exploring Changes in Word Associations in the Aftermath of the COVID-19 Pandemic
Kiedy negatywność staje się pozytywnością: badanie zmian w skojarzeniach słownych w następstwie pandemii Covid-19
Autorzy:
Raet, Mai
Powiązania:
https://bibliotekanauki.pl/articles/28394732.pdf
Data publikacji:
2023
Wydawca:
Krakowskie Towarzystwo TERTIUM
Tematy:
skojarzenia słowne
leksykon mentalny
COVID-19
koronamowa
przetwarzanie języka
język estoński
word associations
mental lexicon
corona language
language processing
Estonian
Opis:
The COVID-19 pandemic has had a significant impact on various aspects of society, including language and cognitive processes. This research investigates how the pandemic has influenced associations related to health-related words among 1,454 Estonian native speakers. Data collected between January and March 2023 were compared with a pre-pandemic dataset, the Dictionary of Estonian Word Associations (DEWA), compiled from 2016 to 2018. The study focuses on fifteen health-related cue words. The results revealed that five terms experienced significant changes in their association sequences concerning the COVID-19 crisis. Notably, among these 15 words, three stand out as the most significant cases where a change occurred in their primary responses: these typically exhibit the most robust and enduring associative links, making them less susceptible to change. This unveils shifts in the mental lexicon's representations and the evolving perceptions of specific words and concepts amidst the pandemic backdrop. These findings illustrate how unforeseen external disruptions, such as the COVID-19 crisis, can reconfigure the salience of certain concepts within language and cognition. This research contributes to our comprehension of the linguistic repercussions and potential language adaptations triggered by a health crisis. It also enriches the relatively understudied field of word association research, particularly in languages beyond the dominion of English.
Pandemia Covid-19 wywarła znaczący wpływ na różne aspekty życia społecznego, w tym na język i procesy poznawcze. W badaniu tym zbadano, jak pandemia wpłynęła na skojarzenia związane ze słowami związanymi ze zdrowiem wśród 1454 rodzimych użytkowników języka estońskiego. Dane zebrane między styczniem a marcem 2023 r. porównano ze zbiorem danych sprzed pandemii, słownikiem pt. „Dictionary of Estonian Word Associations” (DEWA), opracowanym w latach 2016–2018. W badaniu skupiono się na piętnastu słowach związanych ze zdrowiem. Wyniki wykazały, że, w związku z kryzysem związanym z Covid-19, pięć z tych słów doznało znaczących zmian w swoich ścieżkach skojarzeń. Warto zauważyć, że spośród badanych 15 słów trzy wyróżniają się jako najbardziej znaczące przypadki, gdzie nastąpiła zmiana w podstawowych reakcjach na nie; te zazwyczaj wykazują najsilniejsze i najtrwalsze powiązania skojarzeniowe, co czyni je mniej podatnymi na zmiany. Ten proces ujawnia zmiany w reprezentacjach leksykonu mentalnego oraz ewoluujące postrzeganie określonych słów i pojęć w kontekście pandemii. Wyniki te ilustrują, jak nieprzewidziane zakłócenia zewnętrzne, takie jak kryzys związany z Covid-19, mogą zmienić konfigurację znaczeń niektórych pojęć w obrębie języka i poznania. Niniejsze badanie przyczynia się do zrozumienia skutków językowych i procesów adaptacji języka wywołanych kryzysem zdrowotnym. Wzbogaca także stosunkowo słabo zbadaną dziedzinę badań nad skojarzeniami słów, szczególnie w językach spoza obszaru anglojęzycznego.
Źródło:
Półrocznik Językoznawczy Tertium; 2023, 8, 1; 71-98
2543-7844
Pojawia się w:
Półrocznik Językoznawczy Tertium
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
W kierunku automatycznej klasyfikacji języków naturalnych
Autorzy:
Handzel, Zbigniew
Gajer, Mirosław
Grabiński, Tadeusz
Luty, Zbigniew
Surowiec, Anna
Powiązania:
https://bibliotekanauki.pl/articles/2147414.pdf
Data publikacji:
2021-12-06
Wydawca:
Wyższa Szkoła Ekonomii i Informatyki w Krakowie
Tematy:
przetwarzanie języka naturalnego
lingwistyka komputerowa
klasyfikacja języków
computational linguistics
natural language processing
language classification
Opis:
Streszczenie: Klasyfikacja języków naturalnych jest jednym z głównych zadań językoznawstwa. Spośród różnych typów klasyfikacji języków najbardziej wiarygodną i miarodajną wydaje się być klasyfikacja typologiczna, która łączy języki w jednostki większego rzędu na podstawie podobieństwa ich cech strukturalnych. Podobieństwo typologiczne języków może być wynikiem zarówno ich pochodzenia od wspólnego przodka, czyli prajęzyka, jak i występujących zapożyczeń międzyjęzykowych dotyczących zarówno leksyki, jak i struktur składniowych. W artykule zamieszczono propozycję budowy systemu przeznaczonego do realizacji automatycznej klasyfikacji języków naturalnych ze względu na ich stopień podobieństwa typologicznego. Opracowany przez autorów system uwzględnia obecnie 72 języki należące głównie do indoeuropejskiej rodziny językowej. W systemie uwzględniono ponadto kilka języków należących do innych rodzin językowych oraz wybrane języki sztuczne typu naturalistycznego. Autorzy zaprezentowali program komputerowy służący do wyznaczania liczbowej miary stopnia wzajemnego podobieństwa systemów zaimków osobowych występujących w różnych językach świata. W przyszłości planowana jest budowa analogicznych systemów przeznaczonych do wyznaczania miary podobieństwa języków na podstawie automatycznej analizy wzorców koniugacyjnych czasowników oraz wzorców deklinacyjnych rzeczowników i przymiotników wybranych języków
Classification of natural languages is one of the main tasks of linguistics. Of the various types of language classification, the most reliable and authoritative seems to be the typological classification, which combines languages into units of a higher order on the basis of similarity of their structural features. The typological similarity of languages may be a result of both their origin from a common ancestor, i.e. a proto-language, and interlingual borrowings concerning both lexis and syntactic structures. The paper presents a proposal for the construction of a system intended for the automatic classification of natural languages according to their degree of typological similarity. The system developed by the authors currently includes 72 languages belonging mainly to the Indo-European language family. The system also includes several languages belonging to other language families and selected artificial languages of a naturalistic type. The authors have presented a computer programme for determining a numerical measure of the degree of mutual similarity between the systems of personal pronouns occurring in different languages of the world. In the future it is planned to build analogous systems to determine the measure of similarity between languages on the basis of automatic analysis of verb conjugation patterns and declension patterns of nouns and adjectives of selected languages.
Źródło:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie; 2021, 17; 53-70
1734-5391
Pojawia się w:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Traversing the Metaverse: the new frontiers for computer-mediated communication and natural language processing
Przemierzając metawersum: nowe granice w komunikacji zapośredniczonej przez komputer i w przetwarzaniu języka naturalnego
Autorzy:
Solska, Dagmara
Powiązania:
https://bibliotekanauki.pl/articles/2195900.pdf
Data publikacji:
2022-12-31
Wydawca:
Ateneum - Akademia Nauk Stosowanych w Gdańsku
Tematy:
metaverse
virtual reality
computer mediated communication
natural language processing
cyberspace
computational linguistics
metawersum
rzeczywistość wirtualna
przetwarzanie języka naturalnego
cyberprzestrzeń
lingwistyka komputerowa
komunikacja zapośredniczona przez komputer
Opis:
The primary objective of the following paper is to explore the concept of the Metaverse encompassing the Internet revolution, the information revolution, and the artificial intelligence technology revolution, which further incorporates virtual reality (VR), augmented reality (AR), and mixed reality (MR) technologies. Due to the fact that the current, fourth wave of computing innovation can be regarded as driven by immersive, spatial technologies, the Metaverse as the socalled post-reality universe and multi-user virtual environment has a considerable potential to become the future of the digital discourse. With Natural Language Processing (NLP) conceptualized as a subfield of artificial intelligence and linguistics, the following paper argues for the inclusion of NLP-based methods in the developing discourse revolving around the transformative idea of the Metaverse. At the same time, computer-mediated communication (CMC), can potentially be extended to the new context of the extensive online world of the Metaverse.
Głównym celem niniejszego artykułu jest przyjrzenie się koncepcji metawersum obejmującej rewolucję internetową, rewolucję informacyjną i rewolucję technologii sztucznej inteligencji, która obejmuje rzeczywistość wirtualną (VR), rzeczywistość rozszerzoną (AR) i rzeczywistość mieszaną (MR). W związku z tym, że obecną, czwartą falę innowacji komputerowych można uznać za napędzaną przez immersyjne, przestrzenne technologie, metawersum postrzegane jako uniwersum postrzeczywistości i wieloużytkownikowe środowisko wirtualne ma znaczący potencjał, by stać się przyszłością dyskursu cyfrowego. Poprzez umiejscowienie przetwarzania języka naturalnego (NLP) jako poddziedziny sztucznej inteligencji i językoznawstwa, niniejszy artykuł opowiada się za włączeniem metod NLP do rozwijającego się dyskursu dotyczącego transformacyjnej metawersum. Jednocześnie komunikacja zapośredniczona przez komputer (CMC), może potencjalnie zostać rozszerzona do nowego kontekstu rozbudowanego internetowego świata metawersum.
Źródło:
Forum Filologiczne Ateneum; 2022, 10, 1; 27-38
2353-2912
2719-8537
Pojawia się w:
Forum Filologiczne Ateneum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards mass customisation: automatic processing of orders for residential ship’s containers - A case study example
Autorzy:
Dudek, Adam
Patalas-Maliszewska, Justyna
Frączak, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/27311441.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
mass customization
natural language processing
automatic processing of orders
residential shipping container
masowa personalizacja
przetwarzanie języka naturalnego
kontener mieszkalny
obsługa zamówień automatyczna
Opis:
Along with changes in customer expectations, the process of ordering a house, especially one built with the most modern technology from prefabricated HQ 40-foot shipping containers, should take place in an atmosphere of free-flowing, customer-friendly conversation. Therefore, it is important that the company producing such a solution has a tool supporting such offers and orders when producing personalized solutions. This article provides an original approach to the automatic processing of orders based on an example of orders for residential shipping containers, natural language processing and so-called premises developed. Our solution overcomes the usage of records of the conversations between the customer and the retailer, in order to precisely predict the variant required for the house ordered, also when providing optimal house recommendations and when supporting manufacturers throughout product design and production. The newly proposed approach examines such recorded conversations in the sale of residential shipping containers and the rationale developed, and then offers the automatic placement of an order. Moreover, the practical significance of the solution, thus proposed, was emphasized thanks to verification by a real residential ship container manufacturing company in Poland.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2023, 71, 3; art. no. e145562
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The implementation of the example-based machine translation technique for Norwegian-to-Polish automatic translation system
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/970363.pdf
Data publikacji:
2004
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
przetwarzanie języka naturalnego
lingwistyka komputerowa
tłumaczenie komputerowe
natural language processing
computational linguistics
machine translation
Opis:
High-quality machine translation between human languages has for a long time been an unattainable dream for many computer scientists involved in this fascinating and interdisciplinary field of application of computers. The quite recently developed example-based machine translation technique seems to be a serious alternative to the existing automatic translation techniques. In the paper the usage of the example based machine translation technique for the development, of a system, which would be able to translate an unrestricted Norwegian text into Polish is proposed. The new approach to the example-based machine translation technique that takes into account the peculiarity of the Polish grammar is developed. The obtained primary results of development of the proposed system seem to be very promising and appear to be a step made in the right direction towards a fully-automatic high quality Norwegian-into-Polish machine translation system aimed for an unrestricted text.
Źródło:
Control and Cybernetics; 2004, 33, 2; 357-386
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Text summarizing in Polish
Streszczanie tekstu w języku polskim
Autorzy:
Branny, E.
Gajęcki, M.
Powiązania:
https://bibliotekanauki.pl/articles/305824.pdf
Data publikacji:
2005
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
przetwarzanie języka naturalnego
streszczanie tekstu
natural language processing
text summarizing
Opis:
The aim of this article is to describe an existing implementation of a text summarizer for Polish, to analyze the results and propose the possibilities of further development. The problem of text summarizing has been already addressed by science but until now there has been no implementation designed for Polish. The implemented algorithm is based on existing developments in the field but it also includes some improvements. It has been optimized for newspaper texts ranging from approx. 10 to 50 sentences. Evaluation has shown that it works better than known generic summarization tools when applied to Polish.
Celem artykułu jest zaprezentowanie algorytmu streszczającego teksty w języku polskim. Mimo istnienia algorytmów streszczających teksty, brak jest algorytmów dedykowanych dla języka polskiego. Przedstawiony algorytm bazuje na istniejących algorytmach streszczania tekstu, ale zawiera kilka ulepszeń. Algorytm jest przeznaczony dla streszczania tekstów prasowych liczących od 10 do 50 zdań. Przeprowadzone testy pokazują, że algorytm działa lepiej od znanych algorytmów zastosowanych dla języka polskiego.
Źródło:
Computer Science; 2005, 7; 31-48
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie emocji w tekstach polskojęzycznych z wykorzystaniem metody słów kluczowych
Emotion recognition in polish texts based on keywords detection method
Autorzy:
Nowaczyk, A.
Jackowska-Strumiłło, L.
Powiązania:
https://bibliotekanauki.pl/articles/408760.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
interakcja człowiek-komputer
przetwarzanie języka naturalnego
przetwarzanie tekstów
emotion recognition
human-computer interaction
natural language processing
text processing
Opis:
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 2; 102-105
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola analizy sieci społecznych w odkrywaniu narracyjnej struktury fikcji leterackiej
Social networks analysis in discovering the narrative structure of literary fiction
Autorzy:
Jarynowski, A.
Boland, S.
Powiązania:
https://bibliotekanauki.pl/articles/305879.pdf
Data publikacji:
2013
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
analiza sieci społecznych
przetwarzanie języka naturalnego
percepcja narracji
social network analysis
natural language processing
narration
Opis:
Narzędzia matematyczne rozwinięte w celu opisu układów z łożonych z powodzeniem są używane w naukach społecznych oraz coraz częściej znajdują zastosowanie w humanistyce. W prezentowanym interdyscyplinarnym projekcie pragniemy wykorzystać metody analizy sieciowej, aby lepiej zrozumieć sposób kreacji oraz przedstawienia świata przez autorów utworów literackich. Jednakże percepcja takiego świata zależy od subiektywnej wizji czytelnika, więc zwróciliśmy szczególną uwagę na różne sposoby ekstrakcji sieci powiązań społecznych z fikcyjnej rzeczywistości. Celem badań było odczytywanie różnych interakcji społecznych w tekście przez porównanie sieci otrzymanych przez algorytmy przetwarzania języka naturalnego (ang.natural language processing NLP) z tymi odtworzonymi na podstawie kwestionariuszy wypełnionych przez czytelników. Sieci dialogów, czy uczestnictwa w tej samej scenie zostały już opisane przez naukowców z amerykańskich uniwersytetów Stanford i Columbia, ale wciąż brakowało analizy relacji na ogólniejszym poziomie (interakcje międzyludzkie nie ograniczają się jedynie do dialogów bądź przebywania w tym samym miejscu). Zaproponowaliśmy kilka metod NLP w celu detekcji tych interakcji i skonfrontowaliśmy je z ludzkim postrzeganiem. Przy okazji odkryliśmy obszary teorii literatury, w których nie da się wykorzystać analizy sieciowej (np. interakcje nawiązujące do fabuły nie tworzą klasycznego trójkąta z punktem kulminacyjnym znanym z teorii literatury).
In our paper we would like to make a cross-disciplinary leap and use the tools of network theory to understand and explore narrative structure in literary fiction, an approach that is still underestimated. However, the systems in fiction are sensitive to reader’s subjectivity and attention must to be paid to different methods of extracting networks. The project aims at investigating into different ways social interactions are, read in texts by comparing networks produced by automated algorithms-natural language processing (NLP) with those created by surveying more subjective human responses. Conversation networks from fiction have been already extracted by scientists, but the more general framework surrounding these interactions was missing. We propose several NLP methods for detecting interactions and test them against a range of human perceptions. In doing so, we have pointed to some limitations of using network analysis to test literary theory (e.g. interaction, which corresponds to the plot, does not form climax).
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2013, 12; 35-42
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Polish phoneme statistics obtained on large set of written texts
Statystyki polskich fonemów uzyskane z dużych zbiorów tekstów
Autorzy:
Ziółko, B.
Gałka, J.
Ziółko, M.
Powiązania:
https://bibliotekanauki.pl/articles/305639.pdf
Data publikacji:
2009
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
przetwarzanie języka naturalnego
statystyki głosek
przetwarzanie mowy
NLP
triphone statistics
speech processing
Polish
Opis:
The phonetical statistics were collected from several Polish corpora. The paper is a summary of the data which are phoneme n-grams and some phenomena in the statistics. Triphone statistics apply context-dependent speech units which have an important role in speech recognition systems and were never calculated for a large set of Polish written texts. The standard phonetic alphabet for Polish, SAMPA, and methods of providing phonetic transcriptions are described.
W niniejszej pracy zaprezentowano opis statystyk głosek języka polskiego zebranych z dużej liczby tekstów. Triady głosek pełnią istotną rolę w rozpoznawaniu mowy. Omówiono obserwacje dotyczące zebranych statystyk i przedstawiono listy najpopularniejszych elementów.
Źródło:
Computer Science; 2009, 10; 97-106
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O wiele więcej niż Google Translate, czyli komputerowe przetwarzanie języka naturalnego (NLP) w translatoryce i translatologii
Far Beyond Google Translate: Natural Language Processing (NLP) in Translation and Translatology
Autorzy:
Okulska, Inez
Powiązania:
https://bibliotekanauki.pl/articles/912393.pdf
Data publikacji:
2020-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
literary translation
machine learning
big data
natural language processing
theory of translation
computational linguistics
machine translation
przekład literacki
teoria przekładu
przetwarzanie języka naturalnego
lingwistyka komputerowa
przekład maszynowy
uczenie maszynowe
Opis:
Przewrotna jest rola postępu – im więcej technologicznego rozwoju, tym większy udział człowieka – w koncepcji, formułowaniu zadań, interpretacji wyników, nadzorze i korekcie. Hierarchia jest zachowana, człowiek wciąż nieodzowny, ale to nie znaczy, że w pewnych obszarach maszynowy potencjał rzeczywiście nie przewyższa ludzkiego i że nie warto z tej przewagi skorzystać. Przetwarzanie języka naturalnego (NLP) to dziedzina niemłoda, ale w ostatnich latach dzięki rozkwitowi metod uczenia głębokiego (deep learning), mody na maszynowe wnioskowanie (data/knowledge mining) czy nowym sprzętowym interfejsom (m.in. zaawansowane rozpoznawanie obrazu) komputerowa analiza tekstu przeżywa istny renesans. W odniesieniu do translacji przyjęło się mówić i pisać głównie o coraz doskonalszych lub właśnie zupełnie niemożliwych algorytmach dla kolejnych par języków czy coraz większej precyzji samego tłumaczenia. Niniejszy artykuł przedstawia natomiast nieco szersze spektrum procesu tłumaczenia i przygląda się elementom przekładowi towarzyszącym (jak choćby krytyka), w których wykorzystanie metod NLP możeprzynieść nowe, ciekawe wyniki. Wyniki, których ze względu na ograniczoną moc obliczeniową człowiek nie jest w stanie osiągnąć. Omówione zostały takie aspekty jak wektorowa reprezentacja języka, stylometria i jej zastosowania czy analiza wielkich zbiorów danych – wszystko to na potrzeby szeroko rozumianychtranslacji i translatologii.
The more technological development, the greater the participation of the human – in formulating tasks and problems, supervising and improving automated processes and interpreting their outcomes. The hierarchy is preserved, humans are still indispensable, but it does not mean that in certain areas of machinery the potential does not really exceed that of the human and that this advantage is not worth exploiting. Natural language processing (NLP) is not a young field, but in recent years, thanks to the thrive of deep learning methods, data and knowledge mining or new human-machine interfaces, computer text analysis is experiencing a real renaissance. As far as translation is concerned, it is mostly algorithms for machine translation that are being discussed. This article, on the other hand, presents a slightly broader spectrum of the translation process and looks at the accompanying elements (such as criticism) in which the use of NLP methods may bring new and interesting results. Results which, due to limited computing power, humans are unable to achieve. The discussion in the paper covers such aspects as the vector representation of language,stylometry and its application, or the analysis of large data sets – all for the purposes of translation and translatology.
Źródło:
Porównania; 2020, 26, 1; 283-297
1733-165X
Pojawia się w:
Porównania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Narzędzia do automatycznego streszczania tekstów w języku polskim. Stan badań naukowych i prac wdrożeniowych
Tools for automatic summarization of texts in Polish. State of the research and implementation workse
Autorzy:
Glenc, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1191628.pdf
Data publikacji:
2021
Wydawca:
Szkoła Główna Handlowa w Warszawie
Tematy:
text summarization
Natural Language Processing
text documents
Polish language processing
automation of knowledge acquisition
streszczanie tekstów
przetwarzanie języka naturalnego
dokumenty tekstowe
przetwarzanie języka polskiego
automatyzacja pozyskiwania wiedzy
Opis:
The goal of the publication is to present the state of research and works carried out in Poland on the issue of automatic text summarization. The author describes principal theoretical and methodological issues related to automatic summary generation followed by the outline of the selected works on the automatic abstracting of Polish texts. The author also provides three examples of IT tools that generate summaries of texts in Polish (Summarize, Resoomer, and NICOLAS) and their characteristics derived from the conducted experiment, which included quality assessment of generated summaries using ROUGE-N metrics. The results of both actions showed a deficiency of tools allowing to automatically create summaries of Polish texts, especially in the abstractive approach. Most of the proposed solutions are based on the extractive method, which uses parts of the original text to create its abstract. There is also a shortage of tools generating one common summary of many text documents and specialized tools generating summaries of documents related to specific subject areas. Moreover, it is necessary to intensify works on creating the corpora of Polish-language text summaries, which the computer scientists could apply to evaluate their newly developed tools.
Celem publikacji jest przedstawienie stanu badań i prac prowadzonych w Polsce nad zagadnieniem automatycznego streszczania tekstów. Przedstawiono podstawowe zagadnienia teoretyczne i metodologiczne związane z automatycznym generowaniem streszczeń dokumentów tekstowych. Na tle tych rozważań dokonano opisu wybranych prac dotyczących automatycznego generowania streszczeń tekstów polskojęzycznych. Zaprezentowano również przykłady narzędzi informatycznych generujących streszczenia tekstów w języku polskim (Summarize, Resoomer, NICOLAS) oraz dokonano oceny jakości generowanych streszczeń z wykorzystaniem miar ROUGE-N. Wyniki badań literaturowych i przeprowadzonego eksperymentu wskazały na niedobór narzędzi pozwalających na generowanie streszczeń tekstów polskojęzycznych, zwłaszcza w podejściu abstraktowym. Większość zaproponowanych rozwiązań pozwala na generowanie streszczeń w podejściu ekstrakcyjnym, polegającym na wykorzystywaniu w tworzonym streszczeniu fragmentów oryginalnego tekstu. Widoczny jest również niedobór narzędzi pozwalających na wygenerowanie jednego streszczenia wielu tekstów oraz narzędzi wyspecjalizowanych, pozwalających na generowanie streszczeń tekstów dotyczących konkretnych obszarów tematycznych. Ponadto konieczne jest zintensyfikowanie prac w obszarze tworzenia korpusów streszczeń polskojęzycznych tekstów, które będą mogły być wykorzystane do ewaluacji nowo tworzonych narzędzi.
Źródło:
e-mentor. Czasopismo naukowe Szkoły Głównej Handlowej w Warszawie; 2021, 89, 2; 67-77
1731-6758
1731-7428
Pojawia się w:
e-mentor. Czasopismo naukowe Szkoły Głównej Handlowej w Warszawie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Najlepsze narzędzie do zwalczania fejków (i dlaczego nie działa)
Best tools for detecting fake news (and why they do not work)
Autorzy:
Balcerzak, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/1849514.pdf
Data publikacji:
2020-09-30
Wydawca:
Instytut Dyskursu i Dialogu
Tematy:
fake news
informatyka społeczna
uczenie maszynowe
przetwarzanie języka naturalnego
computational social science
natural language processing
machine learning
Opis:
Artykuł stanowi przybliżenie technik informatycznych wykorzystywanych w procesie rozpoznawania fałszywych wiadomości. Równocześnie wskazuje na społeczne i psychologiczne czynniki wpływające na popularność fake news, oraz wskazuje na społeczne konsekwencje stosowania różnych metod wykrywania Fake News.
The article provides a review of various technologies used in detecting fake news online. It also provides discussion of sociological and psychological factors which influence the popularity of fake news. Finally a discussion of political consequences of the use of said technologies is provided.
Źródło:
Dyskurs & Dialog; 2020, II, 3 (5); 9-21
2658-2368
2658-2406
Pojawia się w:
Dyskurs & Dialog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Korpusowe metody badania logosu i etosu
The method of corpus analysis in the study of logos and ethos
Autorzy:
Budzyńska, Katarzyna
Konat, Barbara
Koszowy, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/577868.pdf
Data publikacji:
2016-07
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
metody lingwistyczne
metody mieszane
badania korpusowe
automatyczne przetwarzanie języka naturalnego
argumentacja
spór
konsensus
logos
etos
dialog
linguistic methods
mixed methods
corpus studies
automatic natural language processing
argumentation
controversy
consensus
ethos
dialogue
Opis:
Celem artykułu jest prezentacja procesu badawczego wykorzystującego lingwistyczne metody korpusowe do wzbogacania fi lozofi cznych teorii logosu (tj. struktur inferencyjnych) i etosu (tj. struktur komunikacyjnych powiązanych z charakterem czy wiarygodnością mówcy). Te dwa typy zjawisk komunikacyjnych przyciągały uwagę fi lozofów od czasów starożytnych, kiedy to Arystoteles, jako jeden z pierwszych, zaproponował sposób rozumienia tych pojęć w swojej Retoryce. Współcześnie problem eksplozji danych, związany z rozwojem nowoczesnych technologii i Internetu, postawił przed fi lozofi ą nowe wyzwanie: możliwość zautomatyzowania procesu przetwarzania dużych zasobów danych i wydobywania informacji dotyczących tego, jakie opinie i argumenty ludzie formułują, oraz tego, kto jest uznawany za wiarygodnego mówcę, wymaga dobrego zrozumienia tego, w jaki sposób ludzie faktycznie konstruują struktury logosu i etosu – nawet jeżeli są to niepoprawne konstrukcje. Stąd też w naszych badaniach stosujemy następującą metodologię: (1) wychodzimy od teorii fi lozofi cznych, (2) następnie wybieramy dziedzinę dyskursu, dla której chcemy zidentyfi kować typowe językowe zachowania związane z logosem i etosem, (3) dane te analizujemy przy użyciu wybranych teorii, (4) na podstawie statystyk i wglądu w naturę danego dyskursu formułujemy nowe twierdzenia dotyczące interesujących nas zjawisk, (5) aby w końcu móc zastosować wyniki tych badań do wspierania automatycznego wydobywania struktur logosu i etosu z dużych zasobów danych języka naturalnego.
The aim of this paper is to discuss research process which employs linguistic methods of corpus analysis in order to better understand dialogue strategies people use. Theories developed in such a way are then suitable to be used for argument mining, i.e. for automated identifi cation and extraction of these strategies from large resources of texts in natural language. The paper considers two types of communication phenomena related to Aristotelian notions of logos (i.e. inferential premise-conclusion structures) and ethos (i.e.communication structures related to the character of the speaker). The goal of the paper is accomplished in four steps. The task of identifying the main problem (Sect. 1) allows us to give an outline of the corpus study method for automated argument mining (Sect. 2). Next, the explication of this method paves the way for discussing two examples of applying the corpus method to analyse logos and ethos, namely controversy and consensus (Sect. 3) and ethotic structures in a dialogue (Sect. 4).
Źródło:
Zagadnienia Naukoznawstwa; 2016, 52, 3(209); 385-404
0044-1619
Pojawia się w:
Zagadnienia Naukoznawstwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Innowacyjność polskiej gospodarki na tle Unii Europejskiej z uwzględnieniem specyfiki sektora informatycznego
Innovation of Polish economy in comparison to the European Union, taking into account the information sector
Autorzy:
Kansy, Dominika
Powiązania:
https://bibliotekanauki.pl/articles/589713.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Działalność badawczo-rozwojowa
Działalność innowacyjna przedsiębiorstwa
Innowacje
Przetwarzanie języka naturalnego
Reguły asocjacji
Złożony wskaźnik innowacyjności
Association rules
Innovations
Innovative activity of the company
Natural language processing
Research and development activity
Summary Innovation Index
Opis:
Międzynarodowa walka konkurencyjna na poziomie firm przenosi się na rynek krajowy. Zdolność do innowacji i ich skutecznego wprowadzania staje się wyznacznikiem konkurencyjności produkcji krajowej, a tym samym czynnikiem wspomagającym zapewnienie bezpieczeństwa ekonomicznego kraju. Głównym celem artykułu jest scharakteryzowanie polskiej gospodarki pod kątem innowacyjności. Szczególny nacisk położono na zaprezentowanie działalności innowacyjnej polskich przedsiębiorstw w ostatnich latach, jak również przedstawiono pozycję Polski w unijnym rankingu innowacyjności. Z przeprowadzonej analizy wynika, że mimo większych nakładów na działalność badawczo- -rozwojową oraz zwiększenia inwestycji w zakresie aktywności innowacyjnej, nie przekłada się to na polepszenie wskaźnika innowacyjności dla Polski w stosunku do wskaźników innowacyjności pozostałych krajów UE. Ponadto w artykule zwrócono uwagę na wpływ sektora informatycznego na skuteczność działalności innowacyjnej. Przedstawiono wyniki badań przeprowadzonych na danych z grudnia 2016 r., które zostały pobrane z portalu www.pracuj.pl, a które mogą być uznane za dodatkowy czynnik określający poziom innowacyjności polskich przedsiębiorstw. Analizie poddano 709 ofert pracy z sektora informatycznego. Do analizy zastosowano następujące metody: przetwarzanie języka naturalnego, reguły asocjacji i program R. Przeprowadzone badania pozwoliły stwierdzić, że w badanym okresie firmy zamieszczające oferty pracy związane z działami IT w 99% były nastawione na poszukiwanie pracowników wyspecjalizowanych w dobrym posługiwaniu się jednym narzędziem, techniką informatyczną, metodyką, językiem programowania i mających duże doświadczenie w tym zakresie, a jednocześnie posiadających kilka zdolności miękkich. W podsumowaniu ujęto najważniejsze wnioski i możliwe kierunki prac w tej dziedzinie.
International competitive rivalry at the company level is shifting to the domestic market. The ability to create and effectively implement innovations becomes both a determinant of the competitiveness of domestic production, and a factor supporting the country's economic security. The main goal of this article is to characterize the Polish economy in terms of innovation. Particular emphasis is placed on presenting the innovative activity of Polish enterprises in recent years, as well as the position of Poland in the EU innovation ranking. The analysis shows that an increase in expenditure on research and development, and an increase in investments in fields of innovation, do not translate into an improvement of an innovation index for Poland in relation to indicators of other EU countries. Moreover, the article highlights an impact of the IT sector on the effectiveness of innovative activity. It presents the results of a research conducted in December 2016. The data, which was a basis for the analysis, was taken from the Pracuj.pl portal. The mentioned findings can be considered as an additional factor determining the level of innovation of Polish enterprises. The analysis covers 709 job offers from the IT sector. Methods used for the analysis include: natural language processing, association rules, and the R program. The conducted research allows to claim that, in the analyzed period of time, companies posting job offers related to IT departments were focused on searching for employees who are specialized in good handling of one tool, in IT technology, methodology, programming language, and who have extensive experience in this field accompanied by several soft skills. The summary of this article includes the most important conclusions, and possible directions of further work in this field.
Źródło:
Studia Ekonomiczne; 2018, 362; 111-126
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies