Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę ""natural language"" wg kryterium: Temat


Tytuł:
Koncepcja bazy danych jako podstawowej części programu generującego oceny opisowe w nauczaniu wczesnoszkolnym
Conception of a database as fundamental part of the program generating the descriptive grades in elementary schools
Autorzy:
Trzeciakowska, Arleta
Powiązania:
https://bibliotekanauki.pl/articles/41204129.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
komputerowe przetwarzanie tekstów
NLP
generowanie tekstów w języku naturalnym
ocena opisowa
natural language processing
genering texts in natural language
descriptive grades
Opis:
Szeroki dostęp do Internetu, istnienie ogromnej ilości tekstów w wersji elektronicznej powoduje konieczność rozwoju nauki określanej jako inżynieria lingwistyczna. Zajmuje się ona szeroko pojętym przetwarzaniem danych lingwistycznych. Jednym z aspektów przetwarzania tego rodzaju danych jest generowanie tekstów w języku naturalnym. Ponieważ przeważająca ilość powstających tekstów dostępna jest w wersji elektronicznej, istnieje bardzo duże zapotrzebowanie na programy przetwarzające je. Głównym celem powstania tego artykułu jest przedstawienie koncepcji relacyjnej bazy danych będącej podstawą eksperymentalnego programu automatycznie generującego oceny opisowe w nauczaniu wczesnoszkolnym.
Common access to the Internet and huge number of the texts in numeric version causes necessity of progress of the science known as linguistic engineering. It researches the wide implied natural language processing. One of the aspects of processing that kind of data is genering the texts in the natural language. Because the most of the nascent texts are available in numeric version, there is large demand for the programs processing them. The main point of that article is to present the conception of a database that is the fundamental part of the experimental program automatically genering descriptive grades in elementary schools.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2010, 3; 31-37
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kazimierza Ajdukiewicza analiza syntaktyczna a problem wyrażeń niepełnych
Kazimierz Ajdukiewicz’s Syntactic Analysis and the Problem of Incomplete Expressions
Autorzy:
Popławski, Patryk
Powiązania:
https://bibliotekanauki.pl/articles/2083450.pdf
Data publikacji:
2020-12-31
Wydawca:
Uniwersytet Warszawski. Wydział Filozofii
Tematy:
Kazimierz Ajdukiewicz
syntactic analysis
incomplete expressions
natural language
ellipsis
Opis:
This paper discusses the problem of applying Kazimierz Ajdukiewicz’s method of syntactic analysis to incomplete expressions that occur in natural languages. The author defends the claim that it is impossible effectively to apply syntactic analysis to any expressions of natural languages, due to the presence of incomplete expressions. First, the author outlines the basic concepts and describes Ajdukiewicz’s selected views on incomplete expressions, as well as his method of syntactic analysis. Second, using the example of various types of incomplete expressions, the author presents problems that arise when syntactic analysis is applied to expressions of natural languages.
Źródło:
Filozofia Nauki; 2020, 28, 4; 39-60
1230-6894
2657-5868
Pojawia się w:
Filozofia Nauki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronous versions of regulated grammars : generative power and linguistic applications
Autorzy:
Horáček, P.
Meduna, A.
Powiązania:
https://bibliotekanauki.pl/articles/375683.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
regulated grammar
synchronous grammar
generative power
natural language translation
Opis:
This paper introduces the notion of new synchronous grammars as systems consisting of two context-free grammars with linked rules instead of linked nonterminals. Further, synchronous versions of regulated grammars, specifically, matrix grammars and scattered context grammars, are discussed. From a theoretical point of view, this paper discusses the power of these synchronous grammars. It demonstrates the following main results. First, if we synchronize context-free grammars by linking rules, the grammar generates the languages defined by matrix grammars. Second, if we synchronize matrix grammars by linking matrices, the generative power remains unchanged. Third, synchronous scattered context grammars generate the class of recursively enumerable languages. From a more practical viewpoint, this paper presents linguistic application prospects. The focus is on natural language translation between Japanese and English.
Źródło:
Theoretical and Applied Informatics; 2012, 24, 3; 175-190
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Terminologiedatenbanken im mobilen Einsatz – eine Projektskizze
Autorzy:
Rösener, Christoph
Powiązania:
https://bibliotekanauki.pl/articles/700383.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Germanistów Polskich
Tematy:
terminology databases, research project, natural language processing, linguistic intelligence, special languages
Opis:
Initially this paper describes the newest trends and tendencies of mobile usage of terminology databases. Additionally it presents the latest technical developments in this area. This is then followed by an overview about a research project, which investigates the concept, implementation and usage of a central terminology database application for mobile usage within a public sector institution in special operational scenarios.
Źródło:
Zeitschrift des Verbandes Polnischer Germanisten; 2013, 2, 2
2353-656X
2353-4893
Pojawia się w:
Zeitschrift des Verbandes Polnischer Germanisten
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Do czego konieczny jest język? Co jest konieczne w języku?
Autorzy:
Danielewiczowa, Magdalena
Powiązania:
https://bibliotekanauki.pl/articles/1186988.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Tematy:
linguistics
semiotics
natural language
animal codes
inalienable features of human language
Opis:
The article attempts to answer two closely interrelated questions: What is a natural language necessary for and, on the other hand, what is necessary in the language itself? In the first part the author puts forward a thesis that there is a gulf between human speech and animal codes − a gulf which cannot be filled with explanations of evolutionary nature. She also invokes a series of ideas of distinguished scholars who advocate the logical primacy of language in relation to all other semiotic systems that create the space of culture. In the second part of the article, the inalienable properties of language are discussed, those that determine its essence and, at the same time, the uniqueness with respect to both the animal signals and all other sign systems. These features include: double demarcation, duality, proportionality, the possession of reference and predictive expressions, metalinguistic and metatextual tools, as well as tools for communicating the truth and knowledge of the world.
Źródło:
Załącznik Kulturoznawczy; 2017, 4; 11-31
2392-2338
Pojawia się w:
Załącznik Kulturoznawczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ontologia języka wzorców projektowych dla systemów Smart Cities
Ontology of the design pattern language for Smart Cities systems
Autorzy:
Orłowski, Cezary
Sitek, Tomasz
Ziółkowski, Artur
Kapłański, Paweł
Orłowski, Aleksander
Pokrzywnicki, Witold
Powiązania:
https://bibliotekanauki.pl/articles/1827566.pdf
Data publikacji:
2015
Wydawca:
Politechnika Gdańska
Tematy:
Smart Cities
ontologies
semantics
Ontology Driven Architecture
Design Patterns
Controlled Natural Language
Opis:
The paper presents the definition of the design pattern language of Smart Cities in the form of an ontology. Since the implementation of a Smart City system is difficult, expensive and closely linked with the problems concerning a given city, the knowledge acquired during a single implementation is extremely valuable. The language we defined supports the management of such knowledge as it allows for the expression of a solution which, based on best practices recorded in the form of design patterns, is also tailored to the requirements of the city seeking to implement the Smart City solution. The formal/ontological structure of the language in turn allows the automatic management of the properties of a solution recorded in this way. This final feature of the introduced language is extremely important in the decision-making process regarding the choice of a particular solution by the relevant authorities. The work is divided into five main parts. In the first part we discuss the implementation issue of the integration bus using the example of the IOC. In the next part we talk about the validity of using semantic technologies in order to expand the spectrum of potential implementations. Then we discuss the ontological implementation of the Smart City pattern language which we created, a language which allows for both the saving of requirements and the validation of solutions specified in it. We also present an example of usage, which at the same time serves as a validation of the language in real-life conditions. In the last part we discuss certain aspects of the pattern language and the possible ways to develop research related to it..
W artykule przedstawiono definicję języka wzorów projektowych Smart Cities w postaci ontologii. Jako, że wdrażanie rozwiązania Smart City jest trudne, drogie i ściśle związane z problematyką dotyczącą danego miasta, wiedza nabywana podczas pojedynczego wdrożenia jest wiedzą niezwykle cenną. Zdefiniowany przez nas język wspiera zarządzanie ww. wiedzą, jako że pozwala na ekspresję rozwiązania, które bazując na najlepszych praktykach zapisanych w postaci wzorców projektowych, jest jednocześnie dostosowane do wymagań miasta dążącego do wdrożenia rozwiązania Smart City. Formalna/ontologiczna struktura tego języka pozwala z kolei na automatyczne dowodzenie właściwości zapisanego tak rozwiązania. Ta ostatnia właściwość wprowadzonego języka jest niezwykle istotna w procesie podejmowania decyzji o wyborze danego rozwiązania przez odpowiednie władze. Praca została podzielona na pięć głównych części. W części pierwszej omawiamy problematykę wdrażania szyny integracyjnej na przykładzie IOC. W kolejnej części mówimy o zasadności zastosowania technologii semantycznych w celu rozszerzenia spektrum potencjalnych wdrożeń. Dalej mówimy o stworzonej przez nas, ontologicznej implementacji języka wzorców Smart-City – języka, który pozwala zapisywać zarówno wymagania, jak i walidować rozwiązania w nim specyfikowane. Przedstawiamy również przykładowe użycie, które służy nam jednocześnie jako walidacja języka w warunkach rzeczywistych. W ostatniej części dyskutujemy pewne aspekty języka wzorców i możliwe drogi rozwoju związanych z nim badań.
Źródło:
Przedsiębiorstwo we współczesnej gospodarce - teoria i praktyka; 2015, 2-3, 13; 83-110
2084-6495
Pojawia się w:
Przedsiębiorstwo we współczesnej gospodarce - teoria i praktyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza fleksyjna tekstów historycznych i zmienność fleksji polskiej z perspektywy danych korpusowych
Autorzy:
Woliński, Marcin
Kieraś, Witold
Powiązania:
https://bibliotekanauki.pl/articles/1630443.pdf
Data publikacji:
2020-10-30
Wydawca:
Towarzystwo Kultury Języka
Tematy:
electronic text corpus
natural language processing
inflection of Polish
history of language
Opis:
The subject matter of this paper is Chronofleks, a computer system (http://chronofleks.nlp.ipipan.waw.pl/) modelling Polish inflection based on a corpus material. The system visualises changes of inflectional paradigms of individual lexemes over time and enables examination of the variability of the frequency of inflected form groups distinguished based on various criteria. Feeding Chronofleks with corpus data required development of IT tools to ensure an inflectional processing sequence of texts analogous to the ones used for modern language; they comprise a transcriber, a morphological analyser, and a tagger. The work was performed on data from three historical periods (1601–1772, 1830–1918, and modern ones) elaborated in independent projects. Therefore, finding a common manner of describing data from the individual periods was a significant element of the work.
Źródło:
Poradnik Językowy; 2020, 777, 8; 66-80
0551-5343
Pojawia się w:
Poradnik Językowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza możliwości i ograniczeń systemów translacji automatycznej wspomaganej przez człowieka na przykładzie systemu tłumaczącego z języka włoskiego na polski
The analysis of possibilities and frontiers of the human-aided machine translation system on the example of Italian-to-Polish translations system
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/320407.pdf
Data publikacji:
2006
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
translacja automatyczna
przetwarzanie języka naturalnego
sztuczna inteligencja
machine translation
computational linguistics
natural language processing
Opis:
Translacja automatyczna jest dyscypliną nauki dostarczającą wiedzy o tym, jak programować komputery, aby były one w stanie dokonywać automatycznych przekładów pomiędzy wybranymi językami naturalnymi. Translacja automatyczna była również jedną z pierwszych aplikacji, jakie zostały zaproponowane dla komputerów. Niestety szybko okazało się, że zadanie translacji automatycznej jest znacznie trudniejsze, ale zarazem o wiele ciekawsze z naukowego punktu widzenia, niż pierwotnie sądzono. W artykule omówiono podstawowe przyczyny powodujące, że translacja automatyczna jest zadaniem tak niezwykle trudnym. Omówiono również najbardziej obiecujące kierunki rozwoju systemów translacji automatycznej. W dalszej części artykułu przedstawiono podstawowe koncepcje związane z nowym, zaproponowanym przez autora podejściem do zagadnień translacji automatycznej. Zamieszczone w artykule rozważania zilustrowano na przykładzie eksperymentalnego systemu translacji automatycznej, dokonującego przekładu zdań zapisanych w języku włoskim na polski.
Machine translation is a branch of science that teaches us how to program the computers, so as they were able to translate between different human languages. Machine translation was also one of the first application that was proposed for computers. Nonetheless, it soon appeared that the task of machine translation is much more difficult, but also much more interesting from the scientific point of view, than one had ever thought before. In the paper it is thoroughly explained why machine translation is so extremely hard. The most promising directions of development of machine translation systems are also briefly described. The special attention is paid to machine translation systems that are developed for Polish language. The other part of the paper is devoted to some practical experiments of implementation of human-aided machine translation technique for the system that translates from Italian into Polish. The way in which the system operates is illustrated on numerous examples. Italian language belongs to the group of Romance languages at its main feature is a variety of flexion forms of verbs. In the paper the algorithm for Italian flexion is described and it is illustrated on some examples.
Źródło:
Elektrotechnika i Elektronika; 2006, 25, 1; 10-37
1640-7202
Pojawia się w:
Elektrotechnika i Elektronika
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Elektroniczny Korpus Tekstów Polskich z XVII i XVIII w. – problemy teoretyczne i warsztatowe
Autorzy:
Gruszczyński, Włodzimierz
Adamiec, Dorota
Bronikowska, Renata
Wieczorek, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/1630441.pdf
Data publikacji:
2020
Wydawca:
Towarzystwo Kultury Języka
Tematy:
electronic text corpus
historical corpus
17th-18th-century Polish
natural language processing
Opis:
This paper presents the Electronic Corpus of 17th- and 18th-century Polish Texts (KorBa) – a large (13.5-million), annotated historical corpus available online. Its creation was modelled on the assumptions of the National Corpus of Polish (NKJP), yet the specifi c nature of the historical material enforced certain modifi cations of the solutions applied in NKJP, e.g. two forms of text representation (transliteration and transcription) were introduced, the principle of designating foreign-language fragments was adopted, and the tagset was adapted to the description of the grammatical structure of the Middle Polish language. The texts collected in KorBa are diversified in chronological, geographical, stylistic, and thematic terms although, due to e.g. limited access to the material, the postulate of representativeness and sustainability of the corpus was not fully implemented. The work on the corpus was to a large extent automated as a result of using natural language processing tools.
Źródło:
Poradnik Językowy; 2020, 777, 8; 32-51
0551-5343
Pojawia się w:
Poradnik Językowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
W kierunku automatycznej klasyfikacji języków naturalnych
Autorzy:
Handzel, Zbigniew
Gajer, Mirosław
Grabiński, Tadeusz
Luty, Zbigniew
Surowiec, Anna
Powiązania:
https://bibliotekanauki.pl/articles/2147414.pdf
Data publikacji:
2021-12-06
Wydawca:
Wyższa Szkoła Ekonomii i Informatyki w Krakowie
Tematy:
przetwarzanie języka naturalnego
lingwistyka komputerowa
klasyfikacja języków
computational linguistics
natural language processing
language classification
Opis:
Streszczenie: Klasyfikacja języków naturalnych jest jednym z głównych zadań językoznawstwa. Spośród różnych typów klasyfikacji języków najbardziej wiarygodną i miarodajną wydaje się być klasyfikacja typologiczna, która łączy języki w jednostki większego rzędu na podstawie podobieństwa ich cech strukturalnych. Podobieństwo typologiczne języków może być wynikiem zarówno ich pochodzenia od wspólnego przodka, czyli prajęzyka, jak i występujących zapożyczeń międzyjęzykowych dotyczących zarówno leksyki, jak i struktur składniowych. W artykule zamieszczono propozycję budowy systemu przeznaczonego do realizacji automatycznej klasyfikacji języków naturalnych ze względu na ich stopień podobieństwa typologicznego. Opracowany przez autorów system uwzględnia obecnie 72 języki należące głównie do indoeuropejskiej rodziny językowej. W systemie uwzględniono ponadto kilka języków należących do innych rodzin językowych oraz wybrane języki sztuczne typu naturalistycznego. Autorzy zaprezentowali program komputerowy służący do wyznaczania liczbowej miary stopnia wzajemnego podobieństwa systemów zaimków osobowych występujących w różnych językach świata. W przyszłości planowana jest budowa analogicznych systemów przeznaczonych do wyznaczania miary podobieństwa języków na podstawie automatycznej analizy wzorców koniugacyjnych czasowników oraz wzorców deklinacyjnych rzeczowników i przymiotników wybranych języków
Classification of natural languages is one of the main tasks of linguistics. Of the various types of language classification, the most reliable and authoritative seems to be the typological classification, which combines languages into units of a higher order on the basis of similarity of their structural features. The typological similarity of languages may be a result of both their origin from a common ancestor, i.e. a proto-language, and interlingual borrowings concerning both lexis and syntactic structures. The paper presents a proposal for the construction of a system intended for the automatic classification of natural languages according to their degree of typological similarity. The system developed by the authors currently includes 72 languages belonging mainly to the Indo-European language family. The system also includes several languages belonging to other language families and selected artificial languages of a naturalistic type. The authors have presented a computer programme for determining a numerical measure of the degree of mutual similarity between the systems of personal pronouns occurring in different languages of the world. In the future it is planned to build analogous systems to determine the measure of similarity between languages on the basis of automatic analysis of verb conjugation patterns and declension patterns of nouns and adjectives of selected languages.
Źródło:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie; 2021, 17; 53-70
1734-5391
Pojawia się w:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola analizy sieci społecznych w odkrywaniu narracyjnej struktury fikcji leterackiej
Social networks analysis in discovering the narrative structure of literary fiction
Autorzy:
Jarynowski, A.
Boland, S.
Powiązania:
https://bibliotekanauki.pl/articles/305879.pdf
Data publikacji:
2013
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
analiza sieci społecznych
przetwarzanie języka naturalnego
percepcja narracji
social network analysis
natural language processing
narration
Opis:
Narzędzia matematyczne rozwinięte w celu opisu układów z łożonych z powodzeniem są używane w naukach społecznych oraz coraz częściej znajdują zastosowanie w humanistyce. W prezentowanym interdyscyplinarnym projekcie pragniemy wykorzystać metody analizy sieciowej, aby lepiej zrozumieć sposób kreacji oraz przedstawienia świata przez autorów utworów literackich. Jednakże percepcja takiego świata zależy od subiektywnej wizji czytelnika, więc zwróciliśmy szczególną uwagę na różne sposoby ekstrakcji sieci powiązań społecznych z fikcyjnej rzeczywistości. Celem badań było odczytywanie różnych interakcji społecznych w tekście przez porównanie sieci otrzymanych przez algorytmy przetwarzania języka naturalnego (ang.natural language processing NLP) z tymi odtworzonymi na podstawie kwestionariuszy wypełnionych przez czytelników. Sieci dialogów, czy uczestnictwa w tej samej scenie zostały już opisane przez naukowców z amerykańskich uniwersytetów Stanford i Columbia, ale wciąż brakowało analizy relacji na ogólniejszym poziomie (interakcje międzyludzkie nie ograniczają się jedynie do dialogów bądź przebywania w tym samym miejscu). Zaproponowaliśmy kilka metod NLP w celu detekcji tych interakcji i skonfrontowaliśmy je z ludzkim postrzeganiem. Przy okazji odkryliśmy obszary teorii literatury, w których nie da się wykorzystać analizy sieciowej (np. interakcje nawiązujące do fabuły nie tworzą klasycznego trójkąta z punktem kulminacyjnym znanym z teorii literatury).
In our paper we would like to make a cross-disciplinary leap and use the tools of network theory to understand and explore narrative structure in literary fiction, an approach that is still underestimated. However, the systems in fiction are sensitive to reader’s subjectivity and attention must to be paid to different methods of extracting networks. The project aims at investigating into different ways social interactions are, read in texts by comparing networks produced by automated algorithms-natural language processing (NLP) with those created by surveying more subjective human responses. Conversation networks from fiction have been already extracted by scientists, but the more general framework surrounding these interactions was missing. We propose several NLP methods for detecting interactions and test them against a range of human perceptions. In doing so, we have pointed to some limitations of using network analysis to test literary theory (e.g. interaction, which corresponds to the plot, does not form climax).
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2013, 12; 35-42
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Najlepsze narzędzie do zwalczania fejków (i dlaczego nie działa)
Best tools for detecting fake news (and why they do not work)
Autorzy:
Balcerzak, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/1849514.pdf
Data publikacji:
2020-09-30
Wydawca:
Instytut Dyskursu i Dialogu
Tematy:
fake news
informatyka społeczna
uczenie maszynowe
przetwarzanie języka naturalnego
computational social science
natural language processing
machine learning
Opis:
Artykuł stanowi przybliżenie technik informatycznych wykorzystywanych w procesie rozpoznawania fałszywych wiadomości. Równocześnie wskazuje na społeczne i psychologiczne czynniki wpływające na popularność fake news, oraz wskazuje na społeczne konsekwencje stosowania różnych metod wykrywania Fake News.
The article provides a review of various technologies used in detecting fake news online. It also provides discussion of sociological and psychological factors which influence the popularity of fake news. Finally a discussion of political consequences of the use of said technologies is provided.
Źródło:
Dyskurs & Dialog; 2020, II, 3 (5); 9-21
2658-2368
2658-2406
Pojawia się w:
Dyskurs & Dialog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Słowa kluczowe, tagi…, i co dalej?
Keywords, tags... and what else?
Autorzy:
Babik, Wiesław
Powiązania:
https://bibliotekanauki.pl/articles/678637.pdf
Data publikacji:
2014-12-31
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
folksonomy
keywords
natural language
ontology
tagging
tags
tag cloud
chmura tagów
folksonomie
język naturalny
ontologia
słowa kluczowe
tagi
tagowanie
Opis:
Keywords and their latest versions, called tags, are the object of this paper. Those expressions are treated as elements of the lexical systems of respective languages: the keyword language and the tag language. Our presentation of those vocabulary groups is intended to demonstrate that they are not homonymous, in structural or functional respects. Those two lexical resources are presented rather from the viewpoint of the theory of indexing and retrieval languages as well as the information search theories. Considering the future of the languages in question, the author presents the folksonomies and the possibilities of application of the respective vocabulary collections in the construction of tools required for semantization of the information retrieval environment in the Internet, including the construction of ontology and thought maps. Special attention was paid to the idea that keywords and tags are practically equivalent to specific “languages” which, similarly to natural languages, are subjected to continuous changes. For that reason, it is necessary to regularly monitor them and consider their practical application in document and information description and search. The works on keywords constitute a step towards the construction of linguistic tools for the needs of a semantic website. This paper is a contribution to the discussion on the development of keyword vocabularies created at the Institute of Slavic Studies of the Polish Academy of Sciences in Warsaw. Such vocabularies constitute part of the Slavic bibliographic information system.
Przedmiotem artykułu są słowa kluczowe oraz ich nowsza odmiana zwana tagami. Wyrażenia te zostały potraktowane jako elementy systemów leksykalnych odpowiednich języków: języka słów kluczowych oraz języka tagów. Prezentacja tych grup słownictwa ma na celu wykazanie, że nie są to homonimiczne grupy leksyki zarówno pod względem strukturalnym, jak i funkcjonalnym. Wymienione zasoby słownictwa zostały zaprezentowane z punktu widzenia teorii języków informacyjno-wyszukiwawczych oraz teorii wyszukiwania informacji. Biorąc pod uwagę przyszłość omawianych języków, zaprezentowano folksonomie oraz możliwości wykorzystania omówionych zbiorów słownictwa w budowie narzędzi do semantyzacji środowiska wyszukiwawczego w Internecie, w tym do budowy ontologii i map myśli. Szczególną uwagę zwrócono na to, że słowa kluczowe i tagi to w praktyce swoistego rodzaju „języki”, które, podobnie jak język naturalny, podlegają ciągłym zmianom, stąd potrzeba stałego śledzenia i uwzględniania pragmatyki ich stosowania w opisie i wyszukiwaniu dokumentów i informacji. Prace nad słowami kluczowymi stanowią krok w kierunku budowy lingwistycznych narzędzi na potrzeby semantycznego Web-u. Artykuł stanowi głos w dyskusji nad tworzonymi w Instytucie Slawistyki PAN w Warszawie słownikami słów kluczowych stanowiącymi element systemu slawistycznej informacji bibliograficznej.
Źródło:
Studia z Filologii Polskiej i Słowiańskiej; 2014, 49; 139-149
2392-2435
0081-7090
Pojawia się w:
Studia z Filologii Polskiej i Słowiańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie emocji w tekstach polskojęzycznych z wykorzystaniem metody słów kluczowych
Emotion recognition in polish texts based on keywords detection method
Autorzy:
Nowaczyk, A.
Jackowska-Strumiłło, L.
Powiązania:
https://bibliotekanauki.pl/articles/408760.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
interakcja człowiek-komputer
przetwarzanie języka naturalnego
przetwarzanie tekstów
emotion recognition
human-computer interaction
natural language processing
text processing
Opis:
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 2; 102-105
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Językoznawstwo korpusowe w badaniach medioznawczych – ujęcie historyczne i praktyczne
Corpus Linguistics in Media Studies – a Historical and Practical Approach
Autorzy:
Hess, Agnieszka
Hwaszcz, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/31340792.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
discourse analysis
media analysis
corpus linguistics
natural language
processing tools
analiza dyskursu
analiza mediów
językoznawstwo korpusowe
narzędzia do przetwarzania języka naturalnego
Opis:
Celem artykułu jest przedstawienie korzyści i zagrożeń wynikających z implementacji komputerowego językoznawstwa korpusowego do analizy dyskursu. Autorzy opisują genezę i rozwój narzędzi do przetwarzaniu języka naturalnego (z ang. Natural Language Processing, NLP) w ujęciu historycznym oraz prezentują przykłady ich zastosowania w obszarze nauk społecznych, w szczególności w metodologii nauk o komunikacji społecznej i mediach. Praktyczne ujęcie tematu obrazują fragmentaryczne wyniki badań zrealizowanych w Instytucie Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego we współpracy z konsorcjum CLARIN-PL. Artykuł prezentuje zastosowanie narzędzi NLP w analizie korpusu dyskursu parlamentarnego z lat 1989– 2019 pod kątem uwarunkowań instytucjonalizacji dialogu obywatelskiego w Polsce oraz w analizie porównawczej tematu wielokulturowości w dyskursie rady miasta i dyskursie mediów w Krakowie w okresie 2014–2018 (VII kadencja Rady Miasta Krakowa). Autorzy wskazują, w której fazie i jak lingwistyka komputerowa wpisuje się w szeroki kontekst problematyki związanej z badaniami komunikologicznymi – przede wszystkim jako narzędzie, które może wspierać proces wnioskowania.
The aim of this paper is to present the benefits and risks of implementing corpus linguistics for discourse analysis. The authors describe the origins and development of Natural Language Processing (NLP) tools in a historical perspective and provide examples of their application in social sciences, particularly in the methodology of Social Communication and Media Sciences. Fragmentary findings of studies carried out at the Institute of Journalism, Media and Social Communication at the Jagiellonian University in collaboration with the CLARIN-PL consortium illustrate a practical approach to the topic. The article presents the application of NLP tools in the analysis of the corpus of parliamentary discourse from 1989-2019 in terms of determinants for the institutionalization of civic dialogue in Poland and also in the comparative analysis of multiculturalism in the city council discourse and media discourse in Krakow between 2014–2018 (7th term of the Krakow City Council). The authors indicate in which phase and at which stage of communication research the use of computational linguistics can support the conclusion.
Źródło:
UR Journal of Humanities and Social Sciences; 2022, 25, 4; 118-132
2543-8379
Pojawia się w:
UR Journal of Humanities and Social Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies