Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę ""natural language"" wg kryterium: Temat


Tytuł:
Knowledge graphs effectiveness in Neural Machine Translation improvement
Autorzy:
Ahmadnia, Benyamin
Dorr, Bonnie J.
Kordjamshidi, Parisa
Powiązania:
https://bibliotekanauki.pl/articles/1839251.pdf
Data publikacji:
2020
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
natural language processing
neural machine translation
knowledge graph representation
Opis:
Maintaining semantic relations between words during the translation process yields more accurate target-language output from Neural Machine Translation (NMT). Although difficult to achieve from training data alone, it is possible to leverage Knowledge Graphs (KGs) to retain source-language semantic relations in the corresponding target-language translation. The core idea is to use KG entity relations as embedding constraints to improve the mapping from source to target. This paper describes two embedding constraints, both of which employ Entity Linking (EL)—assigning a unique identity to entities—to associate words in training sentences with those in the KG: (1) a monolingual embedding constraint that supports an enhanced semantic representation of the source words through access to relations between entities in a KG; and (2) a bilingual embedding constraint that forces entity relations in the source-language to be carried over to the corresponding entities in the target-language translation. The method is evaluated for English-Spanish translation exploiting Freebase as a source of knowledge. Our experimental results demonstrate that exploiting KG information not only decreases the number of unknown words in the translation but also improves translation quality
Źródło:
Computer Science; 2020, 21 (3); 299-318
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep learning based Tamil Parts of Speech (POS) tagger
Autorzy:
Anbukkarasi, S.
Varadhaganapathy, S.
Powiązania:
https://bibliotekanauki.pl/articles/2086879.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
POS tagging
part of speech
deep learning
natural language processing
BiLSTM
Bi-directional long short term memory
tagowanie POS
części mowy
uczenie głębokie
przetwarzanie języka naturalnego
Opis:
This paper addresses the problem of part of speech (POS) tagging for the Tamil language, which is low resourced and agglutinative. POS tagging is the process of assigning syntactic categories for the words in a sentence. This is the preliminary step for many of the Natural Language Processing (NLP) tasks. For this work, various sequential deep learning models such as recurrent neural network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU) and Bi-directional Long Short-Term Memory (Bi-LSTM) were used at the word level. For evaluating the model, the performance metrics such as precision, recall, F1-score and accuracy were used. Further, a tag set of 32 tags and 225 000 tagged Tamil words was utilized for training. To find the appropriate hidden state, the hidden states were varied as 4, 16, 32 and 64, and the models were trained. The experiments indicated that the increase in hidden state improves the performance of the model. Among all the combinations, Bi-LSTM with 64 hidden states displayed the best accuracy (94%). For Tamil POS tagging, this is the initial attempt to be carried out using a deep learning model.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 6; e138820, 1--6
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Słowa kluczowe, tagi…, i co dalej?
Keywords, tags... and what else?
Autorzy:
Babik, Wiesław
Powiązania:
https://bibliotekanauki.pl/articles/678637.pdf
Data publikacji:
2014-12-31
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
folksonomy
keywords
natural language
ontology
tagging
tags
tag cloud
chmura tagów
folksonomie
język naturalny
ontologia
słowa kluczowe
tagi
tagowanie
Opis:
Keywords and their latest versions, called tags, are the object of this paper. Those expressions are treated as elements of the lexical systems of respective languages: the keyword language and the tag language. Our presentation of those vocabulary groups is intended to demonstrate that they are not homonymous, in structural or functional respects. Those two lexical resources are presented rather from the viewpoint of the theory of indexing and retrieval languages as well as the information search theories. Considering the future of the languages in question, the author presents the folksonomies and the possibilities of application of the respective vocabulary collections in the construction of tools required for semantization of the information retrieval environment in the Internet, including the construction of ontology and thought maps. Special attention was paid to the idea that keywords and tags are practically equivalent to specific “languages” which, similarly to natural languages, are subjected to continuous changes. For that reason, it is necessary to regularly monitor them and consider their practical application in document and information description and search. The works on keywords constitute a step towards the construction of linguistic tools for the needs of a semantic website. This paper is a contribution to the discussion on the development of keyword vocabularies created at the Institute of Slavic Studies of the Polish Academy of Sciences in Warsaw. Such vocabularies constitute part of the Slavic bibliographic information system.
Przedmiotem artykułu są słowa kluczowe oraz ich nowsza odmiana zwana tagami. Wyrażenia te zostały potraktowane jako elementy systemów leksykalnych odpowiednich języków: języka słów kluczowych oraz języka tagów. Prezentacja tych grup słownictwa ma na celu wykazanie, że nie są to homonimiczne grupy leksyki zarówno pod względem strukturalnym, jak i funkcjonalnym. Wymienione zasoby słownictwa zostały zaprezentowane z punktu widzenia teorii języków informacyjno-wyszukiwawczych oraz teorii wyszukiwania informacji. Biorąc pod uwagę przyszłość omawianych języków, zaprezentowano folksonomie oraz możliwości wykorzystania omówionych zbiorów słownictwa w budowie narzędzi do semantyzacji środowiska wyszukiwawczego w Internecie, w tym do budowy ontologii i map myśli. Szczególną uwagę zwrócono na to, że słowa kluczowe i tagi to w praktyce swoistego rodzaju „języki”, które, podobnie jak język naturalny, podlegają ciągłym zmianom, stąd potrzeba stałego śledzenia i uwzględniania pragmatyki ich stosowania w opisie i wyszukiwaniu dokumentów i informacji. Prace nad słowami kluczowymi stanowią krok w kierunku budowy lingwistycznych narzędzi na potrzeby semantycznego Web-u. Artykuł stanowi głos w dyskusji nad tworzonymi w Instytucie Slawistyki PAN w Warszawie słownikami słów kluczowych stanowiącymi element systemu slawistycznej informacji bibliograficznej.
Źródło:
Studia z Filologii Polskiej i Słowiańskiej; 2014, 49; 139-149
2392-2435
0081-7090
Pojawia się w:
Studia z Filologii Polskiej i Słowiańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of linguistic cues in the analysis of language of hate groups
Autorzy:
Balcerzak, B.
Jaworski, W.
Powiązania:
https://bibliotekanauki.pl/articles/952938.pdf
Data publikacji:
2015
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
hate speech
natural language processing
propaganda
machine learning
Opis:
Hate speech and fringe ideologies are social phenomena that thrive on-line. Members of the political and religious fringe are able to propagate their ideas via the Internet with less effort than in traditional media. In this article, we attempt to use linguistic cues such as the occurrence of certain parts of speech in order to distinguish the language of fringe groups from strictly informative sources. The aim of this research is to provide a preliminary model for identifying deceptive materials online. Examples of these would include aggressive marketing and hate speech. For the sake of this paper, we aim to focus on the political aspect. Our research has shown that information about sentence length and the occurrence of adjectives and adverbs can provide information for the identification of differences between the language of fringe political groups and mainstream media.
Źródło:
Computer Science; 2015, 16 (2); 145-156
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Najlepsze narzędzie do zwalczania fejków (i dlaczego nie działa)
Best tools for detecting fake news (and why they do not work)
Autorzy:
Balcerzak, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/1849514.pdf
Data publikacji:
2020-09-30
Wydawca:
Instytut Dyskursu i Dialogu
Tematy:
fake news
informatyka społeczna
uczenie maszynowe
przetwarzanie języka naturalnego
computational social science
natural language processing
machine learning
Opis:
Artykuł stanowi przybliżenie technik informatycznych wykorzystywanych w procesie rozpoznawania fałszywych wiadomości. Równocześnie wskazuje na społeczne i psychologiczne czynniki wpływające na popularność fake news, oraz wskazuje na społeczne konsekwencje stosowania różnych metod wykrywania Fake News.
The article provides a review of various technologies used in detecting fake news online. It also provides discussion of sociological and psychological factors which influence the popularity of fake news. Finally a discussion of political consequences of the use of said technologies is provided.
Źródło:
Dyskurs & Dialog; 2020, II, 3 (5); 9-21
2658-2368
2658-2406
Pojawia się w:
Dyskurs & Dialog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przeciwko lokalnej teorii znaczenia dla języka prawnego – uwagi ogólne
Against a local theory of meaning for the legal language – some general remarks
Autorzy:
Banaś, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/531479.pdf
Data publikacji:
2017-01-01
Wydawca:
Stowarzyszenie Filozofii Prawa i Filozofii Społecznej – Sekcja Polska IVR
Tematy:
intencjonalizm
eksternalizm w teorii znaczenia
język prawny
język naturalny
teoria znaczenia
intentionalism
meaning externalism
legal language
natural language
theory of meaning
Opis:
W literaturze z zakresu filozofii prawa, jak również filozofii języka, można spotkać pogląd postulujący odrębne teorie znaczenia dla języka prawnego – eksternalizm oraz języka naturalnego – intencjonalizm. Pogląd ten można interpretować metafizycznie, tzn. jako głoszący, iż wyrażenia języka prawnego i naturalnego znaczą to, co znaczą z uwagi na różnego rodzaju fakty. W przypadku języka naturalnego faktami konstytuującymi znaczenie byłyby wówczas intencje nadawcy. Taka koncepcja języka zgodna jest z intuicją, iż celem komunikacji jest uchwycenie tego, co nadawca ma na myśli. W przypadku języka prawnego intencja nadawcy jako fakt konstytuujący znaczenie jest jednak problematyczna. Eksternalizm znaczeniowy dla języka prawnego zapewnia pożądaną w prawie obiektywność znaczenia, musi jednak wskazać, w jaki sposób jego wyrażenia są w ogóle znaczące (treść związana jest ściśle z intencjonalnością). Satysfakcjonująca teoria faktów konstytuujących znaczenie językowe może wiązać się z przyjęciem założenia o tym, że wszelkie znaczenie językowe (czy to dla języka prawnego czy naturalnego) jest artefaktem społecznym. W rezultacie jego treść konstytuowana jest przez zbiorowe intencje użytkowników języka. Jakkolwiek rozwiązuje to szereg problemów intencjonalizmu i eksternalizmu znaczeniowego, to jednak rodzi szereg zastrzeżeń, które wymagają dalszych badań.
Within philosophy of law as well as philosophy of language one can find a view suggesting that legal and natural languages have two different theories of meaning: meaning externalism and intentionalism accordingly. This view can be interpreted as a metaphysical one, ie. that there are two different kinds of facts that determine that expressions of legal and natural languages mean whatever they mean. For natural language these facts would be intentions of the speaker. Such a view of natural language seem intuitive as the aim of a communication is usually trying to grasp whatever a speaker has in mind. Such a view proves, however, problematic for the legal language. Meaning exteralism for legal language, on the other hand, allows for law to be objective. But it must show how its expressions are meaningful (as content is usually closely related to intentionality). As a result, a satisfactory theory of facts constituting linguistic meaning might require a pressuposition that meaning (also legal or natural) is a social artifact: its content is constituted by some kind of collective intentionality of language users. This solves a numer of problems with both intentionalism and meaning externalism – but also creates new ones that might require further studies.
Źródło:
Archiwum Filozofii Prawa i Filozofii Społecznej; 2017, 1(14); 7-16
2082-3304
Pojawia się w:
Archiwum Filozofii Prawa i Filozofii Społecznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Domain specific key feature extraction using knowledge graph mining
Autorzy:
Barai, Mohit Kumar
Sanyal, Subhasis
Powiązania:
https://bibliotekanauki.pl/articles/2027771.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Feature extraction
Knowledge graph
Natural language processing
Product review
Text processing
Opis:
In the field of text mining, many novel feature extraction approaches have been propounded. The following research paper is based on a novel feature extraction algorithm. In this paper, to formulate this approach, a weighted graph mining has been used to ensure the effectiveness of the feature extraction and computational efficiency; only the most effective graphs representing the maximum number of triangles based on a predefined relational criterion have been considered. The proposed novel technique is an amalgamation of the relation between words surrounding an aspect of the product and the lexicon-based connection among those words, which creates a relational triangle. A maximum number of a triangle covering an element has been accounted as a prime feature. The proposed algorithm performs more than three times better than TF-IDF within a limited set of data in analysis based on domain-specific data.
Źródło:
Multiple Criteria Decision Making; 2020, 15; 1-22
2084-1531
Pojawia się w:
Multiple Criteria Decision Making
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Is the Artificial Intelligent? A Perspective on AI-based Natural Language Processors
Autorzy:
Błachnio, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/601211.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
Artificial Intelligence, Natural Language Processors, Fluid Construction Grammar, parsing, cognition
Opis:
The issue of the relation between AI and human mind has been riddling the scientific world since ages. Being the mother lode of research, AI can be scrutinised from a plethora of perspectives. One of them is a linguistic perspective, which encompasses AI’s capability to understand language. Having been an innate and exclusive faculty of human mind, language is now manifested in a countless number of ways, transcending beyond the human-only production. There are applications that can not only understand what is meant by an utterance, but also engage in a quasi-humane discourse. The manner of their operating is perfectly organised and can be accounted for by incorporating linguistic theories. The main theory used in this article is Fluid Construction Grammar, which has been developed by Luc Steels. It is concerned with parsing and segmentation of any utterance – two processes that are pivotal in AI’s understanding and production of language. This theory, in addition with five main facets of languages (phonological, morphological, semantic, syntactic and pragmatic) provides a valuable insight into the discrepancies between natural and artificial perception of language. Though there are similarities between them, the article shall conclude with what makes two adjacent capabilities different. The aim of this paper is to display the mechanisms of AI natural language processors with the aid of contemporary linguistic theories, and present possible issues which may ensue from using artificial language-recognising systems.
Źródło:
New Horizons in English Studies; 2019, 4
2543-8980
Pojawia się w:
New Horizons in English Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Quelques réflexions sur les primitives, les prédicats, le sens des termes dans les ontologies et dans le lexique standard
Some Thoughts on Primitives, Predicates and the Meaning of Terms in Ontologies and in General Vocabulary
Kilka refleksji na temat prymitywów, predykatów, znaczenia terminów w ontologiach i w słownictwie ogólnym
Autorzy:
Bogacki, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1883474.pdf
Data publikacji:
2015
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
predykaty
prymitywy
ontologia
terminy w ontologiach
słownictwo języka naturalnego
ontology
predicates
primitives
terms in ontologies
natural language vocabulary
Opis:
Artykuł traktuje o « prymitywach» i «predykatach», które pojawiają się w ontologiach, w opisie języków naturalnych i w językach programowania. Sposób ich użycia zdaje się potwierdzać maksymę: Si duo dicunt idem non est idem. Jednakże używanie języków formalnych w ontologiach informatycznych oraz w tekstach językoznawczych każe zniuansować ten pogląd. Zarówno predykaty, jak i prymitywy pojawiają się w językoznawstwie i w informatyce w warstwie formalnej, nie zaś „leksykalnej” opisu. Pod tym ostatnim względem bliżsi ideału stworzenia listy prymitywów są językoznawcy, dążący niekiedy do zidentyfikowania pojęć nierozkładalnych, które powinny pozwolić na zrekonstruowanie reprezentacji semantycznej leksemów. Rzut oka na Kartę praw podstawowych Unii Europejskiej jako na podstawę tekstową służącą do opracowania mikro-ontologii prowadzi do wniosku, że jej autorzy wprowadzają pojęcie dignité humaine ‘godność człowieka’ definicją projektującą. Znaczenie przypisywane temu pojęciu nie pokrywa się z żadnym z zarejestrowanych w języku.
The article deals with two terms: “primitives” and “predicates” found in technical reports on ontology, on natural languages and in programming languages. The way they are used seems to confirm the Latin phrase: Si duo dicunt idem non est idem. However, one must attenuate this supposition which is due to the fact that the descriptions of ontologies, of the programming code and of the natural language texts are made in formal language. The obtained descriptions have two aspects: ‘formal’ and ‘lexical’ or ‘semantic’. Both predicates and primitives appear in linguistics and computer science on the formal level, and not on the ‘lexical’ one. A glance at the Charter of Fundamental Rights of the European Union as the base-text used to develop a micro-ontology leads to the conclusion that the authors introduce the concept of dignité humaine ‘human dignity’ by an arbitrary stipulative definition rather than by reporting one. The meaning assigned to this term does not coincide with any of the registered meanings of this expression in the standard language.
Źródło:
Roczniki Humanistyczne; 2015, 63, 8; 37-54
0035-7707
Pojawia się w:
Roczniki Humanistyczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Weighted accuracy algorithmic approach in counteracting fake news and disinformation
Algorytmiczne podejście do dokładności ważonej w przeciwdziałaniu fałszywym informacjom i dezinformacji
Autorzy:
Bonsu, K.O.
Powiązania:
https://bibliotekanauki.pl/articles/2048986.pdf
Data publikacji:
2021
Wydawca:
Akademia Bialska Nauk Stosowanych im. Jana Pawła II w Białej Podlaskiej
Tematy:
artificial intelligence
natural language processing
machine learning algorithm
disinformation
digital revolution
fake news
Opis:
Subject and purpose of work: Fake news and disinformation are polluting information environment. Hence, this paper proposes a methodology for fake news detection through the combined weighted accuracies of seven machine learning algorithms. Materials and methods: This paper uses natural language processing to analyze the text content of a list of news samples and then predicts whether they are FAKE or REAL. Results: Weighted accuracy algorithmic approach has been shown to reduce overfitting. It was revealed that the individual performance of the different algorithms improved after the data was extracted from the news outlet websites and 'quality' data was filtered by the constraint mechanism developed in the experiment. Conclusions: This model is different from the existing mechanisms in the sense that it automates the algorithm selection process and at the same time takes into account the performance of all the algorithms used, including the less performing ones, thereby increasing the mean accuracy of all the algorithm accuracies.
Źródło:
Economic and Regional Studies; 2021, 14, 1; 99-107
2083-3725
2451-182X
Pojawia się w:
Economic and Regional Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Text summarizing in Polish
Streszczanie tekstu w języku polskim
Autorzy:
Branny, E.
Gajęcki, M.
Powiązania:
https://bibliotekanauki.pl/articles/305824.pdf
Data publikacji:
2005
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
przetwarzanie języka naturalnego
streszczanie tekstu
natural language processing
text summarizing
Opis:
The aim of this article is to describe an existing implementation of a text summarizer for Polish, to analyze the results and propose the possibilities of further development. The problem of text summarizing has been already addressed by science but until now there has been no implementation designed for Polish. The implemented algorithm is based on existing developments in the field but it also includes some improvements. It has been optimized for newspaper texts ranging from approx. 10 to 50 sentences. Evaluation has shown that it works better than known generic summarization tools when applied to Polish.
Celem artykułu jest zaprezentowanie algorytmu streszczającego teksty w języku polskim. Mimo istnienia algorytmów streszczających teksty, brak jest algorytmów dedykowanych dla języka polskiego. Przedstawiony algorytm bazuje na istniejących algorytmach streszczania tekstu, ale zawiera kilka ulepszeń. Algorytm jest przeznaczony dla streszczania tekstów prasowych liczących od 10 do 50 zdań. Przeprowadzone testy pokazują, że algorytm działa lepiej od znanych algorytmów zastosowanych dla języka polskiego.
Źródło:
Computer Science; 2005, 7; 31-48
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluating lexicographer controlled semi-automatic word sense disambiguation method in a large scale experiment
Autorzy:
Broda, B.
Piasecki, M.
Powiązania:
https://bibliotekanauki.pl/articles/206405.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
natural language processing
word sense disambiguation
semi-supervised machine learning
Opis:
Word Sense Disambiguation in text remains a difficult problem as the best supervised methods require laborious and costly manual preparation of training data. On the other hand, the unsupervised methods yield significantly lower precision and produce results that are not satisfying for many applications. Recently, an algorithm based on weakly-supervised learning for WSD called Lexicographer-Controlled Semi-automatic Sense Disambiguation (LexCSD) was proposed. The method is based on clustering of text snippets including words in focus. For each cluster we find a core, which is labelled with a word sense by a human, and is used to produce a classifier. Classifiers, constructed for each word separately, are applied to text. The goal of this work is to evaluate LexCSD trained on large volume of untagged text. A comparison showed that the approach is better than most frequent sense baseline in most cases.
Źródło:
Control and Cybernetics; 2011, 40, 2; 419-436
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Korpusowe metody badania logosu i etosu
The method of corpus analysis in the study of logos and ethos
Autorzy:
Budzyńska, Katarzyna
Konat, Barbara
Koszowy, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/577868.pdf
Data publikacji:
2016-07
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
metody lingwistyczne
metody mieszane
badania korpusowe
automatyczne przetwarzanie języka naturalnego
argumentacja
spór
konsensus
logos
etos
dialog
linguistic methods
mixed methods
corpus studies
automatic natural language processing
argumentation
controversy
consensus
ethos
dialogue
Opis:
Celem artykułu jest prezentacja procesu badawczego wykorzystującego lingwistyczne metody korpusowe do wzbogacania fi lozofi cznych teorii logosu (tj. struktur inferencyjnych) i etosu (tj. struktur komunikacyjnych powiązanych z charakterem czy wiarygodnością mówcy). Te dwa typy zjawisk komunikacyjnych przyciągały uwagę fi lozofów od czasów starożytnych, kiedy to Arystoteles, jako jeden z pierwszych, zaproponował sposób rozumienia tych pojęć w swojej Retoryce. Współcześnie problem eksplozji danych, związany z rozwojem nowoczesnych technologii i Internetu, postawił przed fi lozofi ą nowe wyzwanie: możliwość zautomatyzowania procesu przetwarzania dużych zasobów danych i wydobywania informacji dotyczących tego, jakie opinie i argumenty ludzie formułują, oraz tego, kto jest uznawany za wiarygodnego mówcę, wymaga dobrego zrozumienia tego, w jaki sposób ludzie faktycznie konstruują struktury logosu i etosu – nawet jeżeli są to niepoprawne konstrukcje. Stąd też w naszych badaniach stosujemy następującą metodologię: (1) wychodzimy od teorii fi lozofi cznych, (2) następnie wybieramy dziedzinę dyskursu, dla której chcemy zidentyfi kować typowe językowe zachowania związane z logosem i etosem, (3) dane te analizujemy przy użyciu wybranych teorii, (4) na podstawie statystyk i wglądu w naturę danego dyskursu formułujemy nowe twierdzenia dotyczące interesujących nas zjawisk, (5) aby w końcu móc zastosować wyniki tych badań do wspierania automatycznego wydobywania struktur logosu i etosu z dużych zasobów danych języka naturalnego.
The aim of this paper is to discuss research process which employs linguistic methods of corpus analysis in order to better understand dialogue strategies people use. Theories developed in such a way are then suitable to be used for argument mining, i.e. for automated identifi cation and extraction of these strategies from large resources of texts in natural language. The paper considers two types of communication phenomena related to Aristotelian notions of logos (i.e. inferential premise-conclusion structures) and ethos (i.e.communication structures related to the character of the speaker). The goal of the paper is accomplished in four steps. The task of identifying the main problem (Sect. 1) allows us to give an outline of the corpus study method for automated argument mining (Sect. 2). Next, the explication of this method paves the way for discussing two examples of applying the corpus method to analyse logos and ethos, namely controversy and consensus (Sect. 3) and ethotic structures in a dialogue (Sect. 4).
Źródło:
Zagadnienia Naukoznawstwa; 2016, 52, 3(209); 385-404
0044-1619
Pojawia się w:
Zagadnienia Naukoznawstwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Methodological and technical challenges of a corpus-based study of Naija
Autorzy:
Caron, Bernard
Linde-Usiekniewicz, Jadwiga
Storch, Anne
Powiązania:
https://bibliotekanauki.pl/chapters/1036950.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Warszawski. Wydawnictwa Uniwersytetu Warszawskiego
Tematy:
natural language processing
corpus studies
syntax
prosody
Atlantic pidgins and creoles
Opis:
This paper presents early reflections on the NaijaSynCor survey (NSC) financed by the French Agence Nationale de la Recherche. The nature of the language surveyed (Naija, a post-creole spoken in Nigeria as a second language by close to 100 million speakers) has induced a specific choice of theoretical framework (variationist sociolinguistics) and methodology (a corpus-based study using Natural Language Processing). Half-way through the 4 year-study, the initial methodological choices are assessed taking into account the nature of the data that has been collected, and the problems that occurred as early as the initial stages of their annotation.
Źródło:
West African languages. Linguistic theory and communication; 57-75
9788323546313
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Type Theories and Lexical Networks : using Serious Games as the basis for Multi-Sorted Typed Systems
Autorzy:
Chatzikyriakidis, S.
Lafourcade, M.
Ramadier, L.
Zarrouk, M.
Powiązania:
https://bibliotekanauki.pl/articles/103833.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Instytut Podstaw Informatyki PAN
Tematy:
lexical networks
JeuxDeMots
type theory
type ontologies
formal semantics
natural language inference
Opis:
In this paper, we show how a rich lexico-semantic network which Has been built using serious games, JeuxDeMots, can help us in grounding our semantic ontologies in doing formal semantics using rich or modern type theories (type theories within the tradition of Martin Löf). We discuss the issue of base types, adjectival and verbal types, hyperonymy/hyponymy relations as well as more advanced issues like homophony and polysemy. We show how one can take advantage of this wealth of lexical semantics in a formal compositional semantics framework. We argue that this is a way to sidestep the problem of deciding what the type ontology should look like once a move to a many sorted type system has been made. Furthermore, we show how this kind of information can be extracted from a lexico-semantic Network like JeuxDeMots and inserted into a proof-assistant like Coq in order to perform reasoning tasks.
Źródło:
Journal of Language Modelling; 2017, 5, 2; 229-272
2299-856X
2299-8470
Pojawia się w:
Journal of Language Modelling
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies