Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę ""natural language"" wg kryterium: Temat


Wyświetlanie 1-96 z 96
Tytuł:
An English neural network that learns texts, finds hidden knowledge, and answers questions
Autorzy:
Ke, Y.
Hagiwara, M.
Powiązania:
https://bibliotekanauki.pl/articles/91771.pdf
Data publikacji:
2017
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
natural language processing
neural network
question answering
natural language understanding
Opis:
In this paper, a novel neural network is proposed, which can automatically learn and recall contents from texts, and answer questions about the contents in either a large corpus or a short piece of text. The proposed neural network combines parse trees, semantic networks, and inference models. It contains layers corresponding to sentences, clauses, phrases, words and synonym sets. The neurons in the phrase-layer and the word-layer are labeled with their part-of-speeches and their semantic roles. The proposed neural network is automatically organized to represent the contents in a given text. Its carefully designed structure and algorithms make it able to take advantage of the labels and neurons of synonym sets to build the relationship between the sentences about similar things. The experiments show that the proposed neural network with the labels and the synonym sets has the better performance than the others that do not have the labels or the synonym sets while the other parts and the algorithms are the same. The proposed neural network also shows its ability to tolerate noise, to answer factoid questions, and to solve single-choice questions in an exercise book for non-native English learners in the experiments.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2017, 7, 4; 229-242
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sémantique lexicale et corpus : l’étude du lexique transdisciplinaire des écrits scientifiques
Autorzy:
Tutin, Agnès
Powiązania:
https://bibliotekanauki.pl/articles/605411.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
corpus linguistics
natural language processing
Opis:
This paper deals with a corpus-based linguistic study in lexical semantics. Our topic is the general scientific lexicon, the cross-disciplinary lexicon peculiar to the academic genre. We show how the use of a large corpus enables to develop an inventory of this vocabulary and present the first semantic treatments performed with the help of the corpus, with a first experiment in natural language processing..
Źródło:
Lublin Studies in Modern Languages and Literature; 2008, 32; 242-260
0137-4699
Pojawia się w:
Lublin Studies in Modern Languages and Literature
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using tags in an AIML-based chatterbot to improve its knowledge
Autorzy:
Mikic, F. A.
Burguillo, J. C.
Peleteiro, A.
Rey-Lopez, M.
Powiązania:
https://bibliotekanauki.pl/articles/305303.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
AIML
chatterbots
folksonomies
tagging
natural language
Opis:
Nowadays, it is common to find on the Internet different conversational robots which interact with users simulating a natural language conversation. Among them, we can emphasize the chatterbots based on AIML language. In this paper we present an AIML based chatterbot that shows as its main contribution the use of tags and folksonomies. Thanks to its use, we can generate a context for each conversation, being able to maintain a state for each user in the system, and improving the adaptation capabilities of the bot.
Źródło:
Computer Science; 2012, 13 (2); 123-133
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Traitement automatique de la polysémie
Machine-made treatment of polysemy
Autorzy:
Gross, Gaston
Powiązania:
https://bibliotekanauki.pl/articles/1048808.pdf
Data publikacji:
2015-01-01
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
polysemy
natural language processing
lexicon-grammar
Opis:
It has been an empirical fact that almost all the words are polysemous. A standard dictionary such as the Petit Robert lists 60,000 entries which correspond to 300,000 meanings. Thus, in this particular dictionary one word is paired with five different senses on average. Moreover, what is being dealt with here is no more than a general reference work, designed for a daily use. It contains only most frequent and general items, but disregards all other available meanings. In what follows, contextual properties will be demonstrated to be able to set apart each instance of polysemy, thus offering an effectual tool likely to do away with ambiguities.
Źródło:
Studia Romanica Posnaniensia; 2015, 42, 1; 15-33
0137-2475
2084-4158
Pojawia się w:
Studia Romanica Posnaniensia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Change in Approach to Preparing Children to Learn to Read and Write
Autorzy:
Jagiełło, Ewa
Klim-Klimaszewska, Anna
Powiązania:
https://bibliotekanauki.pl/articles/454172.pdf
Data publikacji:
2016
Wydawca:
Akademia Ignatianum w Krakowie
Tematy:
natural language teaching
method
pre-school
education
Opis:
Readiness to learn to read must be shaped at the level of preschool education. One of the innovative methods of teaching pre-school children to read is the natural language teaching method developed by Wenda Pye. The programme consists in the teaching of listening, speaking, reading and writing using games and creative activities. The learning process is accompanied by children’s creative activity. Therefore, the natural language teaching method is perceived not only as the process of language learning but also, and most importantly, as educating through language, where language is both a means of communication and a thinking tool. The concept is based on the belief that child’s language is a specific phenomenon determined, on the one hand, by natural child development and, on the other hand, by child’s interactions with the environment. Consequently, child’s language education should be enhanced by a subtle help from an adult, who – by the use of provocation, arrangement and gentle encouragement to take actions – opens up a new, unknown space to the child, i.e. the world of writing. Language plays a role of a factor that integrates various fields of knowledge and different types of child’s activity in reality perception and acquisition. Natural situations used in the teaching of reading, which create occasional educational situations, inspire the child and simultaneously introduce him into the world of writing. Thus, learning to read should be accompanied by learning to write. The discovery of new values that the novel language of signs has with regards to information acquisition increases child’s motivation to verbalise his own thoughts and to learn to read and write. Emotional engagement facilitates memorizing a story or new vocabulary. It sensitizes the child to the graphical, phonological and semantic dimension of a given word by making a direct link between the graphical representation and the sound. A point of departure for natural language teaching is a short and simple text and illustrations that highly relate to it. Texts form stories included in little books entitled “Sunshine Library”. There is a series of 40 books designed for pre-school children self-study of reading. The books are graded at four levels of difficulty. Didactic aids used in the series are very well organised and introduce already consolidated semantic structures, providing new contents regarding language competence at a slow pace. Each book is composed of three stories. Typically, the first story includes one text with carefully selected new language structures. The following two stories serve the purpose of material consolidation. The essence of the books are pictures, which should be in line with the text because the basis of reading is to associate an image with its graphical representation. The print used in the books is large, legible, the words are clearly separated, and every sentence starts with a new line. The stories are simple and presented with repetitive sentence patterns. Natural language teaching develops and deepens child’s natural willingness to speak, read or draw graphical symbols. Speech is here not only the foundation of child’s expression and learning to read and write, but also a support for child’s paralanguage activity. The article presents the use of the natural language teaching method in pre-school children education.
Źródło:
Multidisciplinary Journal of School Education; 2016, 9; 71-88
2543-7585
Pojawia się w:
Multidisciplinary Journal of School Education
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Implementation of the example-based machine translation technique for French-to-Polish automatic translation system
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/1986914.pdf
Data publikacji:
2002
Wydawca:
Politechnika Gdańska
Tematy:
natural language processing
computational linguistics
machine translation
Opis:
High-quality machine translation between human languages has for a long time been an unattainable dream for many computer scientists involved in this fascinating and interdisciplinary field of computer application. The developed quite recently example-based machine translation technique seems to be a serious alternative to the existing automatic translation techniques. In the paper the usage of the example based machine translation technique for the development of system which would be able to translate an unrestricted French text into Polish is proposed. The new approach to the example-based machine translation technique that takes into account the peculiarity of the Polish grammar is developed. The obtained primary results of the development of the proposed system seem to be very promising and appear to be a step made in the right direction towards a fully-automatic high quality French-into-Polish machine translation system for unrestricted text.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2002, 6, 3; 523-544
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Specialized fully automatic machine translation system delivering high quality of translated texts
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/1943201.pdf
Data publikacji:
2009
Wydawca:
Politechnika Gdańska
Tematy:
natural language processing
machine translation
translation patterns
Opis:
The paper concerns machine translation systems that form a discipline of computer science and are aimed at writing computer programs that are able to translate text between natural languages. In the paper the author argues that it is not possible to build a machine translation system that would be able to translate any kind of documents with a sufficiently high quality. Instead, the author proposes a specialized machine translation system the aim of which is to translate financial reports concerning the global currency exchange market – forex. For the purpose of building the above mentioned system, the author has proposed his own machine translation method of translation patterns. The translation patterns allow transferring the translation process from the level of single words to the level of words chunks. The translation patterns play a very important role in the case of such an inflectional language as Polish because they make it possible to choose the correct form of Polish translation of foreign phrases depending whether they perform the verb or object function in the sentence. The high quality of the specialized machine translation system developed by the author was proved with many experiments the results of which are demonstrated in the paper. The quality of translation is so high that the Polish translations of English reports from the global currency exchange market can be published on Web pages without any additional changes. Thus, it is possible to totally eliminate the human translator from the process of translation of texts which are highly stereotypical and oriented to a selected and narrow domain.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2009, 13, 4; 347-354
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of linguistic cues in the analysis of language of hate groups
Autorzy:
Balcerzak, B.
Jaworski, W.
Powiązania:
https://bibliotekanauki.pl/articles/952938.pdf
Data publikacji:
2015
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
hate speech
natural language processing
propaganda
machine learning
Opis:
Hate speech and fringe ideologies are social phenomena that thrive on-line. Members of the political and religious fringe are able to propagate their ideas via the Internet with less effort than in traditional media. In this article, we attempt to use linguistic cues such as the occurrence of certain parts of speech in order to distinguish the language of fringe groups from strictly informative sources. The aim of this research is to provide a preliminary model for identifying deceptive materials online. Examples of these would include aggressive marketing and hate speech. For the sake of this paper, we aim to focus on the political aspect. Our research has shown that information about sentence length and the occurrence of adjectives and adverbs can provide information for the identification of differences between the language of fringe political groups and mainstream media.
Źródło:
Computer Science; 2015, 16 (2); 145-156
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Compressing sentiment analysis CNN models for efficient hardware processing
Autorzy:
Wróbel, Krzysztof
Karwatowski, Michał
Wielgosz, Maciej
Pietroń, Marcin
Wiatr, Kazimierz
Powiązania:
https://bibliotekanauki.pl/articles/305234.pdf
Data publikacji:
2020
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
natural language processing
convolutional neural networks
FPGA
compression
Opis:
Convolutional neural networks (CNNs) were created for image classification tasks. Shortly after their creation, they were applied to other domains, including natural language processing (NLP). Nowadays, solutions based on artificial intelligence appear on mobile devices and embedded systems, which places constraints on memory and power consumption, among others. Due to CNN memory and computing requirements, it is necessary to compress them in order to be mapped to the hardware. This paper presents the results of the compression of efficient CNNs for sentiment analysis. The main steps involve pruning and quantization. The process of mapping the compressed network to an FPGA and the results of this implementation are described. The conducted simulations showed that the 5-bit width is enough to ensure no drop in accuracy when compared to the floating-point version of the network. Additionally, the memory footprint was significantly reduced (between 85 and 93% as compared to the original model).
Źródło:
Computer Science; 2020, 21 (1); 25-41
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Retrieval and interpretation of textual geolocalized information based on semantic geolocalized relations
Autorzy:
Korczyński, W.
Powiązania:
https://bibliotekanauki.pl/articles/305820.pdf
Data publikacji:
2015
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
geolocalization
geolocalized dictionary
geolocalized relations
natural language processing
Opis:
This paper describes a method for geolocalized information retrieval from natural language text and its interpretation by assigning it geographic coordinates. Proof-of-concept implementation is discussed, along with a geolocalized dictionary stored in a PostGIS/PostgreSQL spatial relational database. The discussed research focuses on the strongly inflectional Polish language; hence, additional complexity had to be taken into account. The presented method has been evaluated with the use of diverse metrics.
Źródło:
Computer Science; 2015, 16 (4); 395-414
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja bazy danych jako podstawowej części programu generującego oceny opisowe w nauczaniu wczesnoszkolnym
Conception of a database as fundamental part of the program generating the descriptive grades in elementary schools
Autorzy:
Trzeciakowska, Arleta
Powiązania:
https://bibliotekanauki.pl/articles/41204129.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
komputerowe przetwarzanie tekstów
NLP
generowanie tekstów w języku naturalnym
ocena opisowa
natural language processing
genering texts in natural language
descriptive grades
Opis:
Szeroki dostęp do Internetu, istnienie ogromnej ilości tekstów w wersji elektronicznej powoduje konieczność rozwoju nauki określanej jako inżynieria lingwistyczna. Zajmuje się ona szeroko pojętym przetwarzaniem danych lingwistycznych. Jednym z aspektów przetwarzania tego rodzaju danych jest generowanie tekstów w języku naturalnym. Ponieważ przeważająca ilość powstających tekstów dostępna jest w wersji elektronicznej, istnieje bardzo duże zapotrzebowanie na programy przetwarzające je. Głównym celem powstania tego artykułu jest przedstawienie koncepcji relacyjnej bazy danych będącej podstawą eksperymentalnego programu automatycznie generującego oceny opisowe w nauczaniu wczesnoszkolnym.
Common access to the Internet and huge number of the texts in numeric version causes necessity of progress of the science known as linguistic engineering. It researches the wide implied natural language processing. One of the aspects of processing that kind of data is genering the texts in the natural language. Because the most of the nascent texts are available in numeric version, there is large demand for the programs processing them. The main point of that article is to present the conception of a database that is the fundamental part of the experimental program automatically genering descriptive grades in elementary schools.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2010, 3; 31-37
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kazimierza Ajdukiewicza analiza syntaktyczna a problem wyrażeń niepełnych
Kazimierz Ajdukiewicz’s Syntactic Analysis and the Problem of Incomplete Expressions
Autorzy:
Popławski, Patryk
Powiązania:
https://bibliotekanauki.pl/articles/2083450.pdf
Data publikacji:
2020-12-31
Wydawca:
Uniwersytet Warszawski. Wydział Filozofii
Tematy:
Kazimierz Ajdukiewicz
syntactic analysis
incomplete expressions
natural language
ellipsis
Opis:
This paper discusses the problem of applying Kazimierz Ajdukiewicz’s method of syntactic analysis to incomplete expressions that occur in natural languages. The author defends the claim that it is impossible effectively to apply syntactic analysis to any expressions of natural languages, due to the presence of incomplete expressions. First, the author outlines the basic concepts and describes Ajdukiewicz’s selected views on incomplete expressions, as well as his method of syntactic analysis. Second, using the example of various types of incomplete expressions, the author presents problems that arise when syntactic analysis is applied to expressions of natural languages.
Źródło:
Filozofia Nauki; 2020, 28, 4; 39-60
1230-6894
2657-5868
Pojawia się w:
Filozofia Nauki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Knowledge graphs effectiveness in Neural Machine Translation improvement
Autorzy:
Ahmadnia, Benyamin
Dorr, Bonnie J.
Kordjamshidi, Parisa
Powiązania:
https://bibliotekanauki.pl/articles/1839251.pdf
Data publikacji:
2020
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
natural language processing
neural machine translation
knowledge graph representation
Opis:
Maintaining semantic relations between words during the translation process yields more accurate target-language output from Neural Machine Translation (NMT). Although difficult to achieve from training data alone, it is possible to leverage Knowledge Graphs (KGs) to retain source-language semantic relations in the corresponding target-language translation. The core idea is to use KG entity relations as embedding constraints to improve the mapping from source to target. This paper describes two embedding constraints, both of which employ Entity Linking (EL)—assigning a unique identity to entities—to associate words in training sentences with those in the KG: (1) a monolingual embedding constraint that supports an enhanced semantic representation of the source words through access to relations between entities in a KG; and (2) a bilingual embedding constraint that forces entity relations in the source-language to be carried over to the corresponding entities in the target-language translation. The method is evaluated for English-Spanish translation exploiting Freebase as a source of knowledge. Our experimental results demonstrate that exploiting KG information not only decreases the number of unknown words in the translation but also improves translation quality
Źródło:
Computer Science; 2020, 21 (3); 299-318
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An NLP-based approach for improving human-robot interaction
Autorzy:
Kilicaslan, Y.
Tuna, G.
Powiązania:
https://bibliotekanauki.pl/articles/91846.pdf
Data publikacji:
2013
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
human-robot interaction
HRI
NLP
natural language
ontology
robot
Opis:
This study aims to explore the possibility of improving human-robot interaction (HRI) by exploiting natural language resources and using natural language processing (NLP) methods. The theoretical basis of the study rests on the claim that effective and efficient human robot interaction requires linguistic and ontological agreement. A further claim is that the required ontology is implicitly present in the lexical and grammatical structure of natural language. The paper offers some NLP techniques to uncover (fragments of) the ontology hidden in natural language and to generate semantic representations of natural language sentences using that ontology. The paper also presents the implementation details of an NLP module capable of parsing English and Turkish along with an overview of the architecture of a robotic interface that makes use of this module for expressing the spatial motions of objects observed by a robot.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2013, 3, 3; 189-200
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronous versions of regulated grammars : generative power and linguistic applications
Autorzy:
Horáček, P.
Meduna, A.
Powiązania:
https://bibliotekanauki.pl/articles/375683.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
regulated grammar
synchronous grammar
generative power
natural language translation
Opis:
This paper introduces the notion of new synchronous grammars as systems consisting of two context-free grammars with linked rules instead of linked nonterminals. Further, synchronous versions of regulated grammars, specifically, matrix grammars and scattered context grammars, are discussed. From a theoretical point of view, this paper discusses the power of these synchronous grammars. It demonstrates the following main results. First, if we synchronize context-free grammars by linking rules, the grammar generates the languages defined by matrix grammars. Second, if we synchronize matrix grammars by linking matrices, the generative power remains unchanged. Third, synchronous scattered context grammars generate the class of recursively enumerable languages. From a more practical viewpoint, this paper presents linguistic application prospects. The focus is on natural language translation between Japanese and English.
Źródło:
Theoretical and Applied Informatics; 2012, 24, 3; 175-190
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A blackboard system for generating poetry
Autorzy:
Misztal-Radecka, J.
Indurkhya, B.
Powiązania:
https://bibliotekanauki.pl/articles/305325.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
poetry generation
computational creativity
natural language processing
multi-agent system
Opis:
We present a system to generate poems based on the information extracted from input text such as blog posts. Our design uses the blackboard architecture, in which independent specialized modules cooperate during the generation process by sharing a common workspace known as the blackboard. Each module is responsible for a particular task while generating poetry. Our implementation incorporates modules that retrieve information from the input text, generate new ideas, or select the best partial solutions. These distinct modules (experts) are implemented as diverse computational units that make use of lexical resources, grammar models, sentiment-analyzing tools, and languageprocessing algorithms. A control module is responsible for scheduling actions on the blackboard. We argue that the blackboard architecture is a promising way of simulating creative processes because of its flexibility and compliance with the Global Workspace Theory of mind. The main contribution of this work is the design and prototype implementation of an extensible platform for a poetry-generating system that may be further extended by incorporating new experts as well as some existing poetrygenerating systems as parts of the blackboard architecture. We claim that this design provides a powerful tool for combining many of the existing efforts in the domain of automatic poetry generation.
Źródło:
Computer Science; 2016, 17 (2); 265-294
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Is the Artificial Intelligent? A Perspective on AI-based Natural Language Processors
Autorzy:
Błachnio, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/601211.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
Artificial Intelligence, Natural Language Processors, Fluid Construction Grammar, parsing, cognition
Opis:
The issue of the relation between AI and human mind has been riddling the scientific world since ages. Being the mother lode of research, AI can be scrutinised from a plethora of perspectives. One of them is a linguistic perspective, which encompasses AI’s capability to understand language. Having been an innate and exclusive faculty of human mind, language is now manifested in a countless number of ways, transcending beyond the human-only production. There are applications that can not only understand what is meant by an utterance, but also engage in a quasi-humane discourse. The manner of their operating is perfectly organised and can be accounted for by incorporating linguistic theories. The main theory used in this article is Fluid Construction Grammar, which has been developed by Luc Steels. It is concerned with parsing and segmentation of any utterance – two processes that are pivotal in AI’s understanding and production of language. This theory, in addition with five main facets of languages (phonological, morphological, semantic, syntactic and pragmatic) provides a valuable insight into the discrepancies between natural and artificial perception of language. Though there are similarities between them, the article shall conclude with what makes two adjacent capabilities different. The aim of this paper is to display the mechanisms of AI natural language processors with the aid of contemporary linguistic theories, and present possible issues which may ensue from using artificial language-recognising systems.
Źródło:
New Horizons in English Studies; 2019, 4
2543-8980
Pojawia się w:
New Horizons in English Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluating lexicographer controlled semi-automatic word sense disambiguation method in a large scale experiment
Autorzy:
Broda, B.
Piasecki, M.
Powiązania:
https://bibliotekanauki.pl/articles/206405.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
natural language processing
word sense disambiguation
semi-supervised machine learning
Opis:
Word Sense Disambiguation in text remains a difficult problem as the best supervised methods require laborious and costly manual preparation of training data. On the other hand, the unsupervised methods yield significantly lower precision and produce results that are not satisfying for many applications. Recently, an algorithm based on weakly-supervised learning for WSD called Lexicographer-Controlled Semi-automatic Sense Disambiguation (LexCSD) was proposed. The method is based on clustering of text snippets including words in focus. For each cluster we find a core, which is labelled with a word sense by a human, and is used to produce a classifier. Classifiers, constructed for each word separately, are applied to text. The goal of this work is to evaluate LexCSD trained on large volume of untagged text. A comparison showed that the approach is better than most frequent sense baseline in most cases.
Źródło:
Control and Cybernetics; 2011, 40, 2; 419-436
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An Application of Probabilistic Grammars to Efficient Machne Translation
Autorzy:
Skórzewski, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/1037598.pdf
Data publikacji:
2010-09-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
a* algorithm
machine translation
natural language parsing
pcfg
probabilistic grammars
Opis:
In this paper we present one of the algorithms used to parse probabilistic context-free grammars: the A* parsing algorithm, which is based on the A* graph search method. We show an example of application of the algorithm in an existing machine translation system. The existing CYK-based parser used in the Translatica system was modified by applying the A* parsing algorithm in order to examine the possibilities of improving its performance. This paper presents the results of applying the A* algorithm with different heuristic functions and their impact on the performance of the parser.
Źródło:
Investigationes Linguisticae; 2010, 21; 90-98
1426-188X
1733-1757
Pojawia się w:
Investigationes Linguisticae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verb aspect, alternations and quantification
Autorzy:
Koeva, Svetla
Powiązania:
https://bibliotekanauki.pl/articles/677021.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
Slavic verb aspect
semantic and syntactic alternations
natural language quantification
Opis:
Verb aspect, alternations and quantificationIn this paper we are briefly discuss the nature of Bulgarian verb aspect and argue that the verb aspect pairs are different lexical units with different (although related) meaning, different argument structure (reflecting categories, explicitness and referential status of arguments) and different sets of semantic and syntactic alternations. The verb prefixes resulting in perfective verbs derivation in some cases can be interpreted as lexical quantifiers as well. Thus the Bulgarian verb aspect is related (in different way) both with the potential for the generation of alternations and with the prefixal lexical quantification. It is shown that the scope of the lexical quantification by means of verbal prefixes is the quantified verb phrase and the scope remains constant in all derived alternations. The paper concerns the basic issues of these complex problems, while the detailed description of the conditions satisfying particular alternation or particular lexical quantification are subject of a more detailed study.
Źródło:
Cognitive Studies; 2011, 11
2392-2397
Pojawia się w:
Cognitive Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Text summarizing in Polish
Streszczanie tekstu w języku polskim
Autorzy:
Branny, E.
Gajęcki, M.
Powiązania:
https://bibliotekanauki.pl/articles/305824.pdf
Data publikacji:
2005
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
przetwarzanie języka naturalnego
streszczanie tekstu
natural language processing
text summarizing
Opis:
The aim of this article is to describe an existing implementation of a text summarizer for Polish, to analyze the results and propose the possibilities of further development. The problem of text summarizing has been already addressed by science but until now there has been no implementation designed for Polish. The implemented algorithm is based on existing developments in the field but it also includes some improvements. It has been optimized for newspaper texts ranging from approx. 10 to 50 sentences. Evaluation has shown that it works better than known generic summarization tools when applied to Polish.
Celem artykułu jest zaprezentowanie algorytmu streszczającego teksty w języku polskim. Mimo istnienia algorytmów streszczających teksty, brak jest algorytmów dedykowanych dla języka polskiego. Przedstawiony algorytm bazuje na istniejących algorytmach streszczania tekstu, ale zawiera kilka ulepszeń. Algorytm jest przeznaczony dla streszczania tekstów prasowych liczących od 10 do 50 zdań. Przeprowadzone testy pokazują, że algorytm działa lepiej od znanych algorytmów zastosowanych dla języka polskiego.
Źródło:
Computer Science; 2005, 7; 31-48
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Swarm algorithms for NLP : the case of limited training data
Autorzy:
Tambouratzis, George
Vassiliou, Marina
Powiązania:
https://bibliotekanauki.pl/articles/1396739.pdf
Data publikacji:
2019
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
particle swarm optimisation
natural language processing
text phrasing
machine translation
Opis:
The present article describes a novel phrasing model which can be used for segmenting sentences of unconstrained text into syntactically-defined phrases. This model is based on the notion of attraction and repulsion forces between adjacent words. Each of these forces is weighed appropriately by system parameters, the values of which are optimised via particle swarm optimisation. This approach is designed to be language-independent and is tested here for different languages. The phrasing model’s performance is assessed per se, by calculating the segmentation accuracy against a golden segmentation. Operational testing also involves integrating the model to a phrase-based Machine Translation (MT) system and measuring the translation quality when the phrasing model is used to segment input text into phrases. Experiments show that the performance of this approach is comparable to other leading segmentation methods and that it exceeds that of baseline systems.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2019, 9, 3; 219-234
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementing Natural Language Inference for comparatives
Autorzy:
Haruta, Izumi
Mineshima, Koji
Bekki, Daisuke
Powiązania:
https://bibliotekanauki.pl/articles/24201228.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Instytut Podstaw Informatyki PAN
Tematy:
comparatives
compositional semantics
theorem proving
Combinatory Categorial Grammar
Natural Language Inference
Opis:
This paper presents a computational framework for Natural Language Inference (NLI) using logic-based semantic representations and theorem-proving. We focus on logical inferences with comparatives and other related constructions in English, which are known for their structural complexity and difficulty in performing efficient reasoning. Using the so-called A-not-A analysis of comparatives, we implement a fully automated system to map various comparative constructions to semantic representations in typed first-order logic via Combinatory Categorial Grammar parsers and to prove entailment relations via a theorem prover. We evaluate the system on a variety of NLI benchmarks that contain challenging inferences, in comparison with other recent logic-based systems and neural NLI models.
Źródło:
Journal of Language Modelling; 2022, 10, 1; 139--191
2299-856X
2299-8470
Pojawia się w:
Journal of Language Modelling
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Terminologiedatenbanken im mobilen Einsatz – eine Projektskizze
Autorzy:
Rösener, Christoph
Powiązania:
https://bibliotekanauki.pl/articles/700383.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Germanistów Polskich
Tematy:
terminology databases, research project, natural language processing, linguistic intelligence, special languages
Opis:
Initially this paper describes the newest trends and tendencies of mobile usage of terminology databases. Additionally it presents the latest technical developments in this area. This is then followed by an overview about a research project, which investigates the concept, implementation and usage of a central terminology database application for mobile usage within a public sector institution in special operational scenarios.
Źródło:
Zeitschrift des Verbandes Polnischer Germanisten; 2013, 2, 2
2353-656X
2353-4893
Pojawia się w:
Zeitschrift des Verbandes Polnischer Germanisten
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Building semantic user profile for polish web news portal
Autorzy:
Misztal-Radecka, J.
Powiązania:
https://bibliotekanauki.pl/articles/305619.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
user profiling
word embeddings
topic modeling
natural language processing
gender prediction
Opis:
The aim of this research is to construct meaningful user profiles that are the most descriptive of user interests in the context of the media content that they browse. We use two distinct state-of-the-art numerical text-representation techniques: LDA topic modeling and Word2Vec word embeddings. We train our models on the collection of news articles in Polish and compare them with a model built on a general language corpus. We compare the performance of these algorithms on two practical tasks. First, we perform a qualitative analysis of the semantic relationships for similar article retrieval, and then we evaluate the predictive performance of distinct feature combinations for user gender classification. We apply the algorithms to the real-world dataset of Polish news service Onet. Our results show that the choice of text representation depends on the task –Word2Vec is more suitable for text comparison, especially for short texts such as titles. In the gender classification task, the best performance is obtained with a combination of features: topics from the article text and word embeddings from the title.
Źródło:
Computer Science; 2018, 19 (3); 307--332
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ecolinguistic approach to foreign language teaching on the example of English
Autorzy:
Wiertlewska, Janina
Powiązania:
https://bibliotekanauki.pl/articles/918001.pdf
Data publikacji:
2011-01-01
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
Ecolinguistics
Robustness
Foreign language teaching
The triad
Natural language diversity maintenance
Opis:
The paper deals with the problem of balance maintenance of natural languages in the context of foreign language teaching. A new paradigm of foreign language teaching in the following triad: native language – global language – second foreign language is proposed. Translingualism is treated as the only means of maintaining linguistic balance between natural languages viewed from an ecolinguistic perspective.
Źródło:
Glottodidactica. An International Journal of Applied Linguistics; 2011, 37, 1; 141-151
0072-4769
Pojawia się w:
Glottodidactica. An International Journal of Applied Linguistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Impact of Investor Sentiment on Direction of Stock Price Changes: Evidence from the Polish Stock Market
Autorzy:
Polak, Kamil
Powiązania:
https://bibliotekanauki.pl/articles/2053925.pdf
Data publikacji:
2021-12-20
Wydawca:
Uniwersytet Warszawski. Wydawnictwo Naukowe Wydziału Zarządzania
Tematy:
sentiment analysis
natural language processing
machine learning
financial forecasting
behavioral finance
Opis:
The purpose of this research is to examine the impact of sentiment derived from news headlines on the direction of stock price changes. The study examines stocks listed on the WIG-banking sub-sector index on the Warsaw Stock Exchange. Two types of data were used: textual and market data. The research period covers the years 2015–2018. Through the research, 7,074 observations were investigated, of which 3,390 with positive sentiment, 2,665 neutral, and 1,019 negative. In order to examine the predictive power of sentiment, six machine learning models were used: Decision Tree Classifier, Random Forest Classifier, XGBoost Classifier, KNN Classifier, SVC and Gaussian Naive Bayes Classifier. Empirical results show that the sentiment of news headlines has no significant explanatory power for the direction of stock price changes in one-day time frame.
Źródło:
Journal of Banking and Financial Economics; 2021, 2(16); 72-90
2353-6845
Pojawia się w:
Journal of Banking and Financial Economics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Do czego konieczny jest język? Co jest konieczne w języku?
Autorzy:
Danielewiczowa, Magdalena
Powiązania:
https://bibliotekanauki.pl/articles/1186988.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Tematy:
linguistics
semiotics
natural language
animal codes
inalienable features of human language
Opis:
The article attempts to answer two closely interrelated questions: What is a natural language necessary for and, on the other hand, what is necessary in the language itself? In the first part the author puts forward a thesis that there is a gulf between human speech and animal codes − a gulf which cannot be filled with explanations of evolutionary nature. She also invokes a series of ideas of distinguished scholars who advocate the logical primacy of language in relation to all other semiotic systems that create the space of culture. In the second part of the article, the inalienable properties of language are discussed, those that determine its essence and, at the same time, the uniqueness with respect to both the animal signals and all other sign systems. These features include: double demarcation, duality, proportionality, the possession of reference and predictive expressions, metalinguistic and metatextual tools, as well as tools for communicating the truth and knowledge of the world.
Źródło:
Załącznik Kulturoznawczy; 2017, 4; 11-31
2392-2338
Pojawia się w:
Załącznik Kulturoznawczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Domain specific key feature extraction using knowledge graph mining
Autorzy:
Barai, Mohit Kumar
Sanyal, Subhasis
Powiązania:
https://bibliotekanauki.pl/articles/2027771.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Feature extraction
Knowledge graph
Natural language processing
Product review
Text processing
Opis:
In the field of text mining, many novel feature extraction approaches have been propounded. The following research paper is based on a novel feature extraction algorithm. In this paper, to formulate this approach, a weighted graph mining has been used to ensure the effectiveness of the feature extraction and computational efficiency; only the most effective graphs representing the maximum number of triangles based on a predefined relational criterion have been considered. The proposed novel technique is an amalgamation of the relation between words surrounding an aspect of the product and the lexicon-based connection among those words, which creates a relational triangle. A maximum number of a triangle covering an element has been accounted as a prime feature. The proposed algorithm performs more than three times better than TF-IDF within a limited set of data in analysis based on domain-specific data.
Źródło:
Multiple Criteria Decision Making; 2020, 15; 1-22
2084-1531
Pojawia się w:
Multiple Criteria Decision Making
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Methodological and technical challenges of a corpus-based study of Naija
Autorzy:
Caron, Bernard
Linde-Usiekniewicz, Jadwiga
Storch, Anne
Powiązania:
https://bibliotekanauki.pl/chapters/1036950.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Warszawski. Wydawnictwa Uniwersytetu Warszawskiego
Tematy:
natural language processing
corpus studies
syntax
prosody
Atlantic pidgins and creoles
Opis:
This paper presents early reflections on the NaijaSynCor survey (NSC) financed by the French Agence Nationale de la Recherche. The nature of the language surveyed (Naija, a post-creole spoken in Nigeria as a second language by close to 100 million speakers) has induced a specific choice of theoretical framework (variationist sociolinguistics) and methodology (a corpus-based study using Natural Language Processing). Half-way through the 4 year-study, the initial methodological choices are assessed taking into account the nature of the data that has been collected, and the problems that occurred as early as the initial stages of their annotation.
Źródło:
West African languages. Linguistic theory and communication; 57-75
9788323546313
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Experimental Comparison of Pre-Trained Word Embedding Vectors of Word2Vec, Glove, FastText for Word Level Semantic Text Similarity Measurement in Turkish
Autorzy:
Tulu, Cagatay Neftali
Powiązania:
https://bibliotekanauki.pl/articles/2201815.pdf
Data publikacji:
2022
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
semantic word similarity
word embeddings
NLP
Turkish NLP
natural language processing
Opis:
This study aims to evaluate experimentally the word vectors produced by three widely used embedding methods for the word-level semantic text similarity in Turkish. Three benchmark datasets SimTurk, AnlamVer, and RG65_Turkce are used in this study to evaluate the word embedding vectors produced by three different methods namely Word2Vec, Glove, and FastText. As a result of the comparative analysis, Turkish word vectors produced with Glove and FastText gained better correlation in the word level semantic similarity. It is also found that The Turkish word coverage of FastText is ahead of the other two methods because the limited number of Out of Vocabulary (OOV) words have been observed in the experiments conducted for FastText. Another observation is that FastText and Glove vectors showed great success in terms of Spearman correlation value in the SimTurk and AnlamVer datasets both of which are purely prepared and evaluated by local Turkish individuals. This is another indicator showing that these aforementioned datasets are better representing the Turkish language in terms of morphology and inflections.
Źródło:
Advances in Science and Technology. Research Journal; 2022, 16, 4; 147--156
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards textual data augmentation for neural networks: synonyms and maximum loss
Autorzy:
Jungiewicz, Michał
Smywiński-Pohl, Aleksander
Powiązania:
https://bibliotekanauki.pl/articles/305750.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
deep learning
data augmentation
neural networks
natural language processing
sentence classification
Opis:
Data augmentation is one of the ways to deal with labeled data scarcity and overfitting. Both of these problems are crucial for modern deep-learning algorithms, which require massive amounts of data. The problem is better explored in the context of image analysis than for text; this work is a step forward to help close this gap. We propose a method for augmenting textual data when training convolutional neural networks for sentence classification. The augmentation is based on the substitution of words using a thesaurus as well as Princeton University's WordNet. Our method improves upon the baseline in most of the cases. In terms of accuracy, the best of the variants is 1.2% (pp.) better than the baseline.
Źródło:
Computer Science; 2019, 20 (1); 57-83
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Goal - oriented conversational bot for employment domain
Autorzy:
Drozda, Paweł
Żmijewski, Tomasz
Osowski, Maciej
Krasnodębska, Aleksandra
Talun, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/22615524.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Warmińsko-Mazurski w Olsztynie
Tematy:
chatbot
Deep Q Network
DQN
goal
oriented bot
Natural Language Processing
NLP
Opis:
This paper focuses of the implementation of the goal – oriented chatbot in order to prepare virtual resumes of candidates for job position. In particular the study was devoted to testing the feasibility of using Deep Q Networks (DQN) to prepare an effective chatbot conversation flow with the final system user. The results of the research confirmed that the use of the DQN model in the training of the conversational system allowed to increase the level of success, measured as the acceptance of the resume by the recruiter and the finalization of the conversation with the bot. The success rate increased from 10% to 64% in experimental environment and from 15% to 45% in production environment. Moreover, DQN model allowed the conversation to be shortened by an average of 4 questions from 11 to 7.
Źródło:
Technical Sciences / University of Warmia and Mazury in Olsztyn; 2023, 26(1); 111--123
1505-4675
2083-4527
Pojawia się w:
Technical Sciences / University of Warmia and Mazury in Olsztyn
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Type Theories and Lexical Networks : using Serious Games as the basis for Multi-Sorted Typed Systems
Autorzy:
Chatzikyriakidis, S.
Lafourcade, M.
Ramadier, L.
Zarrouk, M.
Powiązania:
https://bibliotekanauki.pl/articles/103833.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Instytut Podstaw Informatyki PAN
Tematy:
lexical networks
JeuxDeMots
type theory
type ontologies
formal semantics
natural language inference
Opis:
In this paper, we show how a rich lexico-semantic network which Has been built using serious games, JeuxDeMots, can help us in grounding our semantic ontologies in doing formal semantics using rich or modern type theories (type theories within the tradition of Martin Löf). We discuss the issue of base types, adjectival and verbal types, hyperonymy/hyponymy relations as well as more advanced issues like homophony and polysemy. We show how one can take advantage of this wealth of lexical semantics in a formal compositional semantics framework. We argue that this is a way to sidestep the problem of deciding what the type ontology should look like once a move to a many sorted type system has been made. Furthermore, we show how this kind of information can be extracted from a lexico-semantic Network like JeuxDeMots and inserted into a proof-assistant like Coq in order to perform reasoning tasks.
Źródło:
Journal of Language Modelling; 2017, 5, 2; 229-272
2299-856X
2299-8470
Pojawia się w:
Journal of Language Modelling
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatyczna budowa semantycznego modelu objawów chorobowych na bazie korpusu słownego
Automatic construction of a semantic model of disease symptoms based on text corpus
Autorzy:
Szostek, G.
Jaszuk, M.
Walczak, A.
Powiązania:
https://bibliotekanauki.pl/articles/305941.pdf
Data publikacji:
2012
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
sieć semantyczna
ontologia
przetwarzanie języka naturalnego
semantic network
ontology
natural language processing
Opis:
Opisane w artykule badania dotyczą danych z dziedziny medycyny. Wyniki badań diagnostycznych rejestrowane są na różne sposoby. Mogą mieć postać tabel, wykresów, obrazów. Niezależnie od oryginalnego formatu danych możliwe jest sporządzenie ich opisu słownego, który koncentruje się na opisie zaobserwowanych objawów chorobowych. Opisy takie tworzą korpusy słowne dotyczące poszczególnych technologii diagnostycznych. W podobny sposób zapisywana jest wiedza dotycząca jednostek chorobowych. Ma ona postać korpusów tekstowych, w których zawarte są opisy objawów specyficznych dla poszczególnych schorzeń. Za pomocą narzędzi przetwarzania języka naturalnego możliwe jest automatyczne wydobycie z tekstów modeli semantycznych, opisujących poszczególne technologie diagnostyczne oraz choroby. Pewne utrudnienie stanowi fakt, że wiedza medyczna może zostać zapisana w języku naturalnym na wiele sposobów. Zastosowanie formatu semantycznego pozwala wyeliminować te niejednoznaczności zapisu. W konsekwencji dostajemy ujednolicony model wiedzy medycznej, zarówno od strony wyników technologii diagnostycznych opisujących stan pacjenta, jak i wiedzy dotyczącej jednostek chorobowych. Daje to możliwość dokonania fuzji danych pochodzących z różnych źródeł (danych heterogenicznych) do postaci homogenicznej. Artykuł przedstawia metodę generowania modelu semantycznego wiedzy medycznej, wykorzystującą analizy leksykalne korpusów słownych.
The research described in article refers the medical data. Descriptions of diagnostic technologies results and descriptions of diseases form the text corpus. The corpus is the basis for building a semantic model of symptoms. A specific symptom can be written in the natural language in many ways, which is a problem for further processing of such information. There is a need to record symptoms in a uniform format. Such format allows for application of the same methods and mathematical tools to support the process of diagnosis. The paper presents method of generating a semantic model based on text corpus. Construction of the model is a part of the research, which aims to make the fusion of data from different sources (heterogeneous data) into homogeneous form.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2012, 9; 35-43
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Unbearable Lightness of Being a Copula in Latin: on a Textual Problem in Ciceros Oration<i>in Defence of Publius Sestius</i>
Autorzy:
Jakielaszek, Jarosław
Powiązania:
https://bibliotekanauki.pl/articles/620689.pdf
Data publikacji:
2007-01-01
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Latin language
syntax
minimalist
natural language semantics
textual criticism
Cicero
Marcus Tullius
Opis:
A textual problem from Cicero's oration In defence of Publius Sestius is discussed in order to determine syntactic and semantic consequences of editorial choices. The discussion involves semantic and syntactic properties of Latin past participles within a minimalist setting. A detailed investigation of the passage indicates that a textual variant not accepted by most editors is to be preferred.
Źródło:
Research in Language; 2007, 5; 81-107
1731-7533
Pojawia się w:
Research in Language
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Temporal Expressions in Polish Corpus KPWr
Autorzy:
Kocoń, Jan
Marcińczuk, Michał
Oleksy, Marcin
Bernaś, Tomasz
Wolski, Michał
Powiązania:
https://bibliotekanauki.pl/articles/676998.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
PLIMEX
TIMEX
temporal expressions
TimeML
machine learning
natural language processing
information extraction
Opis:
Temporal Expressions in Polish Corpus KPWrThis article presents the result of the recent research in the interpretation of Polish expressions that refer to time. These expressions are the source of information when something happens, how often something occurs or how long something lasts. Temporal information, which can be extracted from text automatically, plays significant role in many information extraction systems, such as question answering, discourse analysis, event recognition and many more. We prepared PLIMEX - a broad description of Polish temporal expressions with annotation guidelines, based on the state-of-the-art solutions for English, mainly TimeML specification. We also adapted the solution to capture the local semantics of temporal expressions, called LTIMEX. Temporal description also supports further event identification and extends event description model, focusing at anchoring events in time, ordering events and reasoning about the persistence of events. We prepared the specification, which is designed to address these issues and we annotated all documents in Polish Corpus of Wroclaw University of Technology (KPWr) using our annotation guidelines.
Źródło:
Cognitive Studies; 2015, 15
2392-2397
Pojawia się w:
Cognitive Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic Building of a Semantic Model of Disease Symptoms Based on Text Corpus
Automatyczna budowa semantycznego modelu objawów chorobowych na bazie korpusu słownego
Autorzy:
Szostek, G.
Jaszuk, M.
Walczak, A.
Powiązania:
https://bibliotekanauki.pl/articles/305881.pdf
Data publikacji:
2014
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
semantic network
ontology
natural language processing
sieć semantyczna
ontologia
przetwarzanie języka naturalnego
Opis:
The research described in the article refers to the study of data from the domain of medicine. The diagnostic test results are recorded in different ways. They may take the form of tables, graphs or images. Regardless of the original data format, it is possible to draw up their verbal description, which focuses on the description of the observed symptoms. Such descriptions make up the text corpora concerning individual diagnostic technologies. Knowledge on disease entities is stored in a similar manner. It has the form of text corpora, which contain descriptions of symptoms specific to individual diseases. By using natural language processing tools semantic models can be automatically extracted from the texts to describe particular diagnostic technologies and diseases. One of the obstacles is the fact that medical knowledge can be written in a natural language in many ways. The application of the semantic format allows the elimination of record ambiguities. Ultimately, we get a unified model of medical knowledge, both from the results of diagnostic technologies describing the state of the patient and knowledge of disease entities. This gives the possibility of merging data from different sources (heterogeneous data) to a homogeneous form. The article presents a method of generating a semantic model of medical knowledge, using lexical analysis of text corpora.
Opisane w artykule badania dotyczą danych z dziedziny medycyny. Wyniki badań diagnostycznych rejestrowane są na różne sposoby. Mogą mieć postać tabel, wykresów, obrazów. Niezależnie od oryginalnego formatu danych możliwe jest sporządzenie ich opisu słownego, który koncentruje się na opisie zaobserwowanych objawów chorobowych. Opisy takie tworzą korpusy słowne dotyczące poszczególnych technologii diagnostycznych. W podobny sposób zapisywana jest wiedza dotycząca jednostek chorobowych. Ma ona postać korpusów tekstowych, w których zawarte są opisy objawów specyficznych dla poszczególnych schorzeń. Posługując się narzędziami przetwarzania języka naturalnego, możliwe jest automatyczne wydobycie z tekstów modeli semantycznych opisujących poszczególne technologie diagnostyczne oraz choroby. Pewne utrudnienie stanowi fakt, że wiedza medyczna może zostać zapisana w języku naturalnym na wiele sposobów. Zastosowanie formatu semantycznego pozwala wyeliminować te niejednoznaczności zapisu. W konsekwencji dostajemy ujednolicony model wiedzy medycznej, zarówno od strony wyników technologii diagnostycznych opisujących stan pacjenta, jak i wiedzy dotyczącej jednostek chorobowych. Daje to możliwość dokonania fuzji danych pochodzących z różnych źródeł (danych heterogenicznych) do postaci homogenicznej. Artykuł przedstawia metodę generowania modelu semantycznego wiedzy medycznej wykorzystującą analizy leksykalne korpusów słownych.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2014, 14; 25-34
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
New Grammar Systems and Their Application Perspectives
Autorzy:
Horáček, Petr
Meduna, Alexander
Powiązania:
https://bibliotekanauki.pl/articles/1373727.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
synchronous grammars
regulated grammars
transducers
computational control
generative power
natural language translation
Opis:
This paper presents new grammar systems that describe transformations of syntactic structures. They represent two approaches: synchronous grammars and transducers. The systems consist of well-known models such as context-free grammars and finite automata. Particular attention is paid to synchronization of regulated grammars. The paper recalls formal definitions of the systems and discusses theoretical results regarding their generative and accepting power. The last part briefly introduces application perspectives in natural language translation, illustrated by examples of Czech-English translation.
Źródło:
Schedae Informaticae; 2013, 22; 47-68
0860-0295
2083-8476
Pojawia się w:
Schedae Informaticae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dependability aspects of language technology infrastructure
Autorzy:
Walkowiak, T.
Pol, M.
Powiązania:
https://bibliotekanauki.pl/articles/2068758.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Morski w Gdyni. Polskie Towarzystwo Bezpieczeństwa i Niezawodności
Tematy:
dependability
language technology infrastructure
natural language processing
micro-service architecture
CLARIN-PL
Opis:
The paper presents dependability analysis of CLARIN-PL Centre of Language Technology (CLT). It describes infrastructure, high availability aspects and micro-service architecture used in CLARIN-PL applications. Microservices architecture improves dependability in respect to availability and reliability and to some extent safety. It is comprised of the mechanisms of reliable communication of applications, replication, recovery, and transaction processing. CLT has also a set of components for failure detection, monitoring and autonomic management, and distributed security policy enforcement.
Źródło:
Journal of Polish Safety and Reliability Association; 2018, 9, 3; 101--108
2084-5316
Pojawia się w:
Journal of Polish Safety and Reliability Association
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ontologia języka wzorców projektowych dla systemów Smart Cities
Ontology of the design pattern language for Smart Cities systems
Autorzy:
Orłowski, Cezary
Sitek, Tomasz
Ziółkowski, Artur
Kapłański, Paweł
Orłowski, Aleksander
Pokrzywnicki, Witold
Powiązania:
https://bibliotekanauki.pl/articles/1827566.pdf
Data publikacji:
2015
Wydawca:
Politechnika Gdańska
Tematy:
Smart Cities
ontologies
semantics
Ontology Driven Architecture
Design Patterns
Controlled Natural Language
Opis:
The paper presents the definition of the design pattern language of Smart Cities in the form of an ontology. Since the implementation of a Smart City system is difficult, expensive and closely linked with the problems concerning a given city, the knowledge acquired during a single implementation is extremely valuable. The language we defined supports the management of such knowledge as it allows for the expression of a solution which, based on best practices recorded in the form of design patterns, is also tailored to the requirements of the city seeking to implement the Smart City solution. The formal/ontological structure of the language in turn allows the automatic management of the properties of a solution recorded in this way. This final feature of the introduced language is extremely important in the decision-making process regarding the choice of a particular solution by the relevant authorities. The work is divided into five main parts. In the first part we discuss the implementation issue of the integration bus using the example of the IOC. In the next part we talk about the validity of using semantic technologies in order to expand the spectrum of potential implementations. Then we discuss the ontological implementation of the Smart City pattern language which we created, a language which allows for both the saving of requirements and the validation of solutions specified in it. We also present an example of usage, which at the same time serves as a validation of the language in real-life conditions. In the last part we discuss certain aspects of the pattern language and the possible ways to develop research related to it..
W artykule przedstawiono definicję języka wzorów projektowych Smart Cities w postaci ontologii. Jako, że wdrażanie rozwiązania Smart City jest trudne, drogie i ściśle związane z problematyką dotyczącą danego miasta, wiedza nabywana podczas pojedynczego wdrożenia jest wiedzą niezwykle cenną. Zdefiniowany przez nas język wspiera zarządzanie ww. wiedzą, jako że pozwala na ekspresję rozwiązania, które bazując na najlepszych praktykach zapisanych w postaci wzorców projektowych, jest jednocześnie dostosowane do wymagań miasta dążącego do wdrożenia rozwiązania Smart City. Formalna/ontologiczna struktura tego języka pozwala z kolei na automatyczne dowodzenie właściwości zapisanego tak rozwiązania. Ta ostatnia właściwość wprowadzonego języka jest niezwykle istotna w procesie podejmowania decyzji o wyborze danego rozwiązania przez odpowiednie władze. Praca została podzielona na pięć głównych części. W części pierwszej omawiamy problematykę wdrażania szyny integracyjnej na przykładzie IOC. W kolejnej części mówimy o zasadności zastosowania technologii semantycznych w celu rozszerzenia spektrum potencjalnych wdrożeń. Dalej mówimy o stworzonej przez nas, ontologicznej implementacji języka wzorców Smart-City – języka, który pozwala zapisywać zarówno wymagania, jak i walidować rozwiązania w nim specyfikowane. Przedstawiamy również przykładowe użycie, które służy nam jednocześnie jako walidacja języka w warunkach rzeczywistych. W ostatniej części dyskutujemy pewne aspekty języka wzorców i możliwe drogi rozwoju związanych z nim badań.
Źródło:
Przedsiębiorstwo we współczesnej gospodarce - teoria i praktyka; 2015, 2-3, 13; 83-110
2084-6495
Pojawia się w:
Przedsiębiorstwo we współczesnej gospodarce - teoria i praktyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza fleksyjna tekstów historycznych i zmienność fleksji polskiej z perspektywy danych korpusowych
Autorzy:
Woliński, Marcin
Kieraś, Witold
Powiązania:
https://bibliotekanauki.pl/articles/1630443.pdf
Data publikacji:
2020-10-30
Wydawca:
Towarzystwo Kultury Języka
Tematy:
electronic text corpus
natural language processing
inflection of Polish
history of language
Opis:
The subject matter of this paper is Chronofleks, a computer system (http://chronofleks.nlp.ipipan.waw.pl/) modelling Polish inflection based on a corpus material. The system visualises changes of inflectional paradigms of individual lexemes over time and enables examination of the variability of the frequency of inflected form groups distinguished based on various criteria. Feeding Chronofleks with corpus data required development of IT tools to ensure an inflectional processing sequence of texts analogous to the ones used for modern language; they comprise a transcriber, a morphological analyser, and a tagger. The work was performed on data from three historical periods (1601–1772, 1830–1918, and modern ones) elaborated in independent projects. Therefore, finding a common manner of describing data from the individual periods was a significant element of the work.
Źródło:
Poradnik Językowy; 2020, 777, 8; 66-80
0551-5343
Pojawia się w:
Poradnik Językowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatically generated language learning exercises for Finno-Ugric languages
Autorzy:
Ferenczi, Zsanett
Powiązania:
https://bibliotekanauki.pl/articles/40221007.pdf
Data publikacji:
2023
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II
Tematy:
natural language processing
computer-assisted language learning
virtual flashcards
Finno-Ugric languages
Opis:
Morphologically rich languages always constitute a great challenge for language learners. The learner must be able to understand the information encoded in different word forms of the same root and to generate the correct word form to express certain syntactic functions and grammatical relations by conjugating a verb or declining a noun, an adjective or a pronoun. One way to improve one’s language skills is through exercises that focus on certain aspects of grammar. In this paper, a language learning application is presented that is intended to help learners of Finnish and Hungarian (with Hungarian and Finnish L1, respectively) acquire new vocabulary items, as well as practice some grammar aspects that according to surveys are considered difficult by learners of these languages with the other Finno-Ugric language being the learner’s native tongue, while alleviating the need to create these exercises manually. This application is a result of an on-going research project. In this research project, bilingual translation pairs and additional monolingual data were collected that can be utilized to build language learning exercises and an online bilingual dictionary with the help of automatic methods. Several linguistic patterns and rules were defined in order to automatically select example sentences that focus on a given part of the target language. These sentences were automatically annotated with the help of language processing tools. Due to the large size of the previously collected data sets, to date, only a subset of the analyzed sentences and the bilingual translation pairs has been manually evaluated. The results of this evaluation are discussed in this paper in order to estimate the precision of the methodology presented here. To ensure the precision of the information and the reliability of the application, only manually validated data sets are displayed. In this project, continuous data validation is planned, since it leads to more and more examples and vocabulary items that learners can benefit from.
Źródło:
Linguistics Beyond and Within; 2023, 9; 23-35
2450-5188
Pojawia się w:
Linguistics Beyond and Within
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Weighted accuracy algorithmic approach in counteracting fake news and disinformation
Algorytmiczne podejście do dokładności ważonej w przeciwdziałaniu fałszywym informacjom i dezinformacji
Autorzy:
Bonsu, K.O.
Powiązania:
https://bibliotekanauki.pl/articles/2048986.pdf
Data publikacji:
2021
Wydawca:
Akademia Bialska Nauk Stosowanych im. Jana Pawła II w Białej Podlaskiej
Tematy:
artificial intelligence
natural language processing
machine learning algorithm
disinformation
digital revolution
fake news
Opis:
Subject and purpose of work: Fake news and disinformation are polluting information environment. Hence, this paper proposes a methodology for fake news detection through the combined weighted accuracies of seven machine learning algorithms. Materials and methods: This paper uses natural language processing to analyze the text content of a list of news samples and then predicts whether they are FAKE or REAL. Results: Weighted accuracy algorithmic approach has been shown to reduce overfitting. It was revealed that the individual performance of the different algorithms improved after the data was extracted from the news outlet websites and 'quality' data was filtered by the constraint mechanism developed in the experiment. Conclusions: This model is different from the existing mechanisms in the sense that it automates the algorithm selection process and at the same time takes into account the performance of all the algorithms used, including the less performing ones, thereby increasing the mean accuracy of all the algorithm accuracies.
Źródło:
Economic and Regional Studies; 2021, 14, 1; 99-107
2083-3725
2451-182X
Pojawia się w:
Economic and Regional Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Language resources for named entity annotation in the National Corpus of Polish
Autorzy:
Savary, A.
Piskorski, J.
Powiązania:
https://bibliotekanauki.pl/articles/206388.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
natural language processing
proper names
named entities
corpus annotation
Polish National Corpus
SProUT
Opis:
We present the named entity annotation subtask of a project aiming at creating the National Corpus of Polish. We summarize the annotation requirements defined for this corpus, and we discuss how existing lexical resources and grammars for named entity recognition for Polish have been adapted to meet those requirements. We show detailed results of the corpus annotation using the information extraction platform SProUT. We also analyze the errors committed by our knowledge-based method and suggest its further improvements.
Źródło:
Control and Cybernetics; 2011, 40, 2; 361-391
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The impact of administrator working hours on the reliability of the Centre of Language Technology
Autorzy:
Walkowiak, T.
Pol, M.
Powiązania:
https://bibliotekanauki.pl/articles/2068897.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Morski w Gdyni. Polskie Towarzystwo Bezpieczeństwa i Niezawodności
Tematy:
reliability
repair time
working hours
language technology infrastructure
natural language processing
CLARIN-PL
Opis:
The paper presents reliability analysis of CLARIN-PL Centre of Language Technology (CLT). The CLT is a Polish part of the language technology infrastructure developed by CLARIN project. The main goal of which is to support researchers in humanities and social sciences. The infrastructure is a complex computer system that enables combining language tools with language resources into processing chains. Authors present the system structure, analyse types of faults and define the CLT reliability model. The model takes into account the fact the time gap, between the failure and the repair of the system is not exponential since repair actions are taken only when administrators are at work (assuming that administrators are not working 24/7). The model is used to estimate reliability metrics (mean time and 90th percentile of relative down time and relative partial operational time) by a use of Monte-Carlo simulation. Moreover, analysis of possible improvement in the CLT organisation and its influence on the estimated metrics is given.
Źródło:
Journal of Polish Safety and Reliability Association; 2017, 8, 1; 167--174
2084-5316
Pojawia się w:
Journal of Polish Safety and Reliability Association
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Smart and valued? ICT urban (transport) solutions in the city official communication
Autorzy:
Kauf, Sabina
Pisz, Iwona
Powiązania:
https://bibliotekanauki.pl/articles/24202577.pdf
Data publikacji:
2022
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
smart city
smart mobility
Natural Language Processing
ICT
official communication
ICT technology
transport
Opis:
To optimize the everyday functioning of a city, urban authorities can implement smart city tools and solutions. Mobility is a typical field associated with the concept of a smart city. It is interesting to take a closer look at the solutions applied through the information accessible on the official websites, while exploring, at the same time, the possibilities offered by new research tools. The main objective of this work is to establish the significance of the information and communication technologies (ICT) in the process of creating smart mobility in a smart city, based on the texts posted on official websites. Using the natural language processing (NLP) methods and tools offered by the CLARIN.EU infrastructure, we verified dominant connotations with the mobility in the cities recognized as smart. The cities sample is the extract from the existing smart city rankings. To fulfil our goal, we searched for an answer to the question: What information about ICT solutions is posted on the websites of the studied cities and in what thematic contexts are they used? We looked for the results of the smart city rankings, referring to the official websites of the selected cities (a random selection from a total of 174 cities). The results show that mobility forms a distinct topic in smart cities communication, covering various kinds of transport solutions and systems, with a strong focus on the project side of this activity. The results are the part of the research “The smart city 4.0 maturity model,” conducted at the Department of Marketing and Logistics UO.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2022, 72 (144); 152--161
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The image of a vocational school teacher in the eyes of students and its relationship with the effectiveness of education
Autorzy:
Pardej, Katarzyna
Waszkowski, Robert
Powiązania:
https://bibliotekanauki.pl/articles/36786100.pdf
Data publikacji:
2022-05-09
Wydawca:
Wydawnictwo Naukowe Chrześcijańskiej Akademii Teologicznej w Warszawie
Tematy:
vocational education
vocational teacher
effective teaching
Natural Language Processing
sentiment analysis
machine learning
Opis:
The article discusses the competencies of vocational education teachers, as well as discusses the results of own research, which aimed to determine three types of teachers conceptualized by students - the most liked, the least liked, and the dream one. The research used the interview method, where the research technique was an interview, and the research tool was an interview questionnaire. The students' statements were analyzed using the Python Natural Language Toolkit used for natural language processing. In this way, the most common words used by students in describing teachers were selected. As a result, the personal qualities and pedagogical competencies of mechatronic teachers that students approve and disapprove of, as well as those that they lack and which would make a difference to the effectiveness of education, were identified.
Źródło:
Studia z Teorii Wychowania; 2022, XIII(1(38)); 121-140
2083-0998
2719-4078
Pojawia się w:
Studia z Teorii Wychowania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The implementation of the example-based machine translation technique for Norwegian-to-Polish automatic translation system
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/970363.pdf
Data publikacji:
2004
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
przetwarzanie języka naturalnego
lingwistyka komputerowa
tłumaczenie komputerowe
natural language processing
computational linguistics
machine translation
Opis:
High-quality machine translation between human languages has for a long time been an unattainable dream for many computer scientists involved in this fascinating and interdisciplinary field of application of computers. The quite recently developed example-based machine translation technique seems to be a serious alternative to the existing automatic translation techniques. In the paper the usage of the example based machine translation technique for the development, of a system, which would be able to translate an unrestricted Norwegian text into Polish is proposed. The new approach to the example-based machine translation technique that takes into account the peculiarity of the Polish grammar is developed. The obtained primary results of development of the proposed system seem to be very promising and appear to be a step made in the right direction towards a fully-automatic high quality Norwegian-into-Polish machine translation system aimed for an unrestricted text.
Źródło:
Control and Cybernetics; 2004, 33, 2; 357-386
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza możliwości i ograniczeń systemów translacji automatycznej wspomaganej przez człowieka na przykładzie systemu tłumaczącego z języka włoskiego na polski
The analysis of possibilities and frontiers of the human-aided machine translation system on the example of Italian-to-Polish translations system
Autorzy:
Gajer, M.
Powiązania:
https://bibliotekanauki.pl/articles/320407.pdf
Data publikacji:
2006
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
translacja automatyczna
przetwarzanie języka naturalnego
sztuczna inteligencja
machine translation
computational linguistics
natural language processing
Opis:
Translacja automatyczna jest dyscypliną nauki dostarczającą wiedzy o tym, jak programować komputery, aby były one w stanie dokonywać automatycznych przekładów pomiędzy wybranymi językami naturalnymi. Translacja automatyczna była również jedną z pierwszych aplikacji, jakie zostały zaproponowane dla komputerów. Niestety szybko okazało się, że zadanie translacji automatycznej jest znacznie trudniejsze, ale zarazem o wiele ciekawsze z naukowego punktu widzenia, niż pierwotnie sądzono. W artykule omówiono podstawowe przyczyny powodujące, że translacja automatyczna jest zadaniem tak niezwykle trudnym. Omówiono również najbardziej obiecujące kierunki rozwoju systemów translacji automatycznej. W dalszej części artykułu przedstawiono podstawowe koncepcje związane z nowym, zaproponowanym przez autora podejściem do zagadnień translacji automatycznej. Zamieszczone w artykule rozważania zilustrowano na przykładzie eksperymentalnego systemu translacji automatycznej, dokonującego przekładu zdań zapisanych w języku włoskim na polski.
Machine translation is a branch of science that teaches us how to program the computers, so as they were able to translate between different human languages. Machine translation was also one of the first application that was proposed for computers. Nonetheless, it soon appeared that the task of machine translation is much more difficult, but also much more interesting from the scientific point of view, than one had ever thought before. In the paper it is thoroughly explained why machine translation is so extremely hard. The most promising directions of development of machine translation systems are also briefly described. The special attention is paid to machine translation systems that are developed for Polish language. The other part of the paper is devoted to some practical experiments of implementation of human-aided machine translation technique for the system that translates from Italian into Polish. The way in which the system operates is illustrated on numerous examples. Italian language belongs to the group of Romance languages at its main feature is a variety of flexion forms of verbs. In the paper the algorithm for Italian flexion is described and it is illustrated on some examples.
Źródło:
Elektrotechnika i Elektronika; 2006, 25, 1; 10-37
1640-7202
Pojawia się w:
Elektrotechnika i Elektronika
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Elektroniczny Korpus Tekstów Polskich z XVII i XVIII w. – problemy teoretyczne i warsztatowe
Autorzy:
Gruszczyński, Włodzimierz
Adamiec, Dorota
Bronikowska, Renata
Wieczorek, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/1630441.pdf
Data publikacji:
2020
Wydawca:
Towarzystwo Kultury Języka
Tematy:
electronic text corpus
historical corpus
17th-18th-century Polish
natural language processing
Opis:
This paper presents the Electronic Corpus of 17th- and 18th-century Polish Texts (KorBa) – a large (13.5-million), annotated historical corpus available online. Its creation was modelled on the assumptions of the National Corpus of Polish (NKJP), yet the specifi c nature of the historical material enforced certain modifi cations of the solutions applied in NKJP, e.g. two forms of text representation (transliteration and transcription) were introduced, the principle of designating foreign-language fragments was adopted, and the tagset was adapted to the description of the grammatical structure of the Middle Polish language. The texts collected in KorBa are diversified in chronological, geographical, stylistic, and thematic terms although, due to e.g. limited access to the material, the postulate of representativeness and sustainability of the corpus was not fully implemented. The work on the corpus was to a large extent automated as a result of using natural language processing tools.
Źródło:
Poradnik Językowy; 2020, 777, 8; 32-51
0551-5343
Pojawia się w:
Poradnik Językowy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
W kierunku automatycznej klasyfikacji języków naturalnych
Autorzy:
Handzel, Zbigniew
Gajer, Mirosław
Grabiński, Tadeusz
Luty, Zbigniew
Surowiec, Anna
Powiązania:
https://bibliotekanauki.pl/articles/2147414.pdf
Data publikacji:
2021-12-06
Wydawca:
Wyższa Szkoła Ekonomii i Informatyki w Krakowie
Tematy:
przetwarzanie języka naturalnego
lingwistyka komputerowa
klasyfikacja języków
computational linguistics
natural language processing
language classification
Opis:
Streszczenie: Klasyfikacja języków naturalnych jest jednym z głównych zadań językoznawstwa. Spośród różnych typów klasyfikacji języków najbardziej wiarygodną i miarodajną wydaje się być klasyfikacja typologiczna, która łączy języki w jednostki większego rzędu na podstawie podobieństwa ich cech strukturalnych. Podobieństwo typologiczne języków może być wynikiem zarówno ich pochodzenia od wspólnego przodka, czyli prajęzyka, jak i występujących zapożyczeń międzyjęzykowych dotyczących zarówno leksyki, jak i struktur składniowych. W artykule zamieszczono propozycję budowy systemu przeznaczonego do realizacji automatycznej klasyfikacji języków naturalnych ze względu na ich stopień podobieństwa typologicznego. Opracowany przez autorów system uwzględnia obecnie 72 języki należące głównie do indoeuropejskiej rodziny językowej. W systemie uwzględniono ponadto kilka języków należących do innych rodzin językowych oraz wybrane języki sztuczne typu naturalistycznego. Autorzy zaprezentowali program komputerowy służący do wyznaczania liczbowej miary stopnia wzajemnego podobieństwa systemów zaimków osobowych występujących w różnych językach świata. W przyszłości planowana jest budowa analogicznych systemów przeznaczonych do wyznaczania miary podobieństwa języków na podstawie automatycznej analizy wzorców koniugacyjnych czasowników oraz wzorców deklinacyjnych rzeczowników i przymiotników wybranych języków
Classification of natural languages is one of the main tasks of linguistics. Of the various types of language classification, the most reliable and authoritative seems to be the typological classification, which combines languages into units of a higher order on the basis of similarity of their structural features. The typological similarity of languages may be a result of both their origin from a common ancestor, i.e. a proto-language, and interlingual borrowings concerning both lexis and syntactic structures. The paper presents a proposal for the construction of a system intended for the automatic classification of natural languages according to their degree of typological similarity. The system developed by the authors currently includes 72 languages belonging mainly to the Indo-European language family. The system also includes several languages belonging to other language families and selected artificial languages of a naturalistic type. The authors have presented a computer programme for determining a numerical measure of the degree of mutual similarity between the systems of personal pronouns occurring in different languages of the world. In the future it is planned to build analogous systems to determine the measure of similarity between languages on the basis of automatic analysis of verb conjugation patterns and declension patterns of nouns and adjectives of selected languages.
Źródło:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie; 2021, 17; 53-70
1734-5391
Pojawia się w:
Zeszyty Naukowe Wyższej Szkoły Ekonomii i Informatyki w Krakowie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Language planning and language policy in the ecological perspective
Autorzy:
Wiertlewska, Janina
Powiązania:
https://bibliotekanauki.pl/articles/919808.pdf
Data publikacji:
2012-01-01
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
Language planning and policy
Language ecology
Multilingualism
Linguistic diversity
Global language
Natural language protection
Translingualism
Opis:
The paper deals with the issue of language planning and policy both in the historical as well as the ecological perspective. The problem of linguistic diversity protection and maintenance in opposition to monolingual global world is explored.
Źródło:
Glottodidactica. An International Journal of Applied Linguistics; 2012, 39, 1; 117-126
0072-4769
Pojawia się w:
Glottodidactica. An International Journal of Applied Linguistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ontology Extraction from Software Requirements Using Named-Entity Recognition
Autorzy:
Kocerka, Jerzy
Krześlak, Michał
Gałuszka, Adam
Powiązania:
https://bibliotekanauki.pl/articles/2201736.pdf
Data publikacji:
2022
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
engineering requirements
ontology extraction
named-entity recognition
classification and terminology
terminology
natural language processing
NLP
Opis:
With the software playing a key role in most of the modern, complex systems it is extremely important to create and keep the software requirements precise and non-ambiguous. One of the key elements to achieve such a goal is to define the terms used in a requirement in a precise way. The aim of this study is to verify if the commercially available tools for natural language processing (NLP) can be used to create an automated process to identify whether the term used in a requirement is linked with a proper definition. We found out, that with a relatively small effort it is possible to create a model that detects the domain specific terms in the software requirements with a precision of 87 %. Using such model it is possible to determine if the term is followed by a link to a definition.
Źródło:
Advances in Science and Technology. Research Journal; 2022, 16, 3; 207--212
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola analizy sieci społecznych w odkrywaniu narracyjnej struktury fikcji leterackiej
Social networks analysis in discovering the narrative structure of literary fiction
Autorzy:
Jarynowski, A.
Boland, S.
Powiązania:
https://bibliotekanauki.pl/articles/305879.pdf
Data publikacji:
2013
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
analiza sieci społecznych
przetwarzanie języka naturalnego
percepcja narracji
social network analysis
natural language processing
narration
Opis:
Narzędzia matematyczne rozwinięte w celu opisu układów z łożonych z powodzeniem są używane w naukach społecznych oraz coraz częściej znajdują zastosowanie w humanistyce. W prezentowanym interdyscyplinarnym projekcie pragniemy wykorzystać metody analizy sieciowej, aby lepiej zrozumieć sposób kreacji oraz przedstawienia świata przez autorów utworów literackich. Jednakże percepcja takiego świata zależy od subiektywnej wizji czytelnika, więc zwróciliśmy szczególną uwagę na różne sposoby ekstrakcji sieci powiązań społecznych z fikcyjnej rzeczywistości. Celem badań było odczytywanie różnych interakcji społecznych w tekście przez porównanie sieci otrzymanych przez algorytmy przetwarzania języka naturalnego (ang.natural language processing NLP) z tymi odtworzonymi na podstawie kwestionariuszy wypełnionych przez czytelników. Sieci dialogów, czy uczestnictwa w tej samej scenie zostały już opisane przez naukowców z amerykańskich uniwersytetów Stanford i Columbia, ale wciąż brakowało analizy relacji na ogólniejszym poziomie (interakcje międzyludzkie nie ograniczają się jedynie do dialogów bądź przebywania w tym samym miejscu). Zaproponowaliśmy kilka metod NLP w celu detekcji tych interakcji i skonfrontowaliśmy je z ludzkim postrzeganiem. Przy okazji odkryliśmy obszary teorii literatury, w których nie da się wykorzystać analizy sieciowej (np. interakcje nawiązujące do fabuły nie tworzą klasycznego trójkąta z punktem kulminacyjnym znanym z teorii literatury).
In our paper we would like to make a cross-disciplinary leap and use the tools of network theory to understand and explore narrative structure in literary fiction, an approach that is still underestimated. However, the systems in fiction are sensitive to reader’s subjectivity and attention must to be paid to different methods of extracting networks. The project aims at investigating into different ways social interactions are, read in texts by comparing networks produced by automated algorithms-natural language processing (NLP) with those created by surveying more subjective human responses. Conversation networks from fiction have been already extracted by scientists, but the more general framework surrounding these interactions was missing. We propose several NLP methods for detecting interactions and test them against a range of human perceptions. In doing so, we have pointed to some limitations of using network analysis to test literary theory (e.g. interaction, which corresponds to the plot, does not form climax).
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2013, 12; 35-42
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PNL/JDO - Polish Natural Language Interface to JDO Compliant Databases
PNL/JDO - bazujący na naturalnym języku polskim sprzęg użytkownika do baz danych w standardzie JDO
Autorzy:
Pechmann, P.
Powiązania:
https://bibliotekanauki.pl/articles/158187.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
interfejsy użytkownika bazujące na języku naturalnym
obiektowe bazy danych
natural language interfaces
object-oriented databases
Opis:
Database systems are nowadays used in almost all kinds of professional activities. However, standard means for obtaining data from such systems are either too difficult to learn by average user (SQL) or offer limited capabilities (form-based interfaces). HCI experts agree that one of the best solutions to that problem are natural language interfaces. The paper presents one of the solutions of that kind: Polish natural language interface to object-oriented databases compliant with JDO standard.
Systemy bazodanowe stosowane są obecnie w niemal wszystkich obszarach ludzkiej aktywności zawodowej. Standardowe środki dostępu do zgromadzanych w nich informacji są jednak albo trudne do opanowania przez przeciętnego użytkownika (np. język SQL) albo oferują ograniczone możliwości (np. formularze). Za jedne z lepszych rozwiązań uważane są sprzęgi bazujące na zapytaniach w języku naturalnym. W publikacji przedstawiono propozycję tego typu sprzęgu dla języka polskiego i obiektowych baz danych w standardzie JDO. Podstawę rozwiązania stanowi autorski model A-O-I będący uogólnionym modelem procesu analizy i interpretacji komunikatów (poleceń, zapytań lub odpowiedzi) w języku naturalnym kierowanych przez użytkownika do systemu informatycznego. Sprzęg realizowany według modelu A-O-I jest trójwarstwowy i składa się z: a) analizatora składniowo-semantycznego, b) opisu rozpoznanego znaczenia komunikatu w postaci obiektowej reprezentacji semantyki (ORS) oraz c) interpretera ORS. W prezentowanym rozwiązaniu podstawowym zadaniem realizowanym przez interpreter ORS jest generacja odpowiedniego zapytania w języku JDOQL na podstawie rozpoznanego znaczenia zapytania w języku polskim. W kolejnych punktach artykułu omówione zostały: ogólny model sprzęgu i jego główne składowe, prototyp systemu implementującego ten model oraz wyniki testów skuteczności i wydajności proponowanego rozwiązania. W podsumowaniu wskazane zostały kierunki dalszych badań.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 10, 10; 1190-1192
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptive information extraction from structured text documents
Autorzy:
Ożdżyński, P.
Zakrzewska, D.
Powiązania:
https://bibliotekanauki.pl/articles/95029.pdf
Data publikacji:
2014
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
natural language processing
information extraction
tagging
named entity recognition
przetwarzanie języka naturalnego
zdobywanie informacji
tagowanie
Opis:
Effective analysis of structured documents may decide on management information systems performance. In the paper, an adaptive method of information extraction from structured text documents is considered. We assume that documents belong to thematic groups and that required set of information may be determined ”apriori”. The knowledge of document structure allows to indicate blocks, where certain information is more probable to appear. As the result structured data, which can be further analysed are obtained. The proposed solution uses dictionaries and flexion analysis, and may be applied to Polish texts. The presented approach can be used for information extraction from official letters, information sheets and product specifications.
Źródło:
Information Systems in Management; 2014, 3, 4; 261-272
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Computer system architecture for Polish-language documents search with the use of queries in a natural language
Koncepcja architektury systemu komputerowego wyszukiwania dokumentów w języku polskim przy pomocy zapytań w języku naturalnym
Autorzy:
Kwiatkowski, G.
Michalak, M.
Powiązania:
https://bibliotekanauki.pl/articles/1361028.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
diagnostyka maszyn
przetwarzanie języka naturalnego
wyszukiwanie informacji
machine diagnostics
natural language processing
searching for information
Opis:
The article features an architecture concept of a system to search for information in text documents with the use of natural-language queries. The basic element of the proposed solution is the application of query expansion as a method to improve the quality of achieved results. As there are no such tools for the Polish language, the authors proposed how to prepare suitable assets from input data for this purpose. The prepared system will be applied for information search in specialized documents, such as technical and diagnostic documentation of mining machines.
Artykuł przestawia koncepcję architektury systemu wyszukiwania informacji w dokumentach tekstowych, z wykorzystaniem zapytań w języku naturalnym. Zasadniczym elementem proponowanego rozwiązania jest wykorzystanie metody ekspansji zapytań, jako sposobu na poprawę jakości uzyskiwanych wyników. Ponieważ brak jest tego typu narzędzi dedykowanych dla języka polskiego, zaproponowano także sposób przygotowania odpowiednich do tego celu zasobów z danych wejściowych. Przygotowywany system znajdzie zastosowanie w wyszukiwaniu informacji w dokumentach specjalistycznych, jakimi są dokumentacje techniczne i diagnostyczne maszyn górniczych.
Źródło:
Mining – Informatics, Automation and Electrical Engineering; 2016, 54, 3; 16-23 [tekst ang.], 67-75 [tekst pol.]
2450-7326
2449-6421
Pojawia się w:
Mining – Informatics, Automation and Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
De la définition formelle du concept à la définition en langue du terme
From the Formal Definition of Concept to the Linguistic Definition of Term
Autorzy:
Roche, Christophe
Powiązania:
https://bibliotekanauki.pl/articles/2015073.pdf
Data publikacji:
2021
Wydawca:
Komisja Nauk Filologicznych Polskiej Akademii Nauk, Oddział we Wrocławiu
Tematy:
conceptual terminology
ontology
formal definition of concept
definition of term in natural language
pattern of definitions
Opis:
This article deals with the contribution of formal definition of concepts to the definition of terms in natural language in the context of the ontological turn of terminology. Ontology in the sense of knowledge engineering constitutes one of the most promising perspectives for conceptual terminology, for which a term is a verbal designation of a concept, and a concept a unit of knowledge. The contribution of ontology is not limited to the operationalization of terminology for IT applications. By making concepts explicit, i.e., by defining them in a formal language, ontology strongly impacts terminology, both in its principles and methods. Specifying concepts in a formal language allows guaranteeing “good” properties, such as the objectivity of definitions whose interpretation is governed by theory alone. The definition of terms in a natural language can then be considered as a translation of the formal definition of a concept. How these two types of definition are linked to each other remains to be clarified, and in particular whether it is possible to generate patterns of term definition based on formal concept definition. This will depend on the formal language which will be used, and on the underlying concept theory.
Źródło:
Academic Journal of Modern Philology; 2021, 13; 275-290
2299-7164
2353-3218
Pojawia się w:
Academic Journal of Modern Philology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Geolocalization of 19th-century villages and cities mentioned in geographical dictionary of the kingdom of Poland
Autorzy:
Jaśkiewicz, G.
Powiązania:
https://bibliotekanauki.pl/articles/305699.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
natural language processing
geolocalization
statistics
information extraction
Geographical Dictionary of Polish Kingdom and Other Slavic Countries
Opis:
This article presents a method of the rough estimation of geographical coordinates of villages and cities, which is described in the 19th-Century geographical encyclopedia entitled: “The Geographical Dictionary of the Polish Kingdom and Other Slavic Countries”[18]. Described are the algorithm function for estimating location, the tools used to acquire and process necessary information, and the context of this research.
Źródło:
Computer Science; 2013, 14 (3); 423-442
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Teaching materials for English in the primary education – also for the pre-school education?
Autorzy:
Olpińska-Szkiełko, Magdalena
Powiązania:
https://bibliotekanauki.pl/articles/914950.pdf
Data publikacji:
2015-12-14
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
teaching materials
early English learning
language sensitivity period
natural language learning situation
pre-school education
kindergarten.
Opis:
The objective of the article is to analyse some selected materials for teaching English as a foreign language, designed mainly for grade 1–3 of the primary school, with the goal to answer the question whether these materials could be also used successfully and efficiently with 3–5-year old children. Early English learning materials are compared with Polish integrated learning materials. The analysis results in some conclusions for the didactic process in kindergartens. In accordance with the theoretical issues some principles for the shaping of didactic materials, teaching forms and activities, adequate tasks and contents of a language lesson are described.
Źródło:
Glottodidactica. An International Journal of Applied Linguistics; 2015, 42, 2; 61-72
0072-4769
Pojawia się w:
Glottodidactica. An International Journal of Applied Linguistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptive Rider Feedback Artificial Tree Optimization-Based Deep Neuro-Fuzzy Network for Classification of Sentiment Grade
Autorzy:
Jasti, Sireesha
Kumar, G.V.S. Raj
Powiązania:
https://bibliotekanauki.pl/articles/2200961.pdf
Data publikacji:
2023
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
deep learning network
feedback artificial tree
natural language processing (NLP)
rider optimization algorithm
sentiment grade classification
Opis:
Sentiment analysis is an efficient technique for expressing users’ opinions (neutral, negative or positive) regarding specific services or products. One of the important benefits of analyzing sentiment is in appraising the comments that users provide or service providers or services. In this work, a solution known as adaptive rider feedback artificial tree optimization-based deep neuro-fuzzy network (RFATO-based DNFN) is implemented for efficient sentiment grade classification. Here, the input is pre-processed by employing the process of stemming and stop word removal. Then, important factors, e.g. SentiWordNet-based features, such as the mean value, variance, as well as kurtosis, spam word-based features, term frequency-inverse document frequency (TF-IDF) features and emoticon-based features, are extracted. In addition, angular similarity and the decision tree model are employed for grouping the reviewed data into specific sets. Next, the deep neuro-fuzzy network (DNFN) classifier is used to classify the sentiment grade. The proposed adaptive rider feedback artificial tree optimization (A-RFATO) approach is utilized for the training of DNFN. The A-RFATO technique is a combination of the feedback artificial tree (FAT) approach and the rider optimization algorithm (ROA) with an adaptive concept. The effectiveness of the proposed A-RFATO-based DNFN model is evaluated based on such metrics as sensitivity, accuracy, specificity, and precision. The sentiment grade classification method developed achieves better sensitivity, accuracy, specificity, and precision rates when compared with existing approaches based on Large Movie Review Dataset, Datafiniti Product Database, and Amazon reviews.
Źródło:
Journal of Telecommunications and Information Technology; 2023, 1; 37--50
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Najlepsze narzędzie do zwalczania fejków (i dlaczego nie działa)
Best tools for detecting fake news (and why they do not work)
Autorzy:
Balcerzak, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/1849514.pdf
Data publikacji:
2020-09-30
Wydawca:
Instytut Dyskursu i Dialogu
Tematy:
fake news
informatyka społeczna
uczenie maszynowe
przetwarzanie języka naturalnego
computational social science
natural language processing
machine learning
Opis:
Artykuł stanowi przybliżenie technik informatycznych wykorzystywanych w procesie rozpoznawania fałszywych wiadomości. Równocześnie wskazuje na społeczne i psychologiczne czynniki wpływające na popularność fake news, oraz wskazuje na społeczne konsekwencje stosowania różnych metod wykrywania Fake News.
The article provides a review of various technologies used in detecting fake news online. It also provides discussion of sociological and psychological factors which influence the popularity of fake news. Finally a discussion of political consequences of the use of said technologies is provided.
Źródło:
Dyskurs & Dialog; 2020, II, 3 (5); 9-21
2658-2368
2658-2406
Pojawia się w:
Dyskurs & Dialog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dynamic verbs in the Wordnet of Polish
Autorzy:
Dziob, Agnieszka
Piasecki, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/677246.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
plWordNet
Wordnet of Polish
lexico-semantic relations
Polish language
dynamic verbs
verbs in wordnet
natural language processing
Opis:
Dynamic verbs in the Wordnet of PolishThe paper presents patterns of co-occurrences of wordnet relations involving verb lexical units in plWordNet - a large wordnet of Polish. The discovered patterns reveal tendencies of selected synset and lexical relations to form regular circular structures of clear semantic meanings. They involve several types of relations, e.g., presupposition, cause, processuality and antonymy, do not have a necessary character (there are exceptions), but can be used in wordnet diagnostics and guidelines for wordnet editors. The analysis is illustrated with numerous positive and negative examples, as well as statistics for verb relations in plWordNet 4.0 emo. Some attempts to a more general, linguistic explanation of the observed phenomena are also made. As a background, plWordNet model of linguistic character is briefly recollected. A special attention is given to the verb part. In addition the description of dynamic verbs by relations and features is discussed in details including relation definitions and substitution tests. Czasowniki dynamiczne w Słowosieci - wordnecie języka polskiego W artykule zostały przedstawione wzorce współwystępowania relacji leksykalno-semantycznych obejmujących czasownikowe jednostki leksykalne w ramach Słowosieci - wielkiego relacyjnego słownika języka polskiego, wordnetu języka polskiego. Tłem obserwacji jest Słowosieć 4.0 emo, dla której omówiono skrótowo system relacji czasownikowych wraz ze statystykami. Szczególną uwagę autorzy poświęcili czasownikom dynamicznym i ich typowym relacjom, dla których przedstawiono testy substytucji z wytycznych do relacyjnego opisu czasownika, zdefiniowanych na potrzeby edycji Słowosieci przez lingwistów. Opisane w artykule wzorce współwystępowania ukazują tendencje niektórych relacji synsetów (tj. zbiorów synonimów) i jednostek leksykalnych (m.in. presupozycji, kauzacji, procesywności i antonimii) do tworzenia regularnych struktur, specyfikujących znaczenie wszystkich jednostek/synsetów, połączonych za pomocą danych relacji. Współwystępowania relacji wg wzorców nie mają charakteru obligatoryjnego, dlatego też w artykule przedstawiono zarówno pozytywne, jak i negatywne przykłady jednostek i synsetów, połączonych ze sobą za pomocą relacji współwystępujących, jak i pewne uwagi natury ogólnej, wskazujące na językowy charakter obserwowanego zjawiska. Oprócz znaczenia poznawczego, związanego ze współzależnościami, jakie zachodzą w obrębie systemu językowego, opis tych regularności ma również znaczenie praktyczne - może być wykorzystany przy diagnostyce wordnetu oraz w wytycznych dla lingwistów.
Źródło:
Cognitive Studies; 2018, 18
2392-2397
Pojawia się w:
Cognitive Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Examination of texts lexis using a Polish dictionary
Badanie leksyki tekstu na podstawie słownika języka polskiego
Autorzy:
Voitovych, Roman
Łukasik, Edyta
Powiązania:
https://bibliotekanauki.pl/articles/2055125.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
natural language processing
lexis analysis
Jaccard similarity coefficient
Partitioning Around Medoids
przetwarzanie języka naturalnego
analiza leksyczna
indeks Jaccarda
Opis:
This paper presents an approach to compare and classify books written in the Polish language by comparing their lexis fields. Books can be classified by their features, such as literature type, literary genre, style, author, etc. Using a preas-sembled dictionary and Jaccard index, the authors managed to prove a lexical likeness for books. Further analysis with the PAM clustering algorithm presented a lexical connection between books of the same type or author. Analysis of values of similarities of any particular field on one side and some anomalous tendencies in other cases suggest that recognition of other features is possible. The method presented in this article allows to draw conclusions about the con-nection between any arbitrary books based solely on their vocabulary.
Artykuł prezentuje metodę porównania i klasyfikacji książek napisanych w języku polskim na podstawie ich leksyki. Książki można dzielić, korzystając z ich cech, np. rodzaju literatury, gatunku literackiego, stylu, autora itp. Korzystając ze skompilowanego słownika i indeksu Jaccarda, udowodniona została hipoteza dotycząca podobieństwa książek rozpatrywanego pod kątem ich leksyki. Kolejna analiza za pomocą algorytmu klastrowego PAM wskazuje na związek leksykalny pomiędzy książkami jednego rodzaju literatury lub autora. Analiza wartości współczynników poszczególnych obszarów z jednej strony i anomalia w zachowaniu w niektórych przypadkach sugeruje, że wyodrębnienie kolejnych cech jest możliwe. Metoda przedstawiona w tym artykule pozwala wyciągać wnioski o relacjach między książkami, korzystając wyłącznie z ich słownictwa.
Źródło:
Journal of Computer Sciences Institute; 2021, 21; 316--323
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PAI/IB - agent-based Polish natural language interface to the control system of an intelligent building
PAI/IB - agentowy interfejs w języku naturalnym do systemu sterowania inteligentnym budynkiem
Autorzy:
Pechmann, P.
Czapiewski, P.
Powiązania:
https://bibliotekanauki.pl/articles/156102.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
interfejs w języku naturalnym
systemy agentowe
systemy zarządzania budynkiem
natural language interfaces
agent-based systems
building management systems
Opis:
One of the key aspects of building management systems is the possibility of easy and convenient control of different system components. Standard solutions available in commercial building management systems use either stationary devices, with the menu of a complex structure, or provide access only to the local parts of the system. Neither solution tend to be particularly convenient. An answer to the problem can be an interface based on the user's natural language queries and commands. This papers presents such a model, called PAI/IB, for Polish natural language.
Jedną z ważniejszych kwestii związanych z systemami zarządzania budynkiem jest zapewnienie wygodnego sposobu sterowania poszczególnymi składowymi systemu. Standardowo stosowane rozwiązania nie są zbyt wygodne, gdyż albo nie są mobilne i mają złożoną strukturę menu (terminale komputerowe), albo zapewniają dostęp wyłącznie do lokalnych składowych systemu (piloty). Rozwiązaniem pozbawionym tych wad wydaje się być sprzęg użytkownika bazujący na poleceniach i zapytaniach w języku naturalnym, umożliwiający swobodne wyrażanie poleceń zapewniających kontrolę nad wszystkimi składowymi budynku. W publikacji przedstawiono rozwiązanie tego typu opracowane dla języka polskiego i nazwane PAI/IB. Prezentowany model agentowy zakłada możliwość komunikacji lokalnej lub zdalnej za pośrednictwem różnych, dobrze znanych i łatwych w użyciu kanałów (głos, sms, komunikator internetowy, e-mail), także dwukierunkowej (polecenia, zapytania). System rozpoznaje żądania nieprecyzyjne i prowadzi dialog z użytkownikiem w celu ich doprecyzowania. Modularna architektura zapewnia możliwość integracji z systemem zarządzania budynkiem niezależnie od standardu, w jakim został zrealizowany oraz rozbudowę o nowe kanały komunikacyjne. Testy zrealizowanego prototypu potwierdziły skuteczność i funkcjonalność opracowanego modelu w zakresie wydawania poleceń i zapytań oraz poprawnej obsługi poleceń nieprecyzyjnych.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 851-855
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Quelques réflexions sur les primitives, les prédicats, le sens des termes dans les ontologies et dans le lexique standard
Some Thoughts on Primitives, Predicates and the Meaning of Terms in Ontologies and in General Vocabulary
Kilka refleksji na temat prymitywów, predykatów, znaczenia terminów w ontologiach i w słownictwie ogólnym
Autorzy:
Bogacki, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1883474.pdf
Data publikacji:
2015
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
predykaty
prymitywy
ontologia
terminy w ontologiach
słownictwo języka naturalnego
ontology
predicates
primitives
terms in ontologies
natural language vocabulary
Opis:
Artykuł traktuje o « prymitywach» i «predykatach», które pojawiają się w ontologiach, w opisie języków naturalnych i w językach programowania. Sposób ich użycia zdaje się potwierdzać maksymę: Si duo dicunt idem non est idem. Jednakże używanie języków formalnych w ontologiach informatycznych oraz w tekstach językoznawczych każe zniuansować ten pogląd. Zarówno predykaty, jak i prymitywy pojawiają się w językoznawstwie i w informatyce w warstwie formalnej, nie zaś „leksykalnej” opisu. Pod tym ostatnim względem bliżsi ideału stworzenia listy prymitywów są językoznawcy, dążący niekiedy do zidentyfikowania pojęć nierozkładalnych, które powinny pozwolić na zrekonstruowanie reprezentacji semantycznej leksemów. Rzut oka na Kartę praw podstawowych Unii Europejskiej jako na podstawę tekstową służącą do opracowania mikro-ontologii prowadzi do wniosku, że jej autorzy wprowadzają pojęcie dignité humaine ‘godność człowieka’ definicją projektującą. Znaczenie przypisywane temu pojęciu nie pokrywa się z żadnym z zarejestrowanych w języku.
The article deals with two terms: “primitives” and “predicates” found in technical reports on ontology, on natural languages and in programming languages. The way they are used seems to confirm the Latin phrase: Si duo dicunt idem non est idem. However, one must attenuate this supposition which is due to the fact that the descriptions of ontologies, of the programming code and of the natural language texts are made in formal language. The obtained descriptions have two aspects: ‘formal’ and ‘lexical’ or ‘semantic’. Both predicates and primitives appear in linguistics and computer science on the formal level, and not on the ‘lexical’ one. A glance at the Charter of Fundamental Rights of the European Union as the base-text used to develop a micro-ontology leads to the conclusion that the authors introduce the concept of dignité humaine ‘human dignity’ by an arbitrary stipulative definition rather than by reporting one. The meaning assigned to this term does not coincide with any of the registered meanings of this expression in the standard language.
Źródło:
Roczniki Humanistyczne; 2015, 63, 8; 37-54
0035-7707
Pojawia się w:
Roczniki Humanistyczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Enhancing regular expressions for Polish text processing
Mechanizm rozszerzonych wyrażeń regularnych do przetwarzania tekstów języka polskiego
Autorzy:
Dorosz, K.
Szczerbińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/305579.pdf
Data publikacji:
2009
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
wyrażenia regularne
język naturalny
język polski
biblioteka CLP
regular expressions
regex
natural language
Polish language processing
CLP library
Opis:
The paper presents proposition of regular expressions engine based on the modified Thompson’s algorithm dedicated to the Polish language processing. The Polish inflectional dictionary has been used for enhancing regular expressions engine and syntax. Instead of using characters as a basic element of regular expressions patterns (as it takes place in BRE or ERE standards) presented tool gives possibility of using words from a natural language or labels describing words grammar properties in regex syntax.
W artykule zaprezentowano propozycje mechanizmu wyrażeń regularnych w oparciu o zmodyfikowany algorytm Thompsona dostosowany do przetwarzania tekstów w języku polskim. Prezentowane wyrażenia regularne wykorzystują słownik fleksyjny języka polskiego i pozwalają na budowę wzorców, w których elementami podstawowymi są wyrazy języka polskiego lub etykiety gramatyczne, a nie znaki (jak to ma miejsce w klasycznych wyrażeniach regularnych standardu BRE czy ERE).
Źródło:
Computer Science; 2009, 10; 19-35
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On the Symbiotic and Orwellian Changes of Meaning Remarks on the Theory of Research on Historical Semantic Changes
O tzw. symbiotycznych i orwellowskich zmianach znaczeniowych (Z teorii badań nad historyczną zmiennością wyrazów)
Autorzy:
Sławkowa, Ewa
Powiązania:
https://bibliotekanauki.pl/articles/468374.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Śląskiego
Tematy:
meaning in the natural language
lexicology
semantics
historical semantic changes
znaczenie w języku naturalnym
leksykologia
semantyka
historyczne zmiany znaczeniowe
Opis:
Autorka rozważa zagadnienie zmian znaczeniowych wyrazów – klasyczny problem historycznej semantyki leksykalnej – z punku widzenia językoznawstwa postrukturalistycznego. W tym celu przedstawia zarys koncepcji Geoffreya Hughesa, w świetle której powstawanie i modyfikacja znaczeń wyrazów następuje w wyniku działania czynników zewnętrznych, w tym zwłaszcza czynnika społecznego: wielkich procesów cywilizacyjnych (wynalazek druku, rozwój kapitalizmu) i kulturowych (reformacja i kontrreformacja, rewolucja francuska i rosyjska, rozwój ideologii komunistycznej, narodziny faszyzmu). Artykuł omawia także typologię zmian semantycznych Hughesa: 1) zmiany „symbiotyczne”; 2) zmiany „zapośredniczone”, 3) zmiany orwellowskie – ilustrując poszczególne typy zmian przykładami z języka polskiego.
Źródło:
Forum Lingwistyczne; 2014, 1; 91-98
2449-9587
2450-2758
Pojawia się w:
Forum Lingwistyczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Der frühe Sprachunterricht muss umkehren – ein Plädoyer für eine „neue” Didaktik.
Early language teaching has to change – arguments for introducing “new” didactics.
Autorzy:
Olpińska-Szkiełko, Magdalena
Powiązania:
https://bibliotekanauki.pl/articles/914909.pdf
Data publikacji:
2016-06-20
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
early foreign language learning
language sensitivity period
natural language learning situation
integrative learning
pre-school education
kindergarten
teaching materials.
Opis:
The objective of the article is to present some valid arguments for a “new” didactics of early foreign language teaching. The foreign language teaching in Poland has become an obligatory part of the curriculum in kindergartens and pre-schools (for 5 years-olds), and from the beginning of Sept. 2017 it will also concern all 3 and 4 years old children in pre-school education. Didactic principles and materials for teaching foreign languages that are applied in kindergartens are designed mainly for grade 1-3 of the primary school and cannot be automatically adopted for the earlier educational stages. The didactic process must be founded on linguistic and glottodidactic study of natural language acquisition, bilingualism and bilingual education. In the article some most important differences between the language learning process in the primary school and kindergarten are discussed and conclusions for the shaping of the language teaching and learning situation in pre-schools are drawn. In the last part some selected examples of the “new” teaching forms and activities will be presented.
Źródło:
Glottodidactica. An International Journal of Applied Linguistics; 2016, 43, 1; 135-145
0072-4769
Pojawia się w:
Glottodidactica. An International Journal of Applied Linguistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using particle swarm optimization to accurately identify syntactic phrases in free text
Autorzy:
Tambouratzis, G.
Powiązania:
https://bibliotekanauki.pl/articles/91802.pdf
Data publikacji:
2018
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
parsing of natural language
machine translation
syntactically-derived phrasing
particle swarm optimization (PSO)
PSO
parameter optimization
Adaptive PSO
AdPSO
Opis:
The present article reviews the application of Particle Swarm Optimization (PSO) algorithms to optimize a phrasing model, which splits any text into linguistically-motivated phrases. In terms of its functionality, this phrasing model is equivalent to a shallow parser. The phrasing model combines attractive and repulsive forces between neighbouring words in a sentence to determine which segmentation points are required. The extrapolation of phrases in the specific application is aimed towards the automatic translation of unconstrained text from a source language to a target language via a phrase-based system, and thus the phrasing needs to be accurate and consistent to the training data. Experimental results indicate that PSO is effective in optimising the weights of the proposed parser system, using two different variants, namely sPSO and AdPSO. These variants result in statistically significant improvements over earlier phrasing results. An analysis of the experimental results leads to a proposed modification in the PSO algorithm, to prevent the swarm from stagnation, by improving the handling of the velocity component of particles. This modification results in more effective training sequences where the search for new solutions is extended in comparison to the basic PSO algorithm. As a consequence, further improvements are achieved in the accuracy of the phrasing module.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2018, 8, 1; 63-77
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Słowa kluczowe, tagi…, i co dalej?
Keywords, tags... and what else?
Autorzy:
Babik, Wiesław
Powiązania:
https://bibliotekanauki.pl/articles/678637.pdf
Data publikacji:
2014-12-31
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
folksonomy
keywords
natural language
ontology
tagging
tags
tag cloud
chmura tagów
folksonomie
język naturalny
ontologia
słowa kluczowe
tagi
tagowanie
Opis:
Keywords and their latest versions, called tags, are the object of this paper. Those expressions are treated as elements of the lexical systems of respective languages: the keyword language and the tag language. Our presentation of those vocabulary groups is intended to demonstrate that they are not homonymous, in structural or functional respects. Those two lexical resources are presented rather from the viewpoint of the theory of indexing and retrieval languages as well as the information search theories. Considering the future of the languages in question, the author presents the folksonomies and the possibilities of application of the respective vocabulary collections in the construction of tools required for semantization of the information retrieval environment in the Internet, including the construction of ontology and thought maps. Special attention was paid to the idea that keywords and tags are practically equivalent to specific “languages” which, similarly to natural languages, are subjected to continuous changes. For that reason, it is necessary to regularly monitor them and consider their practical application in document and information description and search. The works on keywords constitute a step towards the construction of linguistic tools for the needs of a semantic website. This paper is a contribution to the discussion on the development of keyword vocabularies created at the Institute of Slavic Studies of the Polish Academy of Sciences in Warsaw. Such vocabularies constitute part of the Slavic bibliographic information system.
Przedmiotem artykułu są słowa kluczowe oraz ich nowsza odmiana zwana tagami. Wyrażenia te zostały potraktowane jako elementy systemów leksykalnych odpowiednich języków: języka słów kluczowych oraz języka tagów. Prezentacja tych grup słownictwa ma na celu wykazanie, że nie są to homonimiczne grupy leksyki zarówno pod względem strukturalnym, jak i funkcjonalnym. Wymienione zasoby słownictwa zostały zaprezentowane z punktu widzenia teorii języków informacyjno-wyszukiwawczych oraz teorii wyszukiwania informacji. Biorąc pod uwagę przyszłość omawianych języków, zaprezentowano folksonomie oraz możliwości wykorzystania omówionych zbiorów słownictwa w budowie narzędzi do semantyzacji środowiska wyszukiwawczego w Internecie, w tym do budowy ontologii i map myśli. Szczególną uwagę zwrócono na to, że słowa kluczowe i tagi to w praktyce swoistego rodzaju „języki”, które, podobnie jak język naturalny, podlegają ciągłym zmianom, stąd potrzeba stałego śledzenia i uwzględniania pragmatyki ich stosowania w opisie i wyszukiwaniu dokumentów i informacji. Prace nad słowami kluczowymi stanowią krok w kierunku budowy lingwistycznych narzędzi na potrzeby semantycznego Web-u. Artykuł stanowi głos w dyskusji nad tworzonymi w Instytucie Slawistyki PAN w Warszawie słownikami słów kluczowych stanowiącymi element systemu slawistycznej informacji bibliograficznej.
Źródło:
Studia z Filologii Polskiej i Słowiańskiej; 2014, 49; 139-149
2392-2435
0081-7090
Pojawia się w:
Studia z Filologii Polskiej i Słowiańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie emocji w tekstach polskojęzycznych z wykorzystaniem metody słów kluczowych
Emotion recognition in polish texts based on keywords detection method
Autorzy:
Nowaczyk, A.
Jackowska-Strumiłło, L.
Powiązania:
https://bibliotekanauki.pl/articles/408760.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
interakcja człowiek-komputer
przetwarzanie języka naturalnego
przetwarzanie tekstów
emotion recognition
human-computer interaction
natural language processing
text processing
Opis:
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 2; 102-105
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inteligent performance analysis with a natural language interface
Inteligentna analiza wydajności z interfejsem naturalnego języka
Autorzy:
Juuso, E. K.
Powiązania:
https://bibliotekanauki.pl/articles/409729.pdf
Data publikacji:
2017
Wydawca:
STE GROUP
Tematy:
data analysis
nonlinear scaling
trend analysis
fuzzy systems
natural language
analiza danych
skalowanie nieliniowe
analiza trendu
systemy rozmyte
język naturalny
Opis:
Performance improvement is taken as the primary goal in the asset management. Advanced data analysis is needed to efficiently integrate condition monitoring data into the operation and maintenance. Intelligent stress and condition indices have been developed for control and condition monitoring by combining generalized norms with efficient nonlinear scaling. These nonlinear scaling methodologies can also be used to handle performance measures used for management since management oriented indicators can be presented in the same scale as intelligent condition and stress indices. Performance indicators are responses of the process, machine or system to the stress contributions analyzed from process and condition monitoring data. Scaled values are directly used in intelligent temporal analysis to calculate fluctuations and trends. All these methodologies can be used in prognostics and fatigue prediction. The meanings of the variables are beneficial in extracting expert knowledge and representing information in natural language. The idea of dividing the problems into the variable specific meanings and the directions of interactions provides various improvements for performance monitoring and decision making. The integrated temporal analysis and uncertainty processing facilitates the efficient use of domain expertise. Measurements can be monitored with generalized statistical process control (GSPC) based on the same scaling functions.
Najważniejszym celem zarządzania aktywami jest poprawa wydajności. Zaawansowana analiza danych jest potrzebna, aby efektywnie integrować dane monitorowania stanu maszyn podczas działania i konserwacji. Inteligentne wskaźniki obciążeń i stanu zostały opracowane w celu kontroli i monitorowania stanu poprzez połączenie uogólnionych norm z efektywnym skalowaniem nieliniowym. Nieliniowe metody skalowania mogą być również wykorzystane do pomiarów wydajności używanych do zarządzania, ponieważ wskaźniki zarządzania mogą być prezentowane w tej samej skali co inteligentne wskaźniki stanu i obciążeń. Wskaźniki efektywności to odpowiedzi procesu, maszyny lub systemu, na obciążenia analizowane z danych pochodzących z monitorowania procesu i stanu. Skalowane wartości są bezpośrednio stosowane w inteligentnej analizie czasowej do obliczania fluktuacji i trendów. Wszystkie te metody mogą być stosowane w prognostyce i przewidywaniu obciążenia. Znaczenie zmiennych jest korzystne w zdobywaniu wiedzy eksperckiej i prezentowaniu informacji w języku naturalnym. Idea dzielenia problemów na znaczenie w zmienności specyficznych i kierunków interakcji, zapewnia wiele ulepszeń w monitorowaniu wydajności i podejmowaniu decyzji. Zintegrowana analiza czasowa i przetwarzanie niepewności ułatwiają efektywne wykorzystanie wiedzy specjalistycznej. Pomiary mogą być monitorowane za pomocą uogólnionej statystycznej kontroli procesu (GSPC) opartej o te same funkcje skalowania.
Źródło:
Management Systems in Production Engineering; 2017, 3 (25); 168-175
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ChatGPT: Unlocking the future of NLP in finance
Autorzy:
Zaremba, Adam
Demir, Ender
Powiązania:
https://bibliotekanauki.pl/articles/23943459.pdf
Data publikacji:
2023
Wydawca:
Fundacja Naukowa Instytut Współczesnych Finansów
Tematy:
Natural Language Processing (NLP)
ChatGPT
GPT (Generative Pre-training Transformer)
finance
financial applications
ethical considerations
regulatory considerations
future research directions
Opis:
This paper reviews the current state of ChatGPT technology in finance and its potential to improve existing NLP-based financial applications. We discuss the ethical and regulatory considerations, as well as potential future research directions in the field. The literature suggests that ChatGPT has the potential to improve NLP-based financial applications, but also raises ethical and regulatory concerns that need to be addressed. The paper highlights the need for research in robustness, interpretability, and ethical considerations to ensure responsible use of ChatGPT technology in finance.
Źródło:
Modern Finance; 2023, 1, 1; 93-98
2956-7742
Pojawia się w:
Modern Finance
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Językoznawstwo korpusowe w badaniach medioznawczych – ujęcie historyczne i praktyczne
Corpus Linguistics in Media Studies – a Historical and Practical Approach
Autorzy:
Hess, Agnieszka
Hwaszcz, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/31340792.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
discourse analysis
media analysis
corpus linguistics
natural language
processing tools
analiza dyskursu
analiza mediów
językoznawstwo korpusowe
narzędzia do przetwarzania języka naturalnego
Opis:
Celem artykułu jest przedstawienie korzyści i zagrożeń wynikających z implementacji komputerowego językoznawstwa korpusowego do analizy dyskursu. Autorzy opisują genezę i rozwój narzędzi do przetwarzaniu języka naturalnego (z ang. Natural Language Processing, NLP) w ujęciu historycznym oraz prezentują przykłady ich zastosowania w obszarze nauk społecznych, w szczególności w metodologii nauk o komunikacji społecznej i mediach. Praktyczne ujęcie tematu obrazują fragmentaryczne wyniki badań zrealizowanych w Instytucie Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego we współpracy z konsorcjum CLARIN-PL. Artykuł prezentuje zastosowanie narzędzi NLP w analizie korpusu dyskursu parlamentarnego z lat 1989– 2019 pod kątem uwarunkowań instytucjonalizacji dialogu obywatelskiego w Polsce oraz w analizie porównawczej tematu wielokulturowości w dyskursie rady miasta i dyskursie mediów w Krakowie w okresie 2014–2018 (VII kadencja Rady Miasta Krakowa). Autorzy wskazują, w której fazie i jak lingwistyka komputerowa wpisuje się w szeroki kontekst problematyki związanej z badaniami komunikologicznymi – przede wszystkim jako narzędzie, które może wspierać proces wnioskowania.
The aim of this paper is to present the benefits and risks of implementing corpus linguistics for discourse analysis. The authors describe the origins and development of Natural Language Processing (NLP) tools in a historical perspective and provide examples of their application in social sciences, particularly in the methodology of Social Communication and Media Sciences. Fragmentary findings of studies carried out at the Institute of Journalism, Media and Social Communication at the Jagiellonian University in collaboration with the CLARIN-PL consortium illustrate a practical approach to the topic. The article presents the application of NLP tools in the analysis of the corpus of parliamentary discourse from 1989-2019 in terms of determinants for the institutionalization of civic dialogue in Poland and also in the comparative analysis of multiculturalism in the city council discourse and media discourse in Krakow between 2014–2018 (7th term of the Krakow City Council). The authors indicate in which phase and at which stage of communication research the use of computational linguistics can support the conclusion.
Źródło:
UR Journal of Humanities and Social Sciences; 2022, 25, 4; 118-132
2543-8379
Pojawia się w:
UR Journal of Humanities and Social Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przeciwko lokalnej teorii znaczenia dla języka prawnego – uwagi ogólne
Against a local theory of meaning for the legal language – some general remarks
Autorzy:
Banaś, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/531479.pdf
Data publikacji:
2017-01-01
Wydawca:
Stowarzyszenie Filozofii Prawa i Filozofii Społecznej – Sekcja Polska IVR
Tematy:
intencjonalizm
eksternalizm w teorii znaczenia
język prawny
język naturalny
teoria znaczenia
intentionalism
meaning externalism
legal language
natural language
theory of meaning
Opis:
W literaturze z zakresu filozofii prawa, jak również filozofii języka, można spotkać pogląd postulujący odrębne teorie znaczenia dla języka prawnego – eksternalizm oraz języka naturalnego – intencjonalizm. Pogląd ten można interpretować metafizycznie, tzn. jako głoszący, iż wyrażenia języka prawnego i naturalnego znaczą to, co znaczą z uwagi na różnego rodzaju fakty. W przypadku języka naturalnego faktami konstytuującymi znaczenie byłyby wówczas intencje nadawcy. Taka koncepcja języka zgodna jest z intuicją, iż celem komunikacji jest uchwycenie tego, co nadawca ma na myśli. W przypadku języka prawnego intencja nadawcy jako fakt konstytuujący znaczenie jest jednak problematyczna. Eksternalizm znaczeniowy dla języka prawnego zapewnia pożądaną w prawie obiektywność znaczenia, musi jednak wskazać, w jaki sposób jego wyrażenia są w ogóle znaczące (treść związana jest ściśle z intencjonalnością). Satysfakcjonująca teoria faktów konstytuujących znaczenie językowe może wiązać się z przyjęciem założenia o tym, że wszelkie znaczenie językowe (czy to dla języka prawnego czy naturalnego) jest artefaktem społecznym. W rezultacie jego treść konstytuowana jest przez zbiorowe intencje użytkowników języka. Jakkolwiek rozwiązuje to szereg problemów intencjonalizmu i eksternalizmu znaczeniowego, to jednak rodzi szereg zastrzeżeń, które wymagają dalszych badań.
Within philosophy of law as well as philosophy of language one can find a view suggesting that legal and natural languages have two different theories of meaning: meaning externalism and intentionalism accordingly. This view can be interpreted as a metaphysical one, ie. that there are two different kinds of facts that determine that expressions of legal and natural languages mean whatever they mean. For natural language these facts would be intentions of the speaker. Such a view of natural language seem intuitive as the aim of a communication is usually trying to grasp whatever a speaker has in mind. Such a view proves, however, problematic for the legal language. Meaning exteralism for legal language, on the other hand, allows for law to be objective. But it must show how its expressions are meaningful (as content is usually closely related to intentionality). As a result, a satisfactory theory of facts constituting linguistic meaning might require a pressuposition that meaning (also legal or natural) is a social artifact: its content is constituted by some kind of collective intentionality of language users. This solves a numer of problems with both intentionalism and meaning externalism – but also creates new ones that might require further studies.
Źródło:
Archiwum Filozofii Prawa i Filozofii Społecznej; 2017, 1(14); 7-16
2082-3304
Pojawia się w:
Archiwum Filozofii Prawa i Filozofii Społecznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Searching Legal Information Using a Natural Language
Autorzy:
Jacek, Peltzel,
Powiązania:
https://bibliotekanauki.pl/articles/902819.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Warszawski. Wydawnictwa Uniwersytetu Warszawskiego
Tematy:
natural language in retrieval
ranking algorithms
statistical analysis of the text
learning programmes
Google for lawyers
WESTLAW IS NATURAL
FREESTYLE SEEARCHING
WESTLAWNEXT
Opis:
The article deals with a problem of constructing computer retrieval systems based on the use of natural language. Those kind of systems differ from the classical ones and relay on the idea that the user should have the possibility to introduce to the system search instructions in the same manner in which she or he asks a question. Searches in such systems don’t use any retrieval languages. They don’t use Boolean operators and every single word from the instruction is used as a separate search criterion. To the retrieved documents weights are assigned on the basis of statistical analysis of the text of the documents. This allows the ranking of documents and presenting the results of the search in an ordered manner. The first attempts of using such a system took place in 1960s, but in the field of legal information from the beginning of 1990s. The article presents the methods of searching used in WESTLAW IS NATURAL (WIN) created by West Publishing Company, FREESTYLE SEARCHING developed by Lexis Nexis and WESTLAW NEXT based on the idea Google for lawyers. The critical analysis of functioning and estimation of retrieval results shows that those kind of systems cannot replace traditional ones based on Boolean searching but can sometimes play a supplementary role.
Źródło:
Studia Iuridica; 2016, 68; 263-277
0137-4346
Pojawia się w:
Studia Iuridica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards mass customisation: automatic processing of orders for residential ship’s containers - A case study example
Autorzy:
Dudek, Adam
Patalas-Maliszewska, Justyna
Frączak, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/27311441.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
mass customization
natural language processing
automatic processing of orders
residential shipping container
masowa personalizacja
przetwarzanie języka naturalnego
kontener mieszkalny
obsługa zamówień automatyczna
Opis:
Along with changes in customer expectations, the process of ordering a house, especially one built with the most modern technology from prefabricated HQ 40-foot shipping containers, should take place in an atmosphere of free-flowing, customer-friendly conversation. Therefore, it is important that the company producing such a solution has a tool supporting such offers and orders when producing personalized solutions. This article provides an original approach to the automatic processing of orders based on an example of orders for residential shipping containers, natural language processing and so-called premises developed. Our solution overcomes the usage of records of the conversations between the customer and the retailer, in order to precisely predict the variant required for the house ordered, also when providing optimal house recommendations and when supporting manufacturers throughout product design and production. The newly proposed approach examines such recorded conversations in the sale of residential shipping containers and the rationale developed, and then offers the automatic placement of an order. Moreover, the practical significance of the solution, thus proposed, was emphasized thanks to verification by a real residential ship container manufacturing company in Poland.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2023, 71, 3; art. no. e145562
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategy for Improving Crowdfunding Investments in Startup Business
Стратегія покращення краудфандингових інвестицій у стартап-бізнес
Autorzy:
Pasmawati, Yanti
Tontowi, Alva Edy
Hartono, Budi
Wijayanto, Titis
Powiązania:
https://bibliotekanauki.pl/articles/21270310.pdf
Data publikacji:
2022-03-04
Wydawca:
Dnieprowski Uniwersytet Narodowy im. Ołesia Honczara
Tematy:
crowdfunding
startup business
online customer reviews
sentiment analysis
natural language processing
краудфандинг
стартап-бізнес
онлайн-відгуки клієнтів
аналіз настроїв
процеси обробки природної мови
Opis:
Purpose: This research was conducted to analyze the extent to which online customer reviews (OCRs) can stimulate investment backers as a strategy to increase crowdfunding investment. Design / Method / Approach: This research is quantitative. Natural language processing (NLP) processes review text documents based on linguistic study, a lexicon-based method is used for sentiment analysis classification based on polarity score (pros and cons), while Multiple linear regression forms a model or relationship between online customer reviews and crowdfunding investments. OCRs consisting of numeric and text features were collected from one hundred technology products (3D printing, drones, cameras, wearables) on Kickstarter.com. Findings: The study results show that, in addition to positive reviews, the number of comments and the number of sentiment reviews can increase consumer interest in investing in technology products on the crowdfunding platform. Moreover, positive reviews have the most positive effect on crowdfunding investments. Practical Implications: The study results are expected to be used for startup business, especially technology products as a strategy to increase funding investment on a reward-based crowdfunding platform. Startups can take advantage of online customer reviews as one of important factors in stimulating potential backers and backers to invest. Social implications: The strategy of utilizing online customer reviews can be used especially for technology product-based startup business to get funding support as a resource in completing a product development stage. Originality / Value: The novelty of this research is that it focuses on a technological product development stage, product campaigns on a reward-based crowdfunding platform, considering online customer reviews through sentimental (online reviews) and numerical characteristics (number of comments, number of sentiment reviews) simultaneously as a strategy to increase investment. Research Limitations / Future Research: This study has some limitations as it used only online customer reviews as an attribute that affects crowdfunding investment. Future research is expected to explore online customer reviews to determine important attributes (unique words) as consideration for strategies to increase crowdfunding investment.
Мета роботи: Це дослідження було проведено, щоб проаналізувати, наскільки онлайн-огляди клієнтів (OCRs) можуть стимулювати спонсорів інвестицій як стратегію збільшення інвестицій у краудфандинг. Дизайн / Метод / Підхід дослідження: Це дослідження є кількісним. Процеси обробки природної мови (NLP) переглядають текстові документи на основі лінгвістичного дослідження, метод на основі лексики використовується для класифікації настроїв на основі оцінки полярності (за і проти), тоді як множинна лінійна регресія формує модель або зв’язок між відгуками клієнтів в Інтернеті та краудфандинговими інвестиціями. OCRs, що складаються з числових і текстових функцій, були зібрані зі ста технологічних продуктів (3D-друк, дрони, камери, носії) на Kickstarter.com. Результати дослідження: Результати дослідження показують, що, крім позитивних відгуків, кількість коментарів і кількість відгуків про настрої можуть підвищити інтерес споживачів до інвестування в технологічні продукти на платформі краудфандингу. Більше того, позитивні відгуки найбільш позитивно впливають на краудфандингові інвестиції. Практична цінність дослідження: Очікується, що результати дослідження будуть використані для стартап-бізнесу, особливо технологічних продуктів, як стратегії збільшення інвестицій у фінансування на краудфандинговій платформі, заснованій на винагородах. Стартапи можуть скористатися перевагами онлайн-оглядів клієнтів як одним із важливих факторів стимулювання потенційних спонсорів і спонсорів, вже готових інвестувати. Соціальна цінність дослідження: Стратегія використання онлайн-відгуків клієнтів може бути використана особливо для запуску бізнесу на основі технологічних продуктів, щоб отримати фінансову підтримку як ресурс для завершення етапу розробки продукту. Оригінальність / Цінність дослідження: Новизна цього дослідження полягає в тому, що воно зосереджується на етапі розробки технологічного продукту, продуктових кампаніях на краудфандинговій платформі, заснованій на винагородах, враховуючи онлайн-відгуки клієнтів через сентиментальні (огляди в Інтернеті) та числові характеристики (кількість коментарів, кількість оцінки настроїв) одночасно як стратегія збільшення інвестицій. Обмеження дослідження / Майбутні дослідження: У цьому дослідженні є деякі обмеження, оскільки було використано лише онлайнові відгуки клієнтів як атрибут, який впливає на інвестиції в краудфандинг. Очікується, що майбутні дослідження будуть вивчати відгуки клієнтів в Інтернеті, щоб визначити важливі атрибути (унікальні слова) для розгляду стратегій збільшення інвестицій у краудфандинг.
Źródło:
European Journal of Management Issues; 2022, 30, 1; 17-24
2519-8564
Pojawia się w:
European Journal of Management Issues
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Неокультурный балласт в смысловых структурах естественного языка
Autorzy:
Leontieva, Oksana
Powiązania:
https://bibliotekanauki.pl/articles/681627.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
neo-cultural ballast, semantic structure of language, natural language, linguistic turn, perception, thinking
warstwa neokulturowa, struktura semantyczna języka, język naturalny, zwrot językowy, percepcja, myślenie
Opis:
The neo-cultural ballast is built into the semantic structures of language. It modifies them and influences the ways of functioning of language in the public consciousness. This leads to violations of the established semantic system of language, and to new ways of combining the sense units, creating a new holistic system of ideas about the world as a result of knowledge. On the other hand, the conscious ability of a person to record sensations, perceptions, concepts, judgments and reasoning changes. These processes affect a person’s self-awareness and, consequently, cultural and social stereotypes.
Warstwa neokulturowa w strukturach semantycznych języka naturalnegoWarstwa neokulturowa wbudowana jest w struktury semantyczne języka, modyfikując je i wpływając na sposób funkcjonowania języka w świadomości społecznej. Prowadzi to do naruszenia ustalonego systemu semantycznego języka, nowych sposobów łączenia jednostek zmysłowych oraz tworzenia nowego holistycznego systemu wyobrażeń o świecie jako rezultatu wiedzy. Z drugiej strony, świadoma zdolność ludzi do rejestrowania wrażeń, percepcji, koncepcji, pojęć i osądów ulega zmianie. Procesy te wpływają na samoświadomość osoby, a w konsekwencji na stereotypy kulturowe i społeczne.
Źródło:
Zeszyty Cyrylo-Metodiańskie; 2018, 7
2449-8297
Pojawia się w:
Zeszyty Cyrylo-Metodiańskie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Образ женщины в русских устойчивых сравнениях
The image of a woman in Russian phraseological comparisons
Obraz kobiety w rosyjskich porównaniach frazeologicznych
Autorzy:
Muszyńska-Wolny, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/1896723.pdf
Data publikacji:
2020-12-30
Wydawca:
Uniwersytet w Białymstoku. Wydawnictwo Uniwersytetu w Białymstoku
Tematy:
frazeologia
porównanie frazeologiczne
językowy obraz świata
obraz kobiety w języku rosyjskim
phraseology
phraseological comparisons
natural language metaphysics
the image of a woman in Russian
Opis:
Analiza porównań frazeologicznych, które łączy wspólnota obiektu porównania, pozwala wyjawić cechy, będące dla nosicieli danego języka – członków danego środowiska kulturowego – w takim stopniu typowymi, że obiekty te stają się wręcz symbolami danych cech. Obiekt porównania jest więc swego rodzaju wzorcowym nosicielem cechy stanowiącej tertium comparationis subiektu i obiektu porównania. W niniejszym artykule obiekt porównania jest wyrażony leksemem, w którego znaczeniu zawarty jest sem ‘osoba płci żeńskiej’. Cechy wyrażone w tertium comparationis pozwalają sprawdzić, jak Rosjanie postrzegają kobietę, jak ją oceniają i jak traktują, a także jakie stereotypy dotyczące kobiet znajdują odbicie w języku rosyjskim.
The standard of comparison in a phraseological comparison is an exemplary carrier of the tertium comparationis. The analysis of such phraseological comparisons, which are united by the commonality of the standard of comparison, makes it possible to identify those features that, for native speakers of this language, members of a given cultural environment, are so typical that it even becomes a symbol of this feature. In this article, the standard of comparison is ‘woman’. Her features expressed in tertium comparationis allow us to check how Russians see a woman, how she is evaluated, how they treat her and what stereotypes about women are reflected in the Russian language.
Źródło:
Linguodidactica; 2020, 24; 185-200
1731-6332
Pojawia się w:
Linguodidactica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Benchmarking high performance architectures with natural language processing algorithms
Benchmarking architektur wysokiej wydajności algorytmami przetwarzania języka naturalnego
Autorzy:
Kuta, M.
Kitowski, J.
Powiązania:
https://bibliotekanauki.pl/articles/305469.pdf
Data publikacji:
2011
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
benchmarking
tagowanie częściami mowy
klasteryzacja dokumentów
przetwarzanie języka naturalnego
architektury wysokiej wydajności
part-of-speech tagging
document clustering
natural language processing
high performance architectures
Opis:
Natural Language Processing algorithms are resource demanding, especially when tuning to inflective language like Polish is needed. The paper presents time and memory requirements of part of speech tagging and clustering algorithms applied to two corpora of the Polish language. The algorithms are benchmarked on three high performance platforms of different architectures. Additionally sequential versions and OpenMP implementations of clustering algorithms were compared.
Algorytmy przetwarzania języka naturalnego mają duże zapotrzebowanie na zasoby komputerowe, szczególnie gdy wymagane jest dostosowanie algorytmu do języka fleksyjnego jakim jest np. język polski. Artykuł przedstawia wymagania czasowe i pamięciowe algorytmów tagowania częściami mowy oraz algorytmów klasteryzacji zastosowanych do dwóch korpusów języka polskiego. Dokonano benchmarkingu algorytmów na trzech platformach wysokiej wydajności reprezentujących różne architektury. Dodatkowo porównano wersję sekwencyjną oraz implementacje OpenMP algorytmów klasteryzacji.
Źródło:
Computer Science; 2011, 12; 19-31
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Traversing the Metaverse: the new frontiers for computer-mediated communication and natural language processing
Przemierzając metawersum: nowe granice w komunikacji zapośredniczonej przez komputer i w przetwarzaniu języka naturalnego
Autorzy:
Solska, Dagmara
Powiązania:
https://bibliotekanauki.pl/articles/2195900.pdf
Data publikacji:
2022-12-31
Wydawca:
Ateneum - Akademia Nauk Stosowanych w Gdańsku
Tematy:
metaverse
virtual reality
computer mediated communication
natural language processing
cyberspace
computational linguistics
metawersum
rzeczywistość wirtualna
przetwarzanie języka naturalnego
cyberprzestrzeń
lingwistyka komputerowa
komunikacja zapośredniczona przez komputer
Opis:
The primary objective of the following paper is to explore the concept of the Metaverse encompassing the Internet revolution, the information revolution, and the artificial intelligence technology revolution, which further incorporates virtual reality (VR), augmented reality (AR), and mixed reality (MR) technologies. Due to the fact that the current, fourth wave of computing innovation can be regarded as driven by immersive, spatial technologies, the Metaverse as the socalled post-reality universe and multi-user virtual environment has a considerable potential to become the future of the digital discourse. With Natural Language Processing (NLP) conceptualized as a subfield of artificial intelligence and linguistics, the following paper argues for the inclusion of NLP-based methods in the developing discourse revolving around the transformative idea of the Metaverse. At the same time, computer-mediated communication (CMC), can potentially be extended to the new context of the extensive online world of the Metaverse.
Głównym celem niniejszego artykułu jest przyjrzenie się koncepcji metawersum obejmującej rewolucję internetową, rewolucję informacyjną i rewolucję technologii sztucznej inteligencji, która obejmuje rzeczywistość wirtualną (VR), rzeczywistość rozszerzoną (AR) i rzeczywistość mieszaną (MR). W związku z tym, że obecną, czwartą falę innowacji komputerowych można uznać za napędzaną przez immersyjne, przestrzenne technologie, metawersum postrzegane jako uniwersum postrzeczywistości i wieloużytkownikowe środowisko wirtualne ma znaczący potencjał, by stać się przyszłością dyskursu cyfrowego. Poprzez umiejscowienie przetwarzania języka naturalnego (NLP) jako poddziedziny sztucznej inteligencji i językoznawstwa, niniejszy artykuł opowiada się za włączeniem metod NLP do rozwijającego się dyskursu dotyczącego transformacyjnej metawersum. Jednocześnie komunikacja zapośredniczona przez komputer (CMC), może potencjalnie zostać rozszerzona do nowego kontekstu rozbudowanego internetowego świata metawersum.
Źródło:
Forum Filologiczne Ateneum; 2022, 10, 1; 27-38
2353-2912
2719-8537
Pojawia się w:
Forum Filologiczne Ateneum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep learning based Tamil Parts of Speech (POS) tagger
Autorzy:
Anbukkarasi, S.
Varadhaganapathy, S.
Powiązania:
https://bibliotekanauki.pl/articles/2086879.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
POS tagging
part of speech
deep learning
natural language processing
BiLSTM
Bi-directional long short term memory
tagowanie POS
części mowy
uczenie głębokie
przetwarzanie języka naturalnego
Opis:
This paper addresses the problem of part of speech (POS) tagging for the Tamil language, which is low resourced and agglutinative. POS tagging is the process of assigning syntactic categories for the words in a sentence. This is the preliminary step for many of the Natural Language Processing (NLP) tasks. For this work, various sequential deep learning models such as recurrent neural network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU) and Bi-directional Long Short-Term Memory (Bi-LSTM) were used at the word level. For evaluating the model, the performance metrics such as precision, recall, F1-score and accuracy were used. Further, a tag set of 32 tags and 225 000 tagged Tamil words was utilized for training. To find the appropriate hidden state, the hidden states were varied as 4, 16, 32 and 64, and the models were trained. The experiments indicated that the increase in hidden state improves the performance of the model. Among all the combinations, Bi-LSTM with 64 hidden states displayed the best accuracy (94%). For Tamil POS tagging, this is the initial attempt to be carried out using a deep learning model.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 6; e138820, 1--6
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Il progetto "Scrivere Come Risorsa Professionale nella Svizzera Italiana": aspetti linguistici quantitativi e qualitativi delle tesi di laurea nella Scuola Universitaria Professionale della Svizzera italiana
"Writing as a Professional Resource in Southern Switzerland": Quantitative and Qualitative Aspects of Bachelor’s Theses at the University of Applied Sciences and Arts of Southern Switzerland
Autorzy:
Cignetti, Luca
Demartini, Silvia
Puccinelli, Daniele
Powiązania:
https://bibliotekanauki.pl/articles/446310.pdf
Data publikacji:
2018-06-20
Wydawca:
Wydawnictwo Adam Marszałek
Tematy:
scrittura accademica
corpus di apprendenti
analisi automatica del linguaggio
italiano scritto
insegnamento della lingua
academic writing
Italian learner corpus
natural language processing
written Italian language
language teaching
Opis:
In questo contributo viene introdotto il progetto Scrivere Come Risorsa Professionale nella Svizzera italiana (SCRiPSIt), promosso dal Dipartimento formazione e apprendimento (DFA) della Scuola Universitaria Professionale della Svizzera Italiana (SUPSI). Il progetto si propone di identificare le difficoltà e gli errori più ricorrenti nella scrittura delle tesi di laurea in lingua italiana degli studenti di tre dipartimenti della SUPSI (Dipartimento Formazione e Apprendimento, Dipartimento Tecnologie Innovative, Dipartimento Economia Aziendale, Sanità e Sociale) e di una scuola affiliata (Accademia Teatro Dimitri), con l’obiettivo di migliorarne la qualità linguistica e formale. Dopo una descrizione degli obiettivi e dello stato attuale di realizzazione del corpus, ci si sofferma sull’illustrazione dei software impiegati per l’analisi automatica, sui primi esiti dell’analisi relativa al lessico e sulle potenzialità dell’impiego della pipeline Tint. I risultati del progetto consentiranno di attivare corsi specifici dedicati alla scrittura delle tesi di laurea e più in generale alla scrittura di tipo funzionale e professionale, con applicazione potenzialmente estesa a tutti i dipartimenti della SUPSI e alle scuole affiliate.
This paper describes the highlights of Project SCRiPSIt (Writing as a Professional Resource in Southern Switzerland), led by the Department of Teaching and Learning of the University of Applied Sciences and Arts of Southern Switzerland (SUPSI). Located in the largest Italian-speaking population centre outside of Italy, SUPSI is a heterogeneous higher-learning institution with a strong emphasis on professional development. Project SCRiPSIt investigates a relatively large corpus of SUPSI bachelor’s theses by bringing together a heterogeneous research team featuring a combination of qualitative and quantitative research expertise in linguistics as well as in automated text processing. After a description of the key project objectives, we present an overview of the current state of the corpus and of the text-processing pipeline, along with some preliminary results.
Źródło:
Italica Wratislaviensia; 2018, 9.1; 35-50
2084-4514
Pojawia się w:
Italica Wratislaviensia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Narzędzia do automatycznego streszczania tekstów w języku polskim. Stan badań naukowych i prac wdrożeniowych
Tools for automatic summarization of texts in Polish. State of the research and implementation workse
Autorzy:
Glenc, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1191628.pdf
Data publikacji:
2021
Wydawca:
Szkoła Główna Handlowa w Warszawie
Tematy:
text summarization
Natural Language Processing
text documents
Polish language processing
automation of knowledge acquisition
streszczanie tekstów
przetwarzanie języka naturalnego
dokumenty tekstowe
przetwarzanie języka polskiego
automatyzacja pozyskiwania wiedzy
Opis:
The goal of the publication is to present the state of research and works carried out in Poland on the issue of automatic text summarization. The author describes principal theoretical and methodological issues related to automatic summary generation followed by the outline of the selected works on the automatic abstracting of Polish texts. The author also provides three examples of IT tools that generate summaries of texts in Polish (Summarize, Resoomer, and NICOLAS) and their characteristics derived from the conducted experiment, which included quality assessment of generated summaries using ROUGE-N metrics. The results of both actions showed a deficiency of tools allowing to automatically create summaries of Polish texts, especially in the abstractive approach. Most of the proposed solutions are based on the extractive method, which uses parts of the original text to create its abstract. There is also a shortage of tools generating one common summary of many text documents and specialized tools generating summaries of documents related to specific subject areas. Moreover, it is necessary to intensify works on creating the corpora of Polish-language text summaries, which the computer scientists could apply to evaluate their newly developed tools.
Celem publikacji jest przedstawienie stanu badań i prac prowadzonych w Polsce nad zagadnieniem automatycznego streszczania tekstów. Przedstawiono podstawowe zagadnienia teoretyczne i metodologiczne związane z automatycznym generowaniem streszczeń dokumentów tekstowych. Na tle tych rozważań dokonano opisu wybranych prac dotyczących automatycznego generowania streszczeń tekstów polskojęzycznych. Zaprezentowano również przykłady narzędzi informatycznych generujących streszczenia tekstów w języku polskim (Summarize, Resoomer, NICOLAS) oraz dokonano oceny jakości generowanych streszczeń z wykorzystaniem miar ROUGE-N. Wyniki badań literaturowych i przeprowadzonego eksperymentu wskazały na niedobór narzędzi pozwalających na generowanie streszczeń tekstów polskojęzycznych, zwłaszcza w podejściu abstraktowym. Większość zaproponowanych rozwiązań pozwala na generowanie streszczeń w podejściu ekstrakcyjnym, polegającym na wykorzystywaniu w tworzonym streszczeniu fragmentów oryginalnego tekstu. Widoczny jest również niedobór narzędzi pozwalających na wygenerowanie jednego streszczenia wielu tekstów oraz narzędzi wyspecjalizowanych, pozwalających na generowanie streszczeń tekstów dotyczących konkretnych obszarów tematycznych. Ponadto konieczne jest zintensyfikowanie prac w obszarze tworzenia korpusów streszczeń polskojęzycznych tekstów, które będą mogły być wykorzystane do ewaluacji nowo tworzonych narzędzi.
Źródło:
e-mentor. Czasopismo naukowe Szkoły Głównej Handlowej w Warszawie; 2021, 89, 2; 67-77
1731-6758
1731-7428
Pojawia się w:
e-mentor. Czasopismo naukowe Szkoły Głównej Handlowej w Warszawie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Витоки формування уявлення про концепт у філософії Людвіга Вітгенштейна
The origins of the idea of concept in the philosophy of Ludwig Wittgenstein
Autorzy:
Kaliuzhna, Yuliia
Powiązania:
https://bibliotekanauki.pl/articles/1179261.pdf
Data publikacji:
2020-11-24
Wydawca:
Ateneum - Akademia Nauk Stosowanych w Gdańsku
Tematy:
concept
conceptosphere
picture of the world
inoculture
"language game"
"natural language"
author's concept
national concept
концепт
концептосфера
картина світу
інокультура
«мовна гра»
«природна мова»
авторський концепт
національний концепт
Opis:
The article attempts to investigate the origins of the idea of concept in the philosophy of Ludwig Wittgenstein and attempts to apply the theoretical work of L. Wittgenstein in combination with literary and linguistic techniques and methods of analysis to consider concepts and their elements in literary works. The author revealed the possibility of embodying the multidimensional interaction of different conceptospheres in the work of fiction literature, and also revealed differences between the national and the author's concepts.
У статті здійснено спробу дослідити витоки формування уявлення про концепт у філософії Людвіга Вітгенштейна та здійснено спроби застосувати теоретичні напрацювання Л.Вігенштейна у комплексі з літературознавчими та лінгвістичними прийомами та методами аналізу для розгляду концептів та їх елементів у літературних творах. Автором було виявлено у художньому творі можливості втілення багатовимірної взаємодії різних концептосфер, виявлено відмінності між національним та авторським концептом.
Źródło:
Forum Filologiczne Ateneum; 2020, 8, 1; 395-415
2353-2912
2719-8537
Pojawia się w:
Forum Filologiczne Ateneum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O wiele więcej niż Google Translate, czyli komputerowe przetwarzanie języka naturalnego (NLP) w translatoryce i translatologii
Far Beyond Google Translate: Natural Language Processing (NLP) in Translation and Translatology
Autorzy:
Okulska, Inez
Powiązania:
https://bibliotekanauki.pl/articles/912393.pdf
Data publikacji:
2020-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
literary translation
machine learning
big data
natural language processing
theory of translation
computational linguistics
machine translation
przekład literacki
teoria przekładu
przetwarzanie języka naturalnego
lingwistyka komputerowa
przekład maszynowy
uczenie maszynowe
Opis:
Przewrotna jest rola postępu – im więcej technologicznego rozwoju, tym większy udział człowieka – w koncepcji, formułowaniu zadań, interpretacji wyników, nadzorze i korekcie. Hierarchia jest zachowana, człowiek wciąż nieodzowny, ale to nie znaczy, że w pewnych obszarach maszynowy potencjał rzeczywiście nie przewyższa ludzkiego i że nie warto z tej przewagi skorzystać. Przetwarzanie języka naturalnego (NLP) to dziedzina niemłoda, ale w ostatnich latach dzięki rozkwitowi metod uczenia głębokiego (deep learning), mody na maszynowe wnioskowanie (data/knowledge mining) czy nowym sprzętowym interfejsom (m.in. zaawansowane rozpoznawanie obrazu) komputerowa analiza tekstu przeżywa istny renesans. W odniesieniu do translacji przyjęło się mówić i pisać głównie o coraz doskonalszych lub właśnie zupełnie niemożliwych algorytmach dla kolejnych par języków czy coraz większej precyzji samego tłumaczenia. Niniejszy artykuł przedstawia natomiast nieco szersze spektrum procesu tłumaczenia i przygląda się elementom przekładowi towarzyszącym (jak choćby krytyka), w których wykorzystanie metod NLP możeprzynieść nowe, ciekawe wyniki. Wyniki, których ze względu na ograniczoną moc obliczeniową człowiek nie jest w stanie osiągnąć. Omówione zostały takie aspekty jak wektorowa reprezentacja języka, stylometria i jej zastosowania czy analiza wielkich zbiorów danych – wszystko to na potrzeby szeroko rozumianychtranslacji i translatologii.
The more technological development, the greater the participation of the human – in formulating tasks and problems, supervising and improving automated processes and interpreting their outcomes. The hierarchy is preserved, humans are still indispensable, but it does not mean that in certain areas of machinery the potential does not really exceed that of the human and that this advantage is not worth exploiting. Natural language processing (NLP) is not a young field, but in recent years, thanks to the thrive of deep learning methods, data and knowledge mining or new human-machine interfaces, computer text analysis is experiencing a real renaissance. As far as translation is concerned, it is mostly algorithms for machine translation that are being discussed. This article, on the other hand, presents a slightly broader spectrum of the translation process and looks at the accompanying elements (such as criticism) in which the use of NLP methods may bring new and interesting results. Results which, due to limited computing power, humans are unable to achieve. The discussion in the paper covers such aspects as the vector representation of language,stylometry and its application, or the analysis of large data sets – all for the purposes of translation and translatology.
Źródło:
Porównania; 2020, 26, 1; 283-297
1733-165X
Pojawia się w:
Porównania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Binary and ternary structures in the evolutions in the Universe (2×3×2×2×···-world). The description of further stages of the evolutions (polymers, molecular biology and natural language)
Struktury binarne i ternarne w ewolucjach wszechświata (świat 2 × 3 × 2 × 2 × · · · ). Opis dalszych faz ewolucji (polimery, biologia molekularna i język naturalny)
Autorzy:
Suzuki, Osamu
Powiązania:
https://bibliotekanauki.pl/articles/1837593.pdf
Data publikacji:
2019
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
polymer
molecular biology
natural language
binary physical structure
ternary physical structure
polimer
biologia molekularna
język naturalny
binarne struktury fizyczne
ternarne struktury fizyczne
kwinarne struktury fizyczne
senarne struktury fizyczne
pentacen
Opis:
In this paper we continue our considerations and describe the further stages of the evolution. We can construct the evolution theory for polymer physics, molecular biology and natural language.
Po sformułowaniu definicji ewolucji w Części I tej pracy [24] i opisie pierwszych faz ewolucji, kontynuujemy ten opis uwzględniając fizykę polimerów, biologię molekularną oraz języki naturalne.
Źródło:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations; 2019, 69, 1; 25-32
1895-7838
2450-9329
Pojawia się w:
Bulletin de la Société des Sciences et des Lettres de Łódź, Série: Recherches sur les déformations
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie gier skierowanych na cel do anotacji korpusów językowych
The applications of games with a purpose used for obtaining annotated language resources
Autorzy:
Włodarczyk, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/460019.pdf
Data publikacji:
2015
Wydawca:
Fundacja Pro Scientia Publica
Tematy:
gry skierowane na cel
GWAP
crowdsourcing
human computation
przetwarzanie języka naturalnego
sztuczna inteligencja, AI-zupełne
anotacja korpusu
Wordrobe
game with a purpose
natural language processing
artificial intelligence, AI-complete
corpus annotation
Opis:
Istnienie problemów AI-zupełnych przyczyniło się do poszukiwań alternatywnych sposobów rozwiązywania problemów sztucznej inteligencji, nie opartych wyłącznie na pracy komputera. Pomimo że komunikacja jest dla ludzi czymś oczywistym, nadal nie istnieje sposób jej automatyzacji. Aktualnie powszechnie stosowanym podejściem w rozwiązywaniu problemów NLP jest podejście statystyczne, którego powodzenie zależy od wielkości korpusu językowego. Przygotowanie rzetelnego zbioru danych jest zatem kluczowym aspektem tworzenia statystycznego systemu sztucznej inteligencji. Z uwagi na zaangażowanie specjalistów jest to proces czasochłonny i kosztowny. Jednym z obiecujących podejść, pomagających zredukować czas i koszt tworzenia otagowanego korpusu, jest korzystanie z gier skierowanych na cel. Ambicją niniejszej pracy jest przybliżenie poszczególnych etapów tworzenia gry przeznaczonej do pozyskania zasobów językowych oraz omówienie skuteczności jej działania. Analiza ta zostanie przeprowadzona na podstawie kolekcji gier Wordrobe wspierających anotacje korpusu języka naturalnego.
The existence of AI-complete problems has led to a growth in research of alternative ways of solving artificial intelligence problems, which are not based solely on the computer. Although for us communication is obvious, there is still no way automate it. The current widely-used approach to solving the problems of NLP is a statistical one, whose success depends on the size of the training corpus. The preparation of a reliable set of data is therefore a key aspect in creating an artificial intelligence statistical system. Due to the involvement of a large number of specialists this is a very time-consuming and expensive process. One promising approache in helping reduce the time and cost of creating a tagged corpus is the use of games with a purpose. The objective of this paper is to present the stages of creating games with a purpose used for obtaining annotated language resources and to discuss its effectiveness. This analysis will be done based on the Wordrobe project, a collection of games created to support the gathering of an annotated corpus of natural language.
Źródło:
Ogrody Nauk i Sztuk; 2015, 5; 112-220
2084-1426
Pojawia się w:
Ogrody Nauk i Sztuk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Korpusowe metody badania logosu i etosu
The method of corpus analysis in the study of logos and ethos
Autorzy:
Budzyńska, Katarzyna
Konat, Barbara
Koszowy, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/577868.pdf
Data publikacji:
2016-07
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
metody lingwistyczne
metody mieszane
badania korpusowe
automatyczne przetwarzanie języka naturalnego
argumentacja
spór
konsensus
logos
etos
dialog
linguistic methods
mixed methods
corpus studies
automatic natural language processing
argumentation
controversy
consensus
ethos
dialogue
Opis:
Celem artykułu jest prezentacja procesu badawczego wykorzystującego lingwistyczne metody korpusowe do wzbogacania fi lozofi cznych teorii logosu (tj. struktur inferencyjnych) i etosu (tj. struktur komunikacyjnych powiązanych z charakterem czy wiarygodnością mówcy). Te dwa typy zjawisk komunikacyjnych przyciągały uwagę fi lozofów od czasów starożytnych, kiedy to Arystoteles, jako jeden z pierwszych, zaproponował sposób rozumienia tych pojęć w swojej Retoryce. Współcześnie problem eksplozji danych, związany z rozwojem nowoczesnych technologii i Internetu, postawił przed fi lozofi ą nowe wyzwanie: możliwość zautomatyzowania procesu przetwarzania dużych zasobów danych i wydobywania informacji dotyczących tego, jakie opinie i argumenty ludzie formułują, oraz tego, kto jest uznawany za wiarygodnego mówcę, wymaga dobrego zrozumienia tego, w jaki sposób ludzie faktycznie konstruują struktury logosu i etosu – nawet jeżeli są to niepoprawne konstrukcje. Stąd też w naszych badaniach stosujemy następującą metodologię: (1) wychodzimy od teorii fi lozofi cznych, (2) następnie wybieramy dziedzinę dyskursu, dla której chcemy zidentyfi kować typowe językowe zachowania związane z logosem i etosem, (3) dane te analizujemy przy użyciu wybranych teorii, (4) na podstawie statystyk i wglądu w naturę danego dyskursu formułujemy nowe twierdzenia dotyczące interesujących nas zjawisk, (5) aby w końcu móc zastosować wyniki tych badań do wspierania automatycznego wydobywania struktur logosu i etosu z dużych zasobów danych języka naturalnego.
The aim of this paper is to discuss research process which employs linguistic methods of corpus analysis in order to better understand dialogue strategies people use. Theories developed in such a way are then suitable to be used for argument mining, i.e. for automated identifi cation and extraction of these strategies from large resources of texts in natural language. The paper considers two types of communication phenomena related to Aristotelian notions of logos (i.e. inferential premise-conclusion structures) and ethos (i.e.communication structures related to the character of the speaker). The goal of the paper is accomplished in four steps. The task of identifying the main problem (Sect. 1) allows us to give an outline of the corpus study method for automated argument mining (Sect. 2). Next, the explication of this method paves the way for discussing two examples of applying the corpus method to analyse logos and ethos, namely controversy and consensus (Sect. 3) and ethotic structures in a dialogue (Sect. 4).
Źródło:
Zagadnienia Naukoznawstwa; 2016, 52, 3(209); 385-404
0044-1619
Pojawia się w:
Zagadnienia Naukoznawstwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Innowacyjność polskiej gospodarki na tle Unii Europejskiej z uwzględnieniem specyfiki sektora informatycznego
Innovation of Polish economy in comparison to the European Union, taking into account the information sector
Autorzy:
Kansy, Dominika
Powiązania:
https://bibliotekanauki.pl/articles/589713.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Działalność badawczo-rozwojowa
Działalność innowacyjna przedsiębiorstwa
Innowacje
Przetwarzanie języka naturalnego
Reguły asocjacji
Złożony wskaźnik innowacyjności
Association rules
Innovations
Innovative activity of the company
Natural language processing
Research and development activity
Summary Innovation Index
Opis:
Międzynarodowa walka konkurencyjna na poziomie firm przenosi się na rynek krajowy. Zdolność do innowacji i ich skutecznego wprowadzania staje się wyznacznikiem konkurencyjności produkcji krajowej, a tym samym czynnikiem wspomagającym zapewnienie bezpieczeństwa ekonomicznego kraju. Głównym celem artykułu jest scharakteryzowanie polskiej gospodarki pod kątem innowacyjności. Szczególny nacisk położono na zaprezentowanie działalności innowacyjnej polskich przedsiębiorstw w ostatnich latach, jak również przedstawiono pozycję Polski w unijnym rankingu innowacyjności. Z przeprowadzonej analizy wynika, że mimo większych nakładów na działalność badawczo- -rozwojową oraz zwiększenia inwestycji w zakresie aktywności innowacyjnej, nie przekłada się to na polepszenie wskaźnika innowacyjności dla Polski w stosunku do wskaźników innowacyjności pozostałych krajów UE. Ponadto w artykule zwrócono uwagę na wpływ sektora informatycznego na skuteczność działalności innowacyjnej. Przedstawiono wyniki badań przeprowadzonych na danych z grudnia 2016 r., które zostały pobrane z portalu www.pracuj.pl, a które mogą być uznane za dodatkowy czynnik określający poziom innowacyjności polskich przedsiębiorstw. Analizie poddano 709 ofert pracy z sektora informatycznego. Do analizy zastosowano następujące metody: przetwarzanie języka naturalnego, reguły asocjacji i program R. Przeprowadzone badania pozwoliły stwierdzić, że w badanym okresie firmy zamieszczające oferty pracy związane z działami IT w 99% były nastawione na poszukiwanie pracowników wyspecjalizowanych w dobrym posługiwaniu się jednym narzędziem, techniką informatyczną, metodyką, językiem programowania i mających duże doświadczenie w tym zakresie, a jednocześnie posiadających kilka zdolności miękkich. W podsumowaniu ujęto najważniejsze wnioski i możliwe kierunki prac w tej dziedzinie.
International competitive rivalry at the company level is shifting to the domestic market. The ability to create and effectively implement innovations becomes both a determinant of the competitiveness of domestic production, and a factor supporting the country's economic security. The main goal of this article is to characterize the Polish economy in terms of innovation. Particular emphasis is placed on presenting the innovative activity of Polish enterprises in recent years, as well as the position of Poland in the EU innovation ranking. The analysis shows that an increase in expenditure on research and development, and an increase in investments in fields of innovation, do not translate into an improvement of an innovation index for Poland in relation to indicators of other EU countries. Moreover, the article highlights an impact of the IT sector on the effectiveness of innovative activity. It presents the results of a research conducted in December 2016. The data, which was a basis for the analysis, was taken from the Pracuj.pl portal. The mentioned findings can be considered as an additional factor determining the level of innovation of Polish enterprises. The analysis covers 709 job offers from the IT sector. Methods used for the analysis include: natural language processing, association rules, and the R program. The conducted research allows to claim that, in the analyzed period of time, companies posting job offers related to IT departments were focused on searching for employees who are specialized in good handling of one tool, in IT technology, methodology, programming language, and who have extensive experience in this field accompanied by several soft skills. The summary of this article includes the most important conclusions, and possible directions of further work in this field.
Źródło:
Studia Ekonomiczne; 2018, 362; 111-126
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza sentymentu – metoda analizy danych jakościowych. Przykład zastosowania oraz ewaluacja słownika RID i metody klasyfikacji Bayesa w analizie danych jakościowych
Sentiment analysis. An example of application and evaluation of RID dictionary and Bayesian classification methods in qualitative data analysis approach
Autorzy:
Tomanek, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/622902.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
analiza danych jakościowych
analiza sentymentu
analiza treści
text mining
kodowanie tekstów
przetwarzanie języka naturalnego słownik RID
naiwny klasyfikator Bayesa
CAQDAS
qualitative data analysis
sentiment analysis
content analysis
coding techniques
natural language processing
RID dictionary
naive Bayes
Opis:
Celem artykułu jest prezentacja podstawowych metod klasyfikacji jakościowych danych tekstowych. Metody te korzystają z osiągnięć wypracowanych w takich obszarach, jak przetwarzanie języka naturalnego i analiza danych nieustrukturalizowanych. Przedstawiam i porównuję dwie techniki analityczne stosowane wobec danych tekstowych. Pierwsza to analiza z zastosowaniem słownika tematycznego. Druga technika oparta jest na idei klasyfikacji Bayesa i opiera się na rozwiązaniu zwanym naiwnym klasyfikatorem Bayesa. Porównuję efektywność dwóch wspomnianych technik analitycznych w ramach analizy sentymentu. Akcentuję rozwiązania mające na celu zbudowanie trafnego, w kontekście klasyfikacji tekstów, słownika. Porównuję skuteczność tak zwanych analiz nadzorowanych do skuteczności analiz zautomatyzowanych. Wyniki, które prezentuję, wzmacniają wniosek, którego treść brzmi: słownik, który w przeszłości uzyskał dobrą ocenę jako narzędzie klasyfikacyjne, gdy stosowany jest wobec nowego materiału empirycznego, powinien przejść fazę ewaluacji. Jest to, w proponowanym przeze mnie podejściu, podstawowy proces adaptacji słownika analitycznego, traktowanego jako narzędzie klasyfikacji tekstów.
The purpose of this article is to present the basic methods for classifying text data. These methods make use of achievements earned in areas such as: natural language processing, the analysis of unstructured data. I introduce and compare two analytical techniques applied to text data. The first analysis makes use of thematic vocabulary tool (sentiment analysis). The second technique uses the idea of Bayesian classification and applies, so-called, naive Bayes algorithm. My comparison goes towards grading the efficiency of use of these two analytical techniques. I emphasize solutions that are to be used to build dictionary accurate for the task of text classification. Then, I compare supervised classification to automated unsupervised analysis’ effectiveness. These results reinforce the conclusion that a dictionary which has received good evaluation as a tool for classification should be subjected to review and modification procedures if is to be applied to new empirical material. Adaptation procedures used for analytical dictionary become, in my proposed approach, the basic step in the methodology of textual data analysis.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 118-136
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zdolność komunikowania się ludzi z logicznej i psychologicznej perspektywy
The People’s Ability to Communicate from the Logical and Psychological Perspective
Autorzy:
Łukowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/2139082.pdf
Data publikacji:
2015-09-30
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
intuition
empathy
degrees of empathy
natural language
speech act
meaning
tolerance of an expression
vagueness of an expression
generality of an expression
accent
contextuality of meaning
performative of an utterance
indirect speech act
context of an utterance
intuicja
empatia
poziomy empatii
język naturalny
akt mowy
znaczenie
tolerancyjność wyrażenia
nieostrość wyrażenia
ogólność wyrażenia
akcent
kontekstowość znaczenia
performatyw
mówienie nie wprost
kontekst wypowiedzi
Opis:
W pracy znaczenie wypowiedzi jest rozważane z dwóch punktów widzenia: logicznego i psychologicznego. Podejście logiczne uwzględnia szereg czynników wpływających na finalne znaczenie wypowiedzianych słów. Należą do nich między innymi: tolerancyjność wyrażenia, jego nieostrość, ogólność, akcent, mowa nie wprost i kontekstualność. Czynniki te są rozpoznawane intuicyjnie, zarówno przez nadawcę komunikatu, jak i odbiorcę. W przeciwnym razie nie mogłoby dojść do porozumienia. Okazuje się, że problem ten jest rozważany nie tylko w logice, ale również na gruncie psychologii. Różnym poziomom empatii odpowiada różny poziom umiejętności rozpoznawania znaczenia wypowiedzi, a więc różny poziom zdolności komunikacyjnej. Wydaje się, że logiczna (nie psychologiczna) intuicja, jak i psychologiczna empatia są zdolnościami, między którymi zachodzi bardzo daleka zbieżność. Celem pracy nie jest pokazanie, iż rozważana w tekście intuicja oraz empatia są tym samym, lecz że w różnych naukach rozważa się pokrewne kwestie, co oznacza, że wysiłki badaczy powinny być łączone. Innymi słowy, praca ta jest swoistą zachętą do podejmowania badań o charakterze interdyscyplinarnym. O ile to możliwe, działania takie winny zastąpić wysiłki podejmowane w izolacji od innych dyscyplin.
In the paper, the meaning of an utterance is considered from two perspectives: the logical and the psychological one. The logical approach takes into account a number of factors affecting the final meaning of the spoken words. These include, among others: tolerance of an utterance, its vagueness, generality, accent, indirect speech and contextuality. These factors are recognized intuitively by both the message sender and recipient. Otherwise, they could not reach an agreement. It turns out that this problem is considered not only in the logic but also in the field of psychology. Different levels of the ability to recognize the meaning of an utterance corresponds to different levels of empathy and therefore also a different level of communication ability. It seems that logical intuition and psychological empathy are highly convergent abilities. The aim of the paper is not to show that intuition and empathy are the same, but that the same issues are dealt with by various sciences, and therefore the efforts should be merged. In other words, this work is a kind of an incentive to undertake interdisciplinary research. If possible, such measures should replace efforts made in isolation from other disciplines.
Źródło:
Nauki o Wychowaniu. Studia Interdyscyplinarne; 2015, 1, 1; 88-109
2450-4491
Pojawia się w:
Nauki o Wychowaniu. Studia Interdyscyplinarne
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-96 z 96

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies