Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Text processing" wg kryterium: Temat


Tytuł:
Problemy i korzyści wynikające z automatycznego przetwarzania korpusów - na przykładzie badań z zakresu predykacji rzeczownikowej w języku polskim
Drawbacks and Advantages of the Computer Corpora Processing. Case Study of Nominal Predication in Polish
Désavantages et profits du traitement automatique des corpus à l’exemple des recherches sur la prédication nominale en polonais
Autorzy:
Vetulani, Grażyna
Powiązania:
https://bibliotekanauki.pl/articles/1892144.pdf
Data publikacji:
2013
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
corpus linguistics
text processing
nominal predication
Opis:
This paper reports on our work related to nominal predication in Polish and exploring electronic corpora with help of text processing tools. Various aspects and challenges related with the applied methodology are presented. Despite encountered problems, nowadays, it is practically impossible to imagine solutions ignoring advantages of corpus linguistics. In fact this methodology appeared very efficient. In a relatively short time we developed an application-oriented dictionary of Polish predicative nouns and now we continue to extend it within the same paradigm.
Cet article rend compte des travaux menés depuis un certain temps dans le domaine de la prédication nominale en polonais dans lesquels on exploite des corpus électroniques en utilisant des outils d'analyse automatique du texte. On y présente certaines difficultés qui ont apparu en liaison avec la méthode appliquée, mais on souligne aussi qu’aujourd'hui il est pratiquement impossible de mener des recherches linguistiques autrement et que, finalement, cette méthode s'est avérée très efficace. Dans un laps de temps assez court, elle a permis de construire un dictionnaire des noms prédicatifs du polonais destiné aux applications informatiques et elle contribue à l'heure actuelle au développement du dictionnaire existant.
Źródło:
Roczniki Humanistyczne; 2013, 61, 8; 13-24
0035-7707
Pojawia się w:
Roczniki Humanistyczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Web pages content analysis using browser-based volunteer computing
Autorzy:
Turek, W.
Nawarecki, E.
Dobrowolski, G.
Krupa, T.
Majewski, P.
Powiązania:
https://bibliotekanauki.pl/articles/305311.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
volunteer computing
text processing
web crawling
Opis:
Existing solutions to the problem of finding valuable information on the Web suffers from several limitations like simplified query languages, out-of-date in- formation or arbitrary results sorting. In this paper a different approach to this problem is described. It is based on the idea of distributed processing of Web pages content. To provide sufficient performance, the idea of browser-based volunteer computing is utilized, which requires the implementation of text processing algorithms in JavaScript. In this paper the architecture of Web pages content analysis system is presented, details concerning the implementation of the system and the text processing algorithms are described and test results are provided.
Źródło:
Computer Science; 2013, 14 (2); 215-230
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Domain specific key feature extraction using knowledge graph mining
Autorzy:
Barai, Mohit Kumar
Sanyal, Subhasis
Powiązania:
https://bibliotekanauki.pl/articles/2027771.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Feature extraction
Knowledge graph
Natural language processing
Product review
Text processing
Opis:
In the field of text mining, many novel feature extraction approaches have been propounded. The following research paper is based on a novel feature extraction algorithm. In this paper, to formulate this approach, a weighted graph mining has been used to ensure the effectiveness of the feature extraction and computational efficiency; only the most effective graphs representing the maximum number of triangles based on a predefined relational criterion have been considered. The proposed novel technique is an amalgamation of the relation between words surrounding an aspect of the product and the lexicon-based connection among those words, which creates a relational triangle. A maximum number of a triangle covering an element has been accounted as a prime feature. The proposed algorithm performs more than three times better than TF-IDF within a limited set of data in analysis based on domain-specific data.
Źródło:
Multiple Criteria Decision Making; 2020, 15; 1-22
2084-1531
Pojawia się w:
Multiple Criteria Decision Making
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Multi-Layer Transcription Model – concept outline
Autorzy:
Śledziński, Daniel
Powiązania:
https://bibliotekanauki.pl/articles/2183702.pdf
Data publikacji:
2022-12-31
Wydawca:
Poznańskie Towarzystwo Przyjaciół Nauk
Tematy:
G2P
grapheme-to-phoneme conversion
Polish language
text processing
Opis:
This paper discusses the assumptions of a Multi-Layer Transcription Model (hereinafter: MLTM). The solution presented is an advanced grapheme-to-phoneme (G2P) conversion method that can be implemented in technical applications, such as automatic speech recognition and synthesis systems. The features of MLTM also facilitate the application of text-to-transcription conversion in linguistic research. The model presented here is the basis for multi-step processing of the orthographic representation of words with those being transcribed gradually. The consecutive stages of the procedure include, among other things, identification of multi-character phonemes, voicing status change, and consonant clusters simplification. The multi-layer model described in this paper makes it possible to assign individual phonetic processes (for example assimilation), as well as other types of transformation, to particular layers. As a result, the set of rules becomes more transparent. Moreover, the rules related to any process can be modified independently of the rules connected with other forms of transformation, provided that the latter have been assigned to a different layer. These properties of the multi-layer transcription model in question provide crucial advantages for the solutions based on it, such as their flexibility and transparency. There are no assumptions in the model about the applicable number of layers, their functions, or the number of rules defined in each layer. A special mechanism used for the implementation of the MLTM concept enables projection of individual characters onto either a phonemic or a phonetic transcript (obtained after processing in the final layer of the MLTM-based system has been completed). The solution presented in this text has been implemented for the Polish language, however, it is not impossible to use the same model for other languages.
Źródło:
Lingua Posnanensis; 2022, 64, 1; 49-71
0079-4740
2083-6090
Pojawia się w:
Lingua Posnanensis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Medical text data anonymization
Autorzy:
Marciniak, M.
Mykowiecka, A.
Rychlik, P.
Powiązania:
https://bibliotekanauki.pl/articles/333126.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
dane tekstowe kliniczne
naturalne przetwarzanie tekstu
clinical text data
data de-identification
natural text processing
Opis:
The paper discusses a program for removing patient identification information from hospital discharge documents in order to make them available for scientific research e.g. information extraction system designing. The presented method allows de–anonymization of documents using a key–code file that is created on the basis of a patient‘s surname, forename and date of birth. Problems of normalization of crucial data used in the key–code file creation are presented.
Źródło:
Journal of Medical Informatics & Technologies; 2010, 16; 83-88
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategia przetwarzania dokumentów tekstowych oparta na heurystycznej analizie danych
Text document processing strategy based on heuristic data analysis
Autorzy:
Leja, M.
Jóźwiak, I. J.
Powiązania:
https://bibliotekanauki.pl/articles/326056.pdf
Data publikacji:
2015
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
przetwarzanie dokumentów tekstowych
analiza tekstu
text document processing
text analysis
Opis:
W artykule przedstawiono problem związany z przetwarzaniem dokumentów tekstowych przez człowieka. Zaproponowano heurystyczne podejście, inspirowane sposobem, w jaki ludzki mózg przetwarza dokumenty tekstowe, które może zostać wykorzystane do usprawnienia tego procesu. Przedstawiony algorytm rozpoznaje frazy na podstawie zdefiniowanego zbioru znanych fraz oraz cech indywidualnych danej frazy. Efektem działania algorytmu jest zbiór rozpoznanych fraz oraz odpowiadająca im pozycja w tekście.
The paper presents the problem of processing text documents. It proposes a heuristic approach, inspired by the way the human brain processes text documents, which can be used to facilitate this process. The algorithm recognizes phrases based on a defined set of known phrases and individual characteristics of the phrase. The result of the algorithm is a set of identified phrases, and the corresponding position in the text.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2015, 86; 499-505
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strategic reading: Towards a better understanding of its role in L2/FL learning and teaching contexts
Autorzy:
Chodkiewicz, Halina
Powiązania:
https://bibliotekanauki.pl/articles/606119.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
L2 reading, strategic text processing, reading strategy, reading to learn, metacognitive awareness
Opis:
Der Band enthält die Abstracts ausschließlich in englischer Sprache.
Evolving approaches to the conceptualization of reading have created conducive grounds for rethinking the role of strategic reading in second/foreign language contexts. However, despite a wide recognition of the effectiveness of strategic reading, such critical issues as strategy identification, modelling reading strategy taxonomies, and their implications for establishing principles for actual classroom practice are still being  debated on. This article intends to look more closely at current insights into the strategy dimension of the reading process, which, according to the current author, play an enlightening role in defining the utility of reading strategies in helping second/foreign language learners reach their goals in reading and through reading. Hence, the article mainly focuses on promoting text comprehension, language and reading skills improvement, and content learning from text. The author articulates the need for a better understanding of how the potential effects of strategic text processing can be addressed in L2 reading practice.
L'article contient uniquement les résumés en anglais.
Źródło:
Lublin Studies in Modern Languages and Literature; 2019, 43, 3
0137-4699
Pojawia się w:
Lublin Studies in Modern Languages and Literature
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying a q-Gram based multiple string matching algorithm for approximate matching
Zastosowanie algorytmu wyszukiwania wielu wzorców opartego o technikę q-Gramów do wyszukiwania przybliżonego
Autorzy:
Susik, R.
Powiązania:
https://bibliotekanauki.pl/articles/952718.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
text processing
approximate string matching
string algorithms
q-gram
przetwarzanie tekstu
wyszukiwanie przybliżone
algorytmy tekstowe
Opis:
We consider the application of multiple pattern matching (Multi AOSO on q-Grams) algorithm for approximate pattern matching. We propose the on-line approach which translates the problem from approximate pattern matching into a multiple pattern one (called partitioning into exact search). Presented solution allows relatively fast search multiple patterns in text with given k-differences(or mismatches). This paper presents comparison of solution based on MAG algorithm, and [4]. Experiments on DNA, English, Proteins and XML texts with up to k errors show that the new proposed algorithm achieves relatively good results in practical use.
Rozważamy zastosowanie algorytmu wyszukiwania wielu wzorców (Multi AOSO on q-Grams) do wyszukiwania przybliżonego. Proponujemy rozwiązanie on-line, upraszczające problem wyszukiwania przybliżonego do wyszukiwania wielu wzorców. Zaprezentowane rozwiązanie umożliwia relatywnie szybko wyszukiwać wiele wzorców dla odległości Levenshteina (lub Hamminga) z ograniczeniem do k. W artykule porównane jest rozwiązanie oparte na algorytmie MAG oraz [4]. Badania eksperymentalne przeprowadzone na zbiorach DNA, English, Proteins and XML z różnymi wartościami k wykazały, że zaproponowany algorytm osiąga relatywnie dobre wyniki w praktycznym zastosowaniu.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 3; 47-50
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cloud-based sentiment analysis for measuring customer satisfaction in the Moroccan banking sector using Naïve Bayes and Stanford NLP
Autorzy:
Riadsolh, Anouar
Lasri, Imane
ElBelkacemi, Mourad
Powiązania:
https://bibliotekanauki.pl/articles/2141901.pdf
Data publikacji:
2020
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Big Data processing
Apache Spark
Apache Kafka
real-time text processing
sentiment analysis
Stanford core NLP
Naïve Bayes classifier
Opis:
In a world where every day we produce 2.5 quintillion bytes of data, sentiment analysis has been a key for making sense of that data. However, to process huge text data in real-time requires building a data processing pipeline in order to minimize the latency to process data streams. In this paper, we explain and evaluate our proposed real-time customer’ sentiment analysis pipeline on the Moroccan banking sector through data from the web and social network using open-source big data tools such as data ingestion using Apache Kafka, In-memory data processing using Apache Spark, Apache HBase for storing tweets and the satisfaction indicator, and ElasticSearch and Kibana for visualization then NodeJS for building a web application. The performance evaluation of Naïve Bayesian model show that for French Tweets the accuracy has reached 76.19% while for English Tweets the result was unsatisfactory and the resulting accuracy is 56%. To remedy this problem, we used the Stanford core NLP which, for English Tweets, reaches a precision of 80.7%.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2020, 14, 4; 64-71
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozpoznawanie emocji w tekstach polskojęzycznych z wykorzystaniem metody słów kluczowych
Emotion recognition in polish texts based on keywords detection method
Autorzy:
Nowaczyk, A.
Jackowska-Strumiłło, L.
Powiązania:
https://bibliotekanauki.pl/articles/408760.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
rozpoznawanie emocji
interakcja człowiek-komputer
przetwarzanie języka naturalnego
przetwarzanie tekstów
emotion recognition
human-computer interaction
natural language processing
text processing
Opis:
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 2; 102-105
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Techniki rozwijające wyższe poziomy przetwarzania tekstu w kształceniu sprawności czytania wśród dorosłych
Autorzy:
Marzec-Stawiarska, Małgorzata
Powiązania:
https://bibliotekanauki.pl/articles/1037651.pdf
Data publikacji:
2019-09-24
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu. Collegium Novum. Polskie Towarzystwo Neofilologiczne
Tematy:
Developing reading skills
foreign language
levels of text processing
techniques for developing text comprehension
adults
rozwijanie sprawności czytania
język obcy
poziomy przetwarzania tekstu
techniki rozwijające rozumienie tekstu
dorośli
Opis:
The article is devoted to reading skills development among adult students of English. It presents parameters of the techniques which, according to the contemporary theories of reading processes, should teach text comprehension efficiently. The article also shows how to incorporate these techniques into a classroom setting and presents the results of the research in which students, who used these techniques in practice, expressed their opinions about their motivational value and efficiency.
Źródło:
Neofilolog; 2011, 37; 27-38
1429-2173
Pojawia się w:
Neofilolog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego oparta o formalną analizę pojęć
The Method of Designing the Knowledge Database and Rules for a Text Segmentation Tool Based on Formal Concept Analysis
Autorzy:
Mirończuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/373053.pdf
Data publikacji:
2014
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
formalna analiza pojęć
segmentator tekstu
segmentator regułowy
projektowanie bazy wiedzy
metoda projektowania bazy wiedzy
FCA
wydzielanie segmentów
dzielenie tekstu na segmenty
formal concept analysis
project of knowledge database
segment extraction
text processing
Opis:
Cel: Zaprezentowanie rozwiązania problemu segmentacji tekstu dziedzinowego. Badany tekst pochodził z raportów (formularza „Informacji ze zdarzenia”, pola „Dane opisowe do informacji ze zdarzenia”) sporządzanych po akcjach ratowniczo-gaśniczych przez jednostki Państwowej Straży Pożarnej. Metody: W celu realizacji zadania autor zaproponował metodę projektowania bazy wiedzy oraz reguł segmentatora regułowego. Zaproponowana w artykule metoda opiera się na formalnej analizie pojęć. Zaprojektowana według proponowanej metody baza wiedzy oraz reguł umożliwiła przeprowadzenie procesu segmentacji dostępnej dokumentacji. Poprawność i skuteczność proponowanej metody zweryfikowano poprzez porównanie jej wyników z dwoma innymi rozwiązaniami wykorzystywanymi do segmentacji tekstu. Wyniki: W ramach badań i analiz opisano oraz pogrupowano reguły i skróty występujące w badanych raportach. Dzięki zastosowaniu formalnej analizy pojęć utworzono hierarchię wykrytych reguł oraz skrótów. Wydobyta hierarchia stanowiła zarazem bazę wiedzy oraz reguł segmentatora regułowego. Przeprowadzone eksperymenty numeryczne i porównawcze autorskiego rozwiązania z dwoma innymi rozwiązaniami wykazały znacznie lepsze działanie tego pierwszego. Przykładowo otrzymane wyniki F-miary otrzymane w wyniku zastosowania proponowanej metody wynoszą 95,5% i są lepsze o 7-8% od pozostałych dwóch rozwiązań. Wnioski: Zaproponowana metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego umożliwia projektowanie i implementację oprogramowania do segmentacji tekstu z małym błędem podziału tekstu na segmenty. Podstawowa reguła dotycząca wykrywania końca zdania poprzez interpretację kropki i dodatkowych znaków jako końca segmentu w rzeczywistości, zwłaszcza dla tekstów specjalistycznych, musi być opakowana dodatkowymi regułami. Działania te znacznie podnoszą jakość segmentacji i zmniejszają jej błąd. Do budowy i reprezentacji takich reguł nadaje się przedstawiona w artykule formalna analiza pojęć. Wiedza inżyniera oraz dodatkowe eksperymenty mogą wzbogacać utworzoną sieć o nowe reguły. Nowo wprowadzana wiedza może zostać w łatwy sposób naniesiona na aktualnie utworzoną sieć semantyczną, tym samym przyczyniając się do polepszenia segmentacji tekstu. Ponadto w ramach eksperymentu numerycznego wytworzono unikalny: zbiór reguł oraz skrótów stosowanych w raportach, jak również zbiór prawidłowo wydzielonych i oznakowanych segmentów.
Objective: Presentation of a specialist text segmentation technique. The text was derived from reports (a form “Information about the event”, field “Information about the event - descriptive data”) prepared by rescue units of the State Fire Service after firefighting and rescue operations. Methods: In order to perform the task the author has proposed a method of designing the knowledge base and rules for a text segmentation tool. The proposed method is based on formal concept analysis (FCA). The knowledge base and rules designed by the proposed method allow performing the segmentation process of the available documentation. The correctness and effectiveness of the proposed method was verified by comparing its results with the other two solutions used for text segmentation. Results: During the research and analysis rules and abbreviations that were present in the studied specialist texts were grouped and described. Thanks to the formal concepts analysis a hierarchy of detected rules and abbreviations was created. The extracted hierarchy constituted both a knowledge and rules base of tools for segmentation of the text. Numerical and comparative experiments on the author's solution with two other methods showed significantly better performance of the former. For example, the F-measure results obtained from the proposed method are 95.5% and are 7-8% better than the other two solutions. Conclusions: The proposed method of design knowledge and rules base text segmentation tool enables the design and implementation of software with a small error divide the text into segments. The basic rule to detect the end of a sentence by the interpretation of the dots and additional characters as the end of the segment, in fact, especially in case of specialist texts, must be packaged with additional rules. These actions will significantly improve the quality of segmentation and reduce the error. For the construction and representation of such rules is suitable presented in the article, the formal concepts analysis. Knowledge engineering and additional experiments can enrich the created hierarchy by the new rules. The newly inserted knowledge can be easily applied to the currently established hierarchy thereby contributing to improving the segmentation of the text. Moreover, within the numerical experiment is made unique: a set of rules and abbreviations used in reports and set properly separated and labeled segments.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2014, 2; 93-103
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Autor i dzieło w kulturze cyfrowej (na przykładzie twórczości Nicka Montforta
Autorzy:
Pisarski, Mariusz
Powiązania:
https://bibliotekanauki.pl/articles/636811.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
Nick Montfort, digital humanities, author-programmer, text-machines, expressive processing, creative computing, poetry generators, remix, demoscene, Oulipo, constraints, tactical media, copyleft, free software, text-minig
Opis:
Cultural and methodological framework set by digital humanities implies a substantial shift in authorial paradigms. A sole humanist thinker is replaced by a humanist-programmer, always ready for collaboration with others and whose research is focused not on close-reading and interpretation, but on computational and generative distance-reading. One of the ways to familiarise with the changed paradigm is to look for similar, authorial figures in art, specifically in digital literature. The humanist-programmer, someone with higher than usual set of competencies which spanned across computing and literature, has been directly and indirectly present in the work of Nick Montfort – one of the most prolific artists in the field of electronic literature. By looking at the occurrences of the writer-programmer figure in Montfort’s literary happenings and text-machines and by examining the enhanced model of literary communication, the article aims at encouraging new ways of looking at (digitally) infused literature and culture, establishing Nick Montfort as one of their pioneers and proponents. Part of the article, while discussing a poetry generator Sea and Spar Between, concentrates on several categories related to the figure of humanist-programmer: critical code studies, distributive authorship, culture of collaboration, remix culture.
Źródło:
Przegląd Kulturoznawczy; 2014, 2(20)
1895-975X
2084-3860
Pojawia się w:
Przegląd Kulturoznawczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of data pre-processing methods for sentiment analysis of reviews
Autorzy:
Parlar, Tuba
Ozel, Selma
Song, Fei
Powiązania:
https://bibliotekanauki.pl/articles/305513.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
data pre-processing
feature selection
sentiment analysis
text classification
Opis:
The goals of this study are to analyze the effects of data pre-processing methods for sentiment analysis and determine which of these pre-processing methods (and their combinations) are effective for English as well as for an agglutinative language like Turkish. We also try to answer the research question of whether there are any differences between agglutinative and non-agglutinative languages in terms of pre-processing methods for sentiment analysis. We find that the performance results for the English reviews are generally higher than those for the Turkish reviews due to the differences between the two languages in terms of vocabularies, writing styles, and agglutinative property of the Turkish language.
Źródło:
Computer Science; 2019, 20 (1); 123-141
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies