Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Text data" wg kryterium: Temat


Tytuł:
Crowdsourcing in rescue fire service - proposed application
Autorzy:
Mirończuk, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/41204253.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
crowdsourcing
design of information system
information system
text data mining
exploratory analysis of text data
text analyzing
Opis:
This article describes the author's proposal to apply crowdsourcing in Polish rescue fire service. This article also describes basic principles for implementing an crowdsourcing information platform in rescue fire service as well as the scheme of its implementation. The Author of this paper also describes the genesis of this proposal related to the evaluation of research conducted by the author on text mining analysis and extraction of information in the design of information systems.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2011, 5; 15-20
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie algorytmów Text Mininig do analizy danych tekstowych w psychologii
Usage of text mining algorithms to analyze textual data in psychology
Autorzy:
Szymańska, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/475485.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Instytut Języka Polskiego PAN
Tematy:
algorytmy
dane tekstowe
text mining
algorithms
text data
Opis:
W psychologii analizy danych zapisanych w postaci tekstów stanowią ważny element prac badawczych. Niemniej nadal poszukuje się narzędzi, metod, które mogą umożliwić szybką analizę danych zarejestrowanych w postaci tekstów, gdyż analizy te są najczęściej bardzo czasochłonne. W prezentowanym artykule przybliżono metodę text mining, która ma szczególne zastosowanie w analizie informacji zapisanych w postaci danych tekstowych. Wykorzystanie metody text mining jest omawiane na przykładzie analizy obieranych przez rodziców celów wychowawczych.. W artykule przedstawiono sposób, w jaki algorytmy text mining: a) dokonują analizy tekstu przez zliczenie słów i nadanie im wag, b) przeprowadzają analizę relacji między słowami za pomocą składowych głównych (Principal Component Analysis), c) przekształcają dane słownew liczbowe, przygotowując zbiór danych do kolejnych obliczeń.
In the psychology the analysis of data written in the form of texts are an important element of research work. Nevertheless, tools are still sought, methods that can enable rapid analysis of data recorded in the form of texts, because these analyzes are usually very time consuming. This article approximates the text mining method, which is particularly applicable in the analysis of information recorded in the form of text data. Analysing textual data using text mining algorithms is shown on the example of parents’ choice of educational goals. The paper presents the way in which text mining algorithms: a) perform text analysis by counting words and weighting them, b) analyze relationships between words by means of Principal Component Analysis, c) convert verbal data into numerals by preparing a set data for subsequent calculations.
Źródło:
Socjolingwistyka; 2017, 31; 99-116
0208-6808
Pojawia się w:
Socjolingwistyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Medical text data anonymization
Autorzy:
Marciniak, M.
Mykowiecka, A.
Rychlik, P.
Powiązania:
https://bibliotekanauki.pl/articles/333126.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
dane tekstowe kliniczne
naturalne przetwarzanie tekstu
clinical text data
data de-identification
natural text processing
Opis:
The paper discusses a program for removing patient identification information from hospital discharge documents in order to make them available for scientific research e.g. information extraction system designing. The presented method allows de–anonymization of documents using a key–code file that is created on the basis of a patient‘s surname, forename and date of birth. Problems of normalization of crucial data used in the key–code file creation are presented.
Źródło:
Journal of Medical Informatics & Technologies; 2010, 16; 83-88
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Visualisation of nominal data – practical and theoretical remarks
Wizualizacja danych mierzonych na skali nominalnej – uwagi praktyczne i teoretyczne
Autorzy:
Mącik, Radosław
Powiązania:
https://bibliotekanauki.pl/articles/424833.pdf
Data publikacji:
2016
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
Text data
nominal data
visualisation
word cloud
word tree
chord graph
correspondence analysis
Opis:
Nominal data, due to their nature, are often analysed statistically in a quite limited and traditional way. Usually they come from open-ended or simple/multiple choice questions. In typical research projects, such data are often presented in the form of more or less complex tables (including contingency tables) and standard charts. The author’s experience shows that such a visualisation is perceived as boring, especially by younger people, accustomed to the presentation of content in the form of infographics. The article presents examples of data analysis and a visualisation of the nominal data based on the results of the author’s research, including theoretical reflections on the techniques and tools used. The starting point is the raw text data from the responses to the open-ended questions subjected to analyses of the frequency of words and expressions, including its visualisation through word clouds. The next step is categorization and tabulation at the level of individual variables including the visualisation of categories, to assess the contingency between two nominal variables (or the nominal and the ordinal one), including visualising the relationships via chord diagrams and the correspondence analysis.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2016, 2 (52); 22-34
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A comparative study for outlier detection methods in high dimensional text data
Autorzy:
Park, Cheong Hee
Powiązania:
https://bibliotekanauki.pl/articles/2201316.pdf
Data publikacji:
2023
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
curse of dimensionality
dimension reduction
high dimensional text data
outlier detection
Opis:
Outlier detection aims to find a data sample that is significantly different from other data samples. Various outlier detection methods have been proposed and have been shown to be able to detect anomalies in many practical problems. However, in high dimensional data, conventional outlier detection methods often behave unexpectedly due to a phenomenon called the curse of dimensionality. In this paper, we compare and analyze outlier detection performance in various experimental settings, focusing on text data with dimensions typically in the tens of thousands. Experimental setups were simulated to compare the performance of outlier detection methods in unsupervised versus semisupervised mode and uni-modal versus multi-modal data distributions. The performance of outlier detection methods based on dimension reduction is compared, and a discussion on using k-NN distance in high dimensional data is also provided. Analysis through experimental comparison in various environments can provide insights into the application of outlier detection methods in high dimensional data.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2023, 13, 1; 5--17
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Geodesic distances for clustering linked text data
Autorzy:
Tekir, S.
Mansmann, F.
Keimer, D.
Powiązania:
https://bibliotekanauki.pl/articles/91737.pdf
Data publikacji:
2012
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
clustering
geodesic distance
text data
k-means algorithm
cosine distance
k-harmonic means
microprecision values
Opis:
The quality of a clustering not only depends on the chosen algorithm and its parameters, but also on the definition of the similarity of two respective objects in a dataset. Applications such as clustering of web documents is traditionally built either on textual similarity measures or on link information. Due to the incompatibility of these two information spaces, combining these two information sources in one distance measure is a challenging issue. In this paper, we thus propose a geodesic distance function that combines traditional similarity measures with link information. In particular, we test the effectiveness of geodesic distances as similarity measures under the space assumption of spherical geometry in a 0-sphere. Our proposed distance measure is thus a combination of the cosine distance of the term-document matrix and some curvature values in the geodesic distance formula. To estimate these curvature values, we calculate clustering coefficient values for every document from the link graph of the data set and increase their distinctiveness by means of a heuristic as these clustering coefficient values are rough estimates of the curvatures. To evaluate our work, we perform clustering tests with the k-means algorithm on a subset of the EnglishWikipedia hyperlinked data set with both traditional cosine distance and our proposed geodesic distance. Additionally, taking inspiration from the unified view of the performance functions of k-means and k-harmonic means, min and harmonic average of the cosine and geodesic distances are taken in order to construct alternate distance forms. The effectiveness of our approach is measured by computing microprecision values of the clusters based on the provided categorical information of each article.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2012, 2, 3; 247-258
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Реалізація міжпредметних зв’язків для застосування комп’ютерних методів контент-аналізу
Implementation Interdisciplinary Relations for Application of Computer Methods Content Analysis
Autorzy:
Руденко, Юлія
Демиденко, Оксана
Powiązania:
https://bibliotekanauki.pl/articles/16647660.pdf
Data publikacji:
2022-12-31
Wydawca:
Wydawnictwo Adam Marszałek
Tematy:
соціологія
Контент-аналіз
інформатика
аналіз текстових даних
студенти коледжів
сontent analysis
sociology
computer science
text data analysis
students
Opis:
The article substantiates the importance of interdisciplinary connections between informatics and sociology, the expediency of studying computer methods of content analysis by college students. An analysis of theoretical sources has been implemented to understand the essence of the concepts of content analysis, computer methods of content analysis. Content analysis is considered as a method that allows you to study the objects, phenomena, processes and properties of social reality presented in text data. Content analysis includes processing, evaluation, and interpretation of the form, content of texts and sources of textual information. It is proved that computer software allows to automate and speed up this process, to avoid the subjectivity of the researcher’s judgments, and to increase the amount of information being processed. The article emphasizes the importance of mastering content analysis by students, since these skills will contribute to their ability to assess the properties of information flows, understanding the nature of information confrontation, the formation of critical, algorithmic thinking and information technology competence. The article describes a pedagogical experiment on the integration of sociology and computer science for college students. The purpose of the experiment is the development of computer methods of content analysis for sociological research. The experiment provides for the coordination of thematic plans of disciplines and the development of laboratory work in informatics for the experimental group. The topics of laboratory work on the use of individual computer methods for content analysis are outlined. The use of the MS WORD text editor for manual coding of text data and partial implementation of content analysis is provided; MS Excel spreadsheets for creating a content analysis matrix, calculating the frequency of various words in texts and further interpreting the content; a special automated package for content analysis QDA MINER (free LITE version). The features of the use of each of the programs, their resource potential and complexity are determined. Criteria for evaluating control sections (analytical reports) created by students at the beginning and at the end of the experiment have been developed. Criteria: manifestation of system effective knowledge; availability of reasonable conclusions; the presence of an attempt to adequately predict social phenomena; visualization of the results of content analysis. The results were measured and compared in dynamics, and the effectiveness of the implemented methods was analyzed. The effectiveness of the experiment was proved, which is confirmed by an increase in the average score in the experimental group compared to the control group. The article presents a statistically valid conclusion about the effectiveness of the proposed methods in the experimental group at a significance level of 0.05. Mathematical testing of statistical hypotheses about the reliability of the results was carried out using Student’s t-test for two independent samples.
У статті обґрунтовано важливість міждисциплінарних зв’язків інформатики та соціології, доцільність вивчення студентами коледжів комп’ютерних методів контент-аналізу. Здійснено аналіз теоретичних джерел для розуміння сутності понять контент-аналізу, комп’ютерних методів контент-аналізу. Контент-аналіз розглядається як метод, що дозволяє вивчати об’єкти, явища, процеси та властивості соціальної дійсності, представлені в текстових даних. Це обробка, оцінка та інтерпретація форми та змісту текстів та джерел інформації. Доведено, що комп’ютерна підтримка дозволяє автоматизувати та прискорити цей процес, уникнути суб’єктивності суджень дослідника, збільшити обсяг обробленої інформації. У статті підкреслюється важливість оволодіння студентами контент-аналізом, оскільки це сприятиме їх вмінню оцінювати властивості інформаційних потоків, розумінню природи інформаційного протистояння, формуванню критичного, алгоритмічного мислення та інформаційно-технологічній компетентності. У статті описано педагогічний експеримент з інтеграції соціології та інформатики для студентів коледжів, мета якого опанувати комп’ютерні методи контент-аналізу для соціологічних досліджень. В експерименті передбачено узгодження тематичних планів дисциплін та розробка лабораторних робіт з інформатики для експериментальної групи. Окреслено тематику лабораторних робіт відповідно до використання окремих комп’ютерних методів контент-аналізу. Передбачено використання текстового редактора MS WORD для ручного кодування текстових даних і часткової реалізації контент-аналізу; електронних таблиць MS Excel для створення матриці аналізу контенту, підрахунку частоти різних слів у текстах та подальшої інтерпретації змісту; спеціального автоматизованого пакету для аналізу контенту QDA MINER (безкоштовна версія LITE). Визначено особливості використання кожної з програм, їх ресурсний потенціал та складність. Розроблені критерії оцінювання контрольних робіт (аналітичних звітів), які створюють студенти на початку і наприкінці експерименту. Це такі критерії: прояв системних дієвих знань; наявність обґрунтованих висновків; наявність спроби адекватного прогнозування соціальних явищ; візуалізація результатів контент-аналізу. Здійснено вимірювання і порівняння результатів у динаміці та проаналізована ефективність впроваджених методів. Доведена ефективність експерименту, що підтверджується зростанням середніх балів в експериментальній групі порівняно з контрольною групою. У статті наведено статистично обґрунтований висновок про ефективність запропонованих методів у експериментальній групі на рівні значущості 0,05. Математична перевірка статистичних гіпотез щодо достовірності результатів реалізовано за допомогою t-критерію Стьюдента для двох незалежних вибірок.
Źródło:
Viae Educationis; 2022, 4; 65-73
2956-2856
Pojawia się w:
Viae Educationis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dozwolony użytek w zakresie eksploracji tekstów i danych w świetle Dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790
Autorzy:
Bagieńska-Masiota, Aleksandra
Powiązania:
https://bibliotekanauki.pl/articles/2056883.pdf
Data publikacji:
2022-06-09
Wydawca:
Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie
Tematy:
dozwolony użytek
eksploracja tekstów i danych
Text and Data Mining
Dyrektywa DSM
fair use
DSM Directive
Opis:
W artykule przeprowadzono analizę prawodawstwa europejskiego w zakresie eksploracji tekstów i danych na podstawie Dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 w sprawie praw autorskich i pokrewnych na jednolitym rynku cyfrowym (Dyrektywa DSM). Przedmiotowa Dyrektywa wprowadziła dwa obligatoryjne wyjątki od istniejących na gruncie prawa europejskiego praw wyłącznych, na potrzeby eksploracji tekstów i danych (art. 3 i 4). Ponadto artykuł odpowiada na pytanie, czy i w jakim stopniu przepisy polskiego prawa autorskiego wymagają zmian dostosowawczych do porządku europejskiego w przedmiotowym zakresie.
The paper analyzes European legislation on text and data mining, based on Directive 2019/790 of the European Parliament and of the Council on Copyright and related rights in the Digital Single Market (DSM Directive). The Directive has introduced two mandatory exceptions to existing exclusive rights under European law for the purpose of text and data mining (Articles 3 and 4). Moreover, the article answers the question whether and to what extent the provisions of Polish copyright law require adjustment to the European order in this respect.
Źródło:
Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura; 2022, 14, 1; 118-128
2083-7275
Pojawia się w:
Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Trenowanie wybranych modeli sztucznej inteligencji a uprawnienia twórców
Authors’ Rights in the Context of Selected Models for AI Training
Autorzy:
Bałos, Iga
Powiązania:
https://bibliotekanauki.pl/articles/476749.pdf
Data publikacji:
2019
Wydawca:
Krakowska Akademia im. Andrzeja Frycza Modrzewskiego
Tematy:
AI generated works
copyright; AI
text and data mining
eksploracja tekstów i danych
prawo autorskie
SI
sztuczna twórczość
Opis:
Artificial Intelligence (AI) is no longer about automatization of routine or repetitive tasks. Its application extends far beyond plain computational power and efficiency. “AI-generated works” is one of the most popular research areas in this filed. It raises the question about intelligent systems singularity and their true capability to perform human-like tasks. This article examines selected models for AI training which generate works mimicking the unique style of given artists provided their works serve as input data. Certain authors, perhaps especially writers, are reluctant to accept such forms of the exploitation of their works. Even though classification of AI-generated works is a challenge, significant legal issues arise at the earlier stage. Does text and data mining (TDM) infringe the copyright monopoly? Is using a collection of works of a single author as training data affects the lawfulness of a process? Are authors entitled, on the basis of their economic or moral rights, to oppose such practices?
Sztuczna inteligencja (SI) przestała być wykorzystywana jedynie w celu automatyzacji powtarzalnych czynności lub przeprowadzania zadań wymagających skrupulatności obliczeniowej. Szczególną ciekawość budzi funkcjonowanie SI prowadzące do uzyskania efektów, które dotąd były osiągalne jedynie dla człowieka. Wśród nich można wyróżnić m.in. wytwory posiadające cechy utworu. Artykuł odnosi się do szczególnego rodzaju trenowania SI, odbywającego się wyłącznie na podstawie utworów jednego twórcy, ze szczególnym uwzględnieniem procesów prowadzących do powstania wytworu „w stylu” danego twórcy. Niektórzy autorzy, zwłaszcza pisarze, nieprzychylnie odnoszą się do tego typu praktyk. Wątpliwości natury prawnej powstają już na etapie trenowania modelu SI. Czy eksploracja tekstów i danych (TDM) stanowi wkroczenie w monopol prawno-autorski? Czy trenowanie SI twórczością wyłącznie jednego twórcy wpływa na legalność procesu? Czy powołując się na autorskie prawa majątkowe lub osobiste, można zakazać wykorzystywania swojej twórczości do trenowania SI?
Źródło:
Studia Prawnicze: rozprawy i materiały; 2019, 2 (25); 15-28
1689-8052
2451-0807
Pojawia się w:
Studia Prawnicze: rozprawy i materiały
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Polskie ekwiwalenty greckiego leksemu γάμος w Nowym Testamencie Biblii Leopolity (1561) – swadziebny, gody, wesele – a problem stratyfikacji chronologicznej leksyki tego przekładu
Polish equivalents for the Greek lexeme γάμος in the New Testament of the Leopolita’s Bible (1561) – swadziebny, gody, wesele – and the problem of its lexis chronological stratification
Autorzy:
Lisowski, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2171630.pdf
Data publikacji:
2021-12-29
Wydawca:
Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie
Tematy:
chronolexicology
chronological text lexis layers
the Leopolita’s Bible (1561)
Renaisance Polish renderings of the New Testament
lexical equivalence
empirical system data
empirical text data
chronoleksykologia
chronologiczne warstwy leksyki tekstu
Biblia Leopolity
polskie renesansowe przekłady nowotestamentowe
ekwiwalencja leksykalna
empiryczne dane systemowe
empiryczne dane tekstowe
Opis:
There are same chronological diversified lexis layers In the Bible edited by Jan Leopolita and published in Cracow in 1561. The analysis of Polish equivalents for the Greek lexeme γάμος (or its Latin equivalents in the Vulgate – nuptiae, nuptialis) ‘a marriage, wedding, weddingceremony; plur: a wedding-feast’, i. e. swadziebny, gody, wesele, referring to empirical system and text data, acquired from lexica of the historic Polish and from texts of other Renaissance Polish renderings of the New Testament, proved chronological diversity of the equivalents. The lexeme swadziebny belongs to an older lexis layer, probably representing the lexicon of the former translation, perhaps medieval. The lexeme wesele represents a new lexis layer which may have been introduced into the text by Jan Leopolita, as the effect of his editorial efforts. Chronological status of the lexeme wesele in the analyzed Biblical rendering lexicon is ambiguous. It should be considered as an evidence of an traditional lexis layer. It may have been introduced into the text as a substitute of the lexeme swadziebny.
Źródło:
Annales Universitatis Paedagogicae Cracoviensis. Studia Linguistica; 2021, 16; 105-116
2083-1765
Pojawia się w:
Annales Universitatis Paedagogicae Cracoviensis. Studia Linguistica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mass Violence Detection Using Data Mining Techniques
Autorzy:
Varma, Rishabh
Ahmad, Sartaj
Powiązania:
https://bibliotekanauki.pl/articles/1159845.pdf
Data publikacji:
2018
Wydawca:
Przedsiębiorstwo Wydawnictw Naukowych Darwin / Scientific Publishing House DARWIN
Tematy:
Data mining
Predictive model
Text mining
Tweet analysis
Opis:
The world is now witnessing a tectonic shift in the way in which people react to social and economic impacts such as rise in fossil fuel prices, implication of new rules and regulations, and other situations which directly affect the emotions of a certain group of people. Violence is the most widely used way of expressing anger and discontent for a particular situation which might have occurred. Such actions can cause loss of millions of dollars and precious lives of people who come in way of such protests. These protests are mainly conducted through social media platforms such as twitter as it is not possible to personally communicate to tens of thousand people to accumulate at a certain place, therefore it is extremely important as well as necessary to keep an eye on the social media statuses and updates of people in the times of crisis and heavy tension. This paper aims to collect the tweets of people uploaded on twitter and then process them to find out the location, time and intensity of the mass violence so that the responsible authorities can handle the situation and prevent violence.
Źródło:
World Scientific News; 2018, 113; 218-225
2392-2192
Pojawia się w:
World Scientific News
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wpisów na portalu Twitter z wykorzystaniem narzędzi big data zawartych w pakiecie R
Social media analysis with big data tools
Autorzy:
Kisiołek, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/591261.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Analiza danych
Big data
Internet
Social media
Text mining
Opis:
Wraz z rozwojem internetu, mediów społecznościowych oraz technologii mobilnych znacznie wzrosła ilość generowanych danych. Dane te, zarówno w formie ustrukturalizowanej, jak i nieustrukturalizowanej, mogą nieść wartość biznesową dla przedsiębiorców. W danych big data można znaleźć m.in. informacje na temat klientów, konkurencji, rynku pracy, opinii na temat produktów danej firmy, czy aktualnych trendów. Dzięki dokładnej analizie internetu i mediów społecznościowych, interesariusze mogą pozyskać nową wartość, jaką są informacje na temat nastawienia i opinii konsumentów. Celem artykułu jest przedstawienie narzędzi big data jako jednego ze sposobów analizy mediów społecznościowych i wyciągania w ten sposób wartościowych informacji. Przedmiotem przeprowadzonej analizy były tysiące tweetów użytkowników portalu Twitter. Analiza została przeprowadzona przy wykorzystaniu technik text mining oraz sentyment analysis.
Development of Internet, social media and databases has caused a huge increase of data. Structured, semi-structured and unstructured data has a high business value. It contains various information about customers, competition, labor market, and development trends for industries, products and services. The internet and social media are places where customers express their opinions about various products and services. It is a valuable source of information for entrepreneurs. The aim of this paper is to explore the issue of big data and to propose a set of different techniques for the analysis of customer opinions on the example of Twitter.
Źródło:
Studia Ekonomiczne; 2018, 362; 306-317
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of data pre-processing methods for sentiment analysis of reviews
Autorzy:
Parlar, Tuba
Ozel, Selma
Song, Fei
Powiązania:
https://bibliotekanauki.pl/articles/305513.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
data pre-processing
feature selection
sentiment analysis
text classification
Opis:
The goals of this study are to analyze the effects of data pre-processing methods for sentiment analysis and determine which of these pre-processing methods (and their combinations) are effective for English as well as for an agglutinative language like Turkish. We also try to answer the research question of whether there are any differences between agglutinative and non-agglutinative languages in terms of pre-processing methods for sentiment analysis. We find that the performance results for the English reviews are generally higher than those for the Turkish reviews due to the differences between the two languages in terms of vocabularies, writing styles, and agglutinative property of the Turkish language.
Źródło:
Computer Science; 2019, 20 (1); 123-141
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Review of Artificial Intelligence Algorithms in Document Classification
Autorzy:
Bilski, A.
Powiązania:
https://bibliotekanauki.pl/articles/226245.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
classifier
text classification
data mining
information retrieval
machine learning algorithms
Opis:
With the evolution of Internet, the meaning and accessibility of text documents and electronic information has increased. The automatic text categorization methods became essential in the information organization and data mining process. A proper classification of e-documents, various Internet information, blogs, emails and digital libraries requires application of data mining and machine learning algorithms to retrieve the desired data. The following paper describes the most important techniques and methodologies used for the text classification. Advantages and effectiveness of contemporary algorithms are compared and their most notable applications presented.
Źródło:
International Journal of Electronics and Telecommunications; 2011, 57, 3; 263-270
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies