Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "text mining" wg kryterium: Wszystkie pola


Tytuł:
„Hańba w Sejmie” – zastosowanie modeli generatywnych do analizy debat parlamentarnych
Autorzy:
Kwiatkowska, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/2033754.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Polska
debaty parlamentarne
elity polityczne
ilościowa analiza treści
text mining
Polska
Parliamentary Debates
Political Elites
Quantitative Content Analysis
Text Mining
Opis:
W ciągu ostatniego dziesięciolecia nastąpił wyraźny wzrost obecności skrajnej retoryki politycznej w debacie parlamentarnej w Polsce. Jednym z aspektów postępującej radykalizacji języka jest nadużywanie słów o wysokim negatywnym natężeniu emocjonalnym w celu opisania zdarzeń występujących w codziennej polityce, co prowadzi do degradacji ich znaczenia. Jak wskazują badania, brutalizacja języka debaty wywołuje negatywne konsekwencje na poziomie elit politycznych i elektoratu, prowadząc do zmniejszonej efektywności działania parlamentu, zaostrzenia konfliktów między partiami i ich zwolennikami oraz do alienacji politycznej obywateli. W artykule przedstawiam możliwości wykorzystania stenogramów parlamentarnych do analizy przemian dyskursu politycznego, w tym wykorzystane algorytmy przeszukiwania korpusów tekstów oraz analizy ukrytych tematów. Jako przykład wykorzystuję zbiór przemówień sejmowych z lat 1991‒2016 odnoszących się do idei hańby, zdrady, niesławy i skandalu. Opieram się głównie na generatywnym modelu tematycznym, wykorzystującym metodę ukrytej alokacji Dirichleta i jej rozszerzeniu – strukturalny model tematyczny, będących nienadzorowanymi metodami ekstrakcji tematów z dużych korpusów tekstów. Wyniki przeprowadzonych analiz potwierdzają wzrost radykalnego słownictwa w czasie, a także określają charakterystyki jego użytkowników oraz najczęściej występujące konteksty (polityka historyczna, kontrola nad mediami, polityka zagraniczna).
Over the last decade there has been a clear increase in extreme political rhetoric in the parliamentary debate in Poland. One aspect of the progressive radicalization of the language is overuse of words having a high negative emotional intensity to describe events in everyday politics, which leads to the degradation of their importance. As research shows, brutalization of the language of the debate has negative consequences at the levels of the political elite and the electorate, leading to reduced efficiency of the parliament, the exacerbation of conflicts between parties and among their supporters, and the political alienation of citizens. In this article, I present the possibilities of using the transcripts of parliamentary discourse to analyze the changes of the political discourse, including the algorithms used for searching text corpora and analysis of the latent topics. As an example, I use a set of parliamentary speeches from the years 1991-2016 related to the idea of shame, betrayal, disgrace and scandal. I base my analyses on generative topic modeling employing on the method of latent Dirichlet allocation and its extension—Structural Topic Model, both being unsupervised methods of extracting topics from large text corpora. The results of the analysis confirm the increase in usage of radical vocabulary in time, and also describe the characteristics of its users and the most common contexts the extreme vocabulary tend to appear (identity politics, control over the media, foreign policy).
Źródło:
Przegląd Socjologii Jakościowej; 2017, 13, 2; 82-109
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
„Śmieci na wejściu, śmieci na wyjściu”. Wpływ jakości koderów na działanie sieci neuronowej klasyfikującej wypowiedzi w mediach społecznościowych
„Garbage in, Garbage out”. The Impact of Coders’ Quality on the Neural Network Classifying Text on Social Media
Autorzy:
Matuszewski, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/2131910.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
sieci neuronowe
klasyfikacja danych tekstowych
modele nadzorowane
opinion mining
jakość koderów
text classification
neural networks
supervised models
quality of coders
Opis:
Jedna z głównych decyzji przy ręcznym kodowaniu danych tekstowych dotyczy tego, czy kodowanie ma być weryfikowane. W przypadku modeli nadzorowanych prowadzi to do istotnego dylematu: czy lepszym rozwiązaniem jest dostarczenie modelowi dużej liczby przypadków, na których będzie się uczyć kosztem weryfikacji poprawności danych, czy też zakodowanie każdego przypadku n-razy, co pozwoli porównać kody i sprawdzić ich poprawność, ale jednocześnie n-krotnie zmniejszy zbiór danych treningowych. Taka decyzja może zaważyć nie tylko na ostatecznych wynikach klasyfikatora. Z punktu widzenia badaczy jest istotna również dlatego, że – realistycznie zakładając, że badania mają ograniczone źródło finansowania – nie można jej cofnąć. Wykorzystując 100 tys. unikatowych i ręcznie zakodowanych tweetów przeprowadzono symulacje wyników klasyfikatora w zależności od kontrolowanego odsetka błędnie zakodowanych dokumentów. Na podstawie danych przedstawiono rekomendacje.
One of the critical decisions when manually coding text data is whether to verify the coders’ work. In the case of supervised models, this leads to a significant dilemma: is it better to provide the model with a large number of cases on which it will learn at the expense of verifying the correctness of the data, or whether it is better to code each case n-times, which will allow to compare the codes and check their correctness but at the same time will reduce the training dataset by n-fold. Such a decision not only affect the final results of the classifier. From the researchers’ point of view, it is also crucial because, realistically assuming that research has limited funding, it cannot be undone. The study uses a simulation approach and provides conclusions and recommendations based on 100,000 unique and hand-coded tweets.
Źródło:
Studia Socjologiczne; 2022, 2; 137-164
0039-3371
Pojawia się w:
Studia Socjologiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A case study in text mining of discussion forum posts: Classification with bag of words and global vectors
Autorzy:
Cichosz, P.
Powiązania:
https://bibliotekanauki.pl/articles/330299.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
text mining
discussion forum
text representation
document classification
word embedding
eksploracja tekstu
forum dyskusyjne
reprezentacja tekstu
klasyfikacja dokumentów
Opis:
Despite the rapid growth of other types of social media, Internet discussion forums remain a highly popular communication channel and a useful source of text data for analyzing user interests and sentiments. Being suited to richer, deeper, and longer discussions than microblogging services, they particularly well reflect topics of long-term, persisting involvement and areas of specialized knowledge or experience. Discovering and characterizing such topics and areas by text mining algorithms is therefore an interesting and useful research direction. This work presents a case study in which selected classification algorithms are applied to posts from a Polish discussion forum devoted to psychoactive substances received from home-grown plants, such as hashish or marijuana. The utility of two different vector text representations is examined: the simple bag of words representation and the more refined embedded global vectors one. While the former is found to work well for the multinomial naive Bayes algorithm, the latter turns out more useful for other classification algorithms: logistic regression, SVMs, and random forests. The obtained results suggest that post-classification can be applied for measuring publication intensity of particular topics and, in the case of forums related to psychoactive substances, for monitoring the risk of drug-related crime.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2018, 28, 4; 787-801
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Comprehensive study: - Sarcasm detection in sentimental analysis
Autorzy:
Ratawal, Yamini
Tayal, Devendra
Powiązania:
https://bibliotekanauki.pl/articles/1159725.pdf
Data publikacji:
2018
Wydawca:
Przedsiębiorstwo Wydawnictw Naukowych Darwin / Scientific Publishing House DARWIN
Tematy:
Sentimental analysis
Web mining
deep learning
machine learning
opinion mining
text mining
Opis:
Sarcasm detection is one of the active research area in sentimental analysis. However this paper talks about one of the recent issue in sentimental analysis that us sarcasm detection. In our work, we have described different techniques used in sarcasm detection that helps a novice researcher in efficient way. This paper represent different methodologies of carrying out research in this field.
Źródło:
World Scientific News; 2018, 113; 1-9
2392-2192
Pojawia się w:
World Scientific News
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Cross-Cultural Study of Online Marketing in International Higher Education – a Keyword Analysis
Autorzy:
Kincl, Tomáš
Novák, Michal
Štrach, Pavel
Powiązania:
https://bibliotekanauki.pl/articles/26171630.pdf
Data publikacji:
2013-06-30
Wydawca:
Wydawnictwo Adam Marszałek
Tematy:
higher education
cross-cultural marketing
GLOBE
text-mining
Opis:
Higher education is a dynamic global industry with a highly competitive and developed market. Universities communicate their international programs to attract prospective students interested in studying abroad. This study addresses a question whether there is a difference between communicated characteristics of international programs among universities from various cultures. Websites of seventy universities coming from different cultural clusters are analysed using data-mining methods. The results suggests that marketing communications in international higher education do not stand on cultural grounds as there are only minor differences between international program communications across the world. The only difference in the group of prime international higher education providers was found between the Anglo-Saxon universities and the rest of the world.
Źródło:
The New Educational Review; 2013, 32; 49-65
1732-6729
Pojawia się w:
The New Educational Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Modification of the Leacock-Chodorow Measure of the Semantic Relatedness of Concepts
Modyfikacja miary semantycznego podobieństwa pojęć Leacock‑Chodorowa
Autorzy:
Korzeniewski, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1033576.pdf
Data publikacji:
2020-12-15
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
badanie tekstu
Sieć WordNet
podobieństwo semantyczne słów
miara Leacock‑Chodorowa
text mining
WordNet network
semantic relatedness
Lecock-Chodorov measure
Opis:
The measures of the semantic relatedness of concepts can be categorised into two types: knowledge‑based methods and corpus‑based methods. Knowledge‑based techniques make use of man‑created dictionaries, thesauruses and other artefacts as a source of knowledge. Corpus‑based techniques assess the semantic similarity of two concepts making use of large corpora of text documents. Some researchers claim that knowledge‑based measures outperform corpus‑based ones, but it is much more important to observe that the latter ones are heavily corpus dependent. In this article, we propose to modify the best WordNet‑based method of assessing semantic relatedness, i.e. the Leacock‑Chodorow measure. This measure has proven to be the best in several studies and has a very simple formula. We asses our proposal on the basis of two popular benchmark sets of pairs of concepts, i.e. the Ruben‑Goodenough set of 65 pairs of concepts and the Fickelstein set of 353 pairs of terms. The results prove that our proposal outperforms the traditional Leacock‑Chodorow measure.
Miary semantycznego podobieństwa pojęć można podzielić na dwa rodzaje: metody oparte na wiedzy i metody oparte na bazie tekstów. Techniki oparte na wiedzy stosują stworzone przez człowieka słowniki oraz inne opracowania. Techniki oparte na bazie tekstów oceniają podobieństwo semantyczne dwóch pojęć, odwołując się do obszernych baz dokumentów tekstowych. Niektórzy badacze twierdzą, że miary oparte na wiedzy są lepsze jakościowo od tych opartych na bazie tekstów, ale o wiele istotniejsze jest to, że te drugie zależą bardzo mocno od użytej bazy tekstów. W niniejszym artykule przedstawiono propozycję modyfikacji najlepszej metody pomiaru semantycznego podobieństwa pojęć, opartej na sieci WordNet, a mianowicie miary Leacock‑Chodorowa. Ta miara była najlepsza w kilku eksperymentach badawczych oraz można zapisać ją za pomocą prostej formuły. Nową propozycję oceniono na podstawie dwóch popularnych benchmarkowych zbiorów par pojęć, tj. zbioru 65 par pojęć Rubensteina‑Goodenougha oraz zbioru 353 par pojęć Fickelsteina. Wyniki pokazują, że przedstawiona propozycja spisała się lepiej od tradycyjnej miary Leacock‑Chodorowa.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2020, 6, 351; 97-106
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Review of Artificial Intelligence Algorithms in Document Classification
Autorzy:
Bilski, A.
Powiązania:
https://bibliotekanauki.pl/articles/226245.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
classifier
text classification
data mining
information retrieval
machine learning algorithms
Opis:
With the evolution of Internet, the meaning and accessibility of text documents and electronic information has increased. The automatic text categorization methods became essential in the information organization and data mining process. A proper classification of e-documents, various Internet information, blogs, emails and digital libraries requires application of data mining and machine learning algorithms to retrieve the desired data. The following paper describes the most important techniques and methodologies used for the text classification. Advantages and effectiveness of contemporary algorithms are compared and their most notable applications presented.
Źródło:
International Journal of Electronics and Telecommunications; 2011, 57, 3; 263-270
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Study of the Influence of Online Information on the Changes in the Warsaw Stock Exchange Indexes
Badanie wpływu informacji sieciowych na zmiany indeksów na Giełdzie Papierów Wartościowych w Warszawie
Autorzy:
Młodzianowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/660026.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
wiadomości
Giełda Papierow Wartościowych
text mining
analiza sentymentu
news
Warsaw Stock Exchange
sentiment analysis
Opis:
W artykule zaprezentowano wyniki badania nad wpływem informacji sieciowych pochodzących z serwisów internetowych o tematyce finansowej na zmiany indeksów zachodzące na Warszawskiej Giełdzie Papierów Wartościowych. Pierwsza część pracy ma charakter teoretyczny. Przybliżono w niej zagadnienie text miningu oraz analizy sentymentu. Przedstawiono ich zastosowanie w procesie analizy tekstu. W następnej części pracy omówiono charakterystykę prowadzonego badania. Dokonano wyboru polskich serwisów informacyjnych o tematyce finansowej, które mogą wpływać na reakcje inwestorów z Warszawskiej Giełdy Papierów Wartościowych. Przeprowadzono selekcję słów występujących w analizowanych serwisach oraz dokonano ich podziału na klasy. Następnie zaanalizowano zależności między zmianą indeksów GPW a częstością występowania poszczególnych słów w ramach klas. W ostatniej części pracy zaprezentowano wyniki badań, przeprowadzono dyskusję nad możliwościami ich wykorzystania oraz wskazano dalsze kierunki badań.
The article presents the results of a study on the influence of online information originating from financial websites on changes in the Warsaw Stock Exchange indexes. The first part is theoretical. It describes the issue of text mining and sentiment analysis and their use in the text analysis process. The next part of the article describes the characteristics of the study. A selection was made of Polish financial websites that may trigger reactions from investors on the Warsaw Stock Exchange. Words occurring on the analysed websites were selected and put into classes. Then the relation between changes in WSE indexes and the frequency of appearance of individual words within the classes was analysed. The last part of the article presents the study results, discusses the possibilities of using them and indicates further areas for research.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2018, 3, 335; 123-138
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Text-Mining Approach to the Evaluation of Sustainability Reporting Practices: Evidence from a Cross-Country Study
Analiza znaczeniowa praktyk raportowania zrównoważonego rozwoju: perspektywa światowa
Autorzy:
Kumar, Ajay
Das, Niladri
Powiązania:
https://bibliotekanauki.pl/articles/1841004.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Komitet Człowiek i Środowisko PAN
Tematy:
sustainability reporting
GRI
CSR
top ten economies
text mining
word cloud
raportowanie zrównoważonego rozwoju
10 największych gospodarek
znaczenie tekstu
chmura słów
Opis:
This study examines the sustainability reports (SRs)of 200 firms in both developed and emerging economies in order to identify the words most frequently used in disclosing sustainability practices within the Triple Bottom Line (TBL) approach to reporting (which emphasizes economic, environmental, and social dimensions). Its aim is to evaluate these sustainability reports under the umbrella of the GRI framework. It adopts a semi-automated Text-Mining (TM) technique to evaluate the corporate SRs of select firms from the top ten economies by GDP at current prices. Based on the GRI Standards guidelines, a total of 208 keywords were identified for analysis. The disclosures were then awarded points based on the appearance of these keywords so that the appearance of one resulted in the awarding of a score of one; if a keyword did not appear then the report was scored a zero for that word. Furthermore, a wordcloud was also generated in order to better understand the inclination of reporting language towards various TBL reporting categories. This analysis of the SRs of 200 firms from the top ten economies of the world sheds light on the differences in reporting practices and priorities as they relate to various aspects of the GRI Standards guidelines. The results indicate that SR practices have grown rapidly in the last half decade of the period selected for study (2013-2017) as compared to the first half (2008-2012). Canada ranked highest for its disclosure practices in this analysis followed by the UK, Germany, US, Japan, France, Italy, Brazil, India, and China. This study found that all included countries improved their sustainability performance over the period 2008-2017.
W niniejszym artykule przeanalizowano raporty dotyczące zrównoważonego rozwoju (SR) z 200 firm, zarówno w gospodarkach rozwiniętych, jak i wschodzących, w celu zidentyfikowania słów najczęściej używanych przy ujawnianiu praktyk zrównoważonego rozwoju w ramach podejścia do raportowania treaple bottom line (TB, które kładzie nacisk na ekonomię, środowisko i wymiary społeczne. Celem jest ocena raportów dotyczących zrównoważonego rozwoju w ramach GRI. Przyjęto półautomatyczną technikę Text-Mining (TM) do oceny korporacyjnych praktyk na rzecz zrównoważonego rozwoju (SR) wybranych firm z dziesięciu największych gospodarek według PKB w cenach bieżących. W oparciu o wytyczne standardów GRI do analizy wytypowano łącznie 208 słów kluczowych. Przyznano im następnie punkty w oparciu o częstotliwość ich występowania, tak że pojawienie się jednorazowe skutkowało przyznaniem jednej punktacji; jeśli słowo kluczowe nie pojawiło się, raport był oceniany jako zero dla tego słowa. Ponadto utworzono chmurę słów, aby lepiej zrozumieć skłonność języka raportowania do różnych kategorii raportów TBL. Ta analiza rekomendacji 200 firm z dziesięciu największych gospodarek świata rzuca światło na różnice w praktykach i priorytetach raportowania, które odnoszą się do różnych aspektów wytycznych GRI. Wyniki wskazują, że praktyki zrównoważonego rozwoju (SR) gwałtownie wzrosły w ostatniej połowie dekady wybranej do badania (2013-2017), w porównaniu z pierwszą połową (2008-2012). W tej analizie Kanada zajęła najwyższe miejsce pod względem praktyk ujawniania informacji, a następnie Wielka Brytania, Niemcy, Stany Zjednoczone, Japonia, Francja, Włochy, Brazylia, Indie i Chiny. Badanie wykazało, że wszystkie uwzględnione kraje poprawiły swoje wyniki w zakresie zrównoważonego rozwoju w latach 2008–2017.
Źródło:
Problemy Ekorozwoju; 2021, 16, 1; 51-60
1895-6912
Pojawia się w:
Problemy Ekorozwoju
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adapting a constituency parser to user-generated content in polish opinion mining
Autorzy:
Pluwak, A.
Korczynski, W.
Kisiel-Dorohinicki, M.
Powiązania:
https://bibliotekanauki.pl/articles/305485.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
user generated content
text normalization
parsing
sentiment analysis
Opis:
The paper focuses on the adjustment of NLP tools for Polish; e.g., morphological analyzers and parsers, to user-generated content (UGC). The authors discuss two rule-based techniques applied to improve their efficiency: pre-processing (text normalization) and parser adaptation (modified segmentation and parsing rules). A new solution to handle OOVs based on inflectional translation is also offered.
Źródło:
Computer Science; 2016, 17 (1); 23-44
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An attempt to determine the scope of duties of the business analyst – application of text mining analysis
Autorzy:
Wyskwarski, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/1927447.pdf
Data publikacji:
2020
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
text mining
duties
responsibilities
business analyst
obowiązek
odpowiedzialność
analityk biznesowy
Opis:
Purpose: An attempt to identify the scope of duties of the business analyst by analyzing job offers from websites. Design/methodology/approach: Job offers were automatically downloaded from five websites. An analysis of text mining of fragments of offers describing the scope of duties was carried out. The analysis of text mining included initial text processing, creation of corpora of analyzed documents, creation of a document-term matrix and the use of classic methods derived from data mining. Findings: The most frequently used words/n-grams and the correlation of selected words/ n-grams with other words/n-grams were presented in the form of drawings. Based on the frequency of words/n-grams and the correlation value, efforts were made to identify the responsibilities of the business analyst. Research limitations/implications: Only offers written in Polish, downloaded from five websites with job offers, which had the phrase “business analyst” in their job title, were analyzed. The data was collected between 13 and 15 April 2020. Practical implications: The method applied can be used by organizations preparing for the profession of a business analyst, to modify and better adapt curricula to the needs of the labor market. Originality/value: Studies have shown that text mining of job offers can, to some extent, help determine the responsibilities of a business analyst.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2020, 148; 795-810
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An environment for collective perception based on fuzzy and semantic approaches
Autorzy:
D’Aniello, G.
Gaeta, M.
Loia, F.
Reformat, M.
Toti, D.
Powiązania:
https://bibliotekanauki.pl/articles/91892.pdf
Data publikacji:
2018
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
smart cities
fuzzy logic
text mining
sentiment analysis
Opis:
This work proposes a software environment implementing a methodology for acquiring and exploiting the collective perception (CP) of Points of Interests (POIs) in a Smart City, which is meant to support decision makers in urban planning and management. This environment relies upon semantic knowledge discovery techniques and fuzzy computational approaches, including natural language processing, sentiment analysis, POI signatures and Fuzzy Cognitive Maps, turning them into a cohesive architectural blend in order to effectively gather the realistic perception of a user community towards given areas and attractions of a Smart City. The environment has been put to the test via a thorough experimentation against a massive user base of an online community with respect to a large metropolitan city (the City of Naples). Such an experimentation yielded consistent results, useful for providing decision makers with a clear awareness of the positive as well as critical aspects of urban areas, and thus helping them shape the measures to be taken for an improved city management and development.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2018, 8, 3; 191-210
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza dokonań OPP, prezentowanych w ich sprawozdaniach rocznych z wykorzystaniem metody drążenia tekstu
Applying text mining method to analyse performance of PBOs based on their annual statements
Autorzy:
Dyczkowski, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/592046.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Dokonania, drążenie tekstu
Informacje opisowe
Organizacje pożytku publicznego
Narrative information
Performance
Public benefit organisations
Text mining
Opis:
Artykuł ma na celu usystematyzowanie informacji charakteryzujących dokonania OPP, ujawnianych w ich rocznych sprawozdaniach z działalności, oraz zidentyfikowanie tych, które stymulują ofiarność indywidualnych darczyńców. Badanie przeprowadzono z zastosowaniem metod drążenia tekstu oraz eksperymentu laboratoryjnego na losowej próbie 177 polskich OPP. Uzyskane wyniki umożliwiły zidentyfikowanie głównych zagadnień prezentowanych przez OPP w narracyjnej części sprawozdania rocznego oraz wskazanie przesuniętych akcentów w opisach dokonań tych OPP, które szczególnie stymulują darczyńców do współdziałania.
The article systematises performance related information disclosed by PBOs in their annual statements. It identifies also those disclosures which may particularly stimulate individual donations. The research comprises 177 randomly selected Polish PBOs. It applies the methodologies of text mining and of a laboratory experiment. The results obtained allowed identifying the key issues which PBOs focus on in narrative parts of their annual statements. They enabled also to observed a shift in focus of performance related narratives in those PBOs which earned more attention of donors.
Źródło:
Studia Ekonomiczne; 2016, 274; 57-66
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza sentymentu – metoda analizy danych jakościowych. Przykład zastosowania oraz ewaluacja słownika RID i metody klasyfikacji Bayesa w analizie danych jakościowych
Sentiment analysis. An example of application and evaluation of RID dictionary and Bayesian classification methods in qualitative data analysis approach
Autorzy:
Tomanek, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/622902.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
analiza danych jakościowych
analiza sentymentu
analiza treści
text mining
kodowanie tekstów
przetwarzanie języka naturalnego słownik RID
naiwny klasyfikator Bayesa
CAQDAS
qualitative data analysis
sentiment analysis
content analysis
coding techniques
natural language processing
RID dictionary
naive Bayes
Opis:
Celem artykułu jest prezentacja podstawowych metod klasyfikacji jakościowych danych tekstowych. Metody te korzystają z osiągnięć wypracowanych w takich obszarach, jak przetwarzanie języka naturalnego i analiza danych nieustrukturalizowanych. Przedstawiam i porównuję dwie techniki analityczne stosowane wobec danych tekstowych. Pierwsza to analiza z zastosowaniem słownika tematycznego. Druga technika oparta jest na idei klasyfikacji Bayesa i opiera się na rozwiązaniu zwanym naiwnym klasyfikatorem Bayesa. Porównuję efektywność dwóch wspomnianych technik analitycznych w ramach analizy sentymentu. Akcentuję rozwiązania mające na celu zbudowanie trafnego, w kontekście klasyfikacji tekstów, słownika. Porównuję skuteczność tak zwanych analiz nadzorowanych do skuteczności analiz zautomatyzowanych. Wyniki, które prezentuję, wzmacniają wniosek, którego treść brzmi: słownik, który w przeszłości uzyskał dobrą ocenę jako narzędzie klasyfikacyjne, gdy stosowany jest wobec nowego materiału empirycznego, powinien przejść fazę ewaluacji. Jest to, w proponowanym przeze mnie podejściu, podstawowy proces adaptacji słownika analitycznego, traktowanego jako narzędzie klasyfikacji tekstów.
The purpose of this article is to present the basic methods for classifying text data. These methods make use of achievements earned in areas such as: natural language processing, the analysis of unstructured data. I introduce and compare two analytical techniques applied to text data. The first analysis makes use of thematic vocabulary tool (sentiment analysis). The second technique uses the idea of Bayesian classification and applies, so-called, naive Bayes algorithm. My comparison goes towards grading the efficiency of use of these two analytical techniques. I emphasize solutions that are to be used to build dictionary accurate for the task of text classification. Then, I compare supervised classification to automated unsupervised analysis’ effectiveness. These results reinforce the conclusion that a dictionary which has received good evaluation as a tool for classification should be subjected to review and modification procedures if is to be applied to new empirical material. Adaptation procedures used for analytical dictionary become, in my proposed approach, the basic step in the methodology of textual data analysis.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 118-136
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wpisów na portalu Twitter z wykorzystaniem narzędzi big data zawartych w pakiecie R
Social media analysis with big data tools
Autorzy:
Kisiołek, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/591261.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Analiza danych
Big data
Internet
Social media
Text mining
Opis:
Wraz z rozwojem internetu, mediów społecznościowych oraz technologii mobilnych znacznie wzrosła ilość generowanych danych. Dane te, zarówno w formie ustrukturalizowanej, jak i nieustrukturalizowanej, mogą nieść wartość biznesową dla przedsiębiorców. W danych big data można znaleźć m.in. informacje na temat klientów, konkurencji, rynku pracy, opinii na temat produktów danej firmy, czy aktualnych trendów. Dzięki dokładnej analizie internetu i mediów społecznościowych, interesariusze mogą pozyskać nową wartość, jaką są informacje na temat nastawienia i opinii konsumentów. Celem artykułu jest przedstawienie narzędzi big data jako jednego ze sposobów analizy mediów społecznościowych i wyciągania w ten sposób wartościowych informacji. Przedmiotem przeprowadzonej analizy były tysiące tweetów użytkowników portalu Twitter. Analiza została przeprowadzona przy wykorzystaniu technik text mining oraz sentyment analysis.
Development of Internet, social media and databases has caused a huge increase of data. Structured, semi-structured and unstructured data has a high business value. It contains various information about customers, competition, labor market, and development trends for industries, products and services. The internet and social media are places where customers express their opinions about various products and services. It is a valuable source of information for entrepreneurs. The aim of this paper is to explore the issue of big data and to propose a set of different techniques for the analysis of customer opinions on the example of Twitter.
Źródło:
Studia Ekonomiczne; 2018, 362; 306-317
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies