Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "language data processing" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
Fazy przetwarzania informacji językowych w nauce obcojęzycznego słownictwa
The phases of vocabulary learning
Autorzy:
Kubiczek, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/1037568.pdf
Data publikacji:
2012-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu. Collegium Novum. Polskie Towarzystwo Neofilologiczne
Tematy:
second language acquisition
taching vocabulary
language data processing
przyswajanie języka drugiego
nauczanie słownictwa
przetwarzanie danych językowych
Opis:
In the article I am presenting the course of the process of learning vocabulary activated while teaching a foreign language. The paper takes the models of information processing and input processing as a starting point to describe the phases of vocabulary learning and to implicate the teaching procedures based on the insights in the natural processes of language acquisition. It provides theoretical background referring to the concept of instructed learning understood as the possibility of steering learners’ perception and processing of lexical structures by the teacher, and also examples on how to use this knowledge in the classroom.
Źródło:
Neofilolog; 2012, 39/1; 81-93
1429-2173
Pojawia się w:
Neofilolog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards textual data augmentation for neural networks: synonyms and maximum loss
Autorzy:
Jungiewicz, Michał
Smywiński-Pohl, Aleksander
Powiązania:
https://bibliotekanauki.pl/articles/305750.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
deep learning
data augmentation
neural networks
natural language processing
sentence classification
Opis:
Data augmentation is one of the ways to deal with labeled data scarcity and overfitting. Both of these problems are crucial for modern deep-learning algorithms, which require massive amounts of data. The problem is better explored in the context of image analysis than for text; this work is a step forward to help close this gap. We propose a method for augmenting textual data when training convolutional neural networks for sentence classification. The augmentation is based on the substitution of words using a thesaurus as well as Princeton University's WordNet. Our method improves upon the baseline in most of the cases. In terms of accuracy, the best of the variants is 1.2% (pp.) better than the baseline.
Źródło:
Computer Science; 2019, 20 (1); 57-83
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie możliwości realizacji steganografii w języku C#
An analysis of the possibility of realization steganography in C#
Autorzy:
Pawlak, Piotr
Podgórniak, Jakub Bogdan
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/2055138.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
steganografia
język C#
przekształcanie obrazów cyfrowych
ukrywanie danych
steganography
C# programming language
data hiding
digital image processing
Opis:
Moc obliczeniowa współczesnych komputerów jest wystarczająca do łamania wielu zabezpieczeń kryptograficznych, w związku z powyższym konieczne jest utworzenie dodatkowej warstwy bezpieczeństwa polegającej na ukryciu same-go faktu przekazywania tajnej wiadomości. W tym celu mogą zostać wykorzystane metody steganograficzne. Artykuł poświęcono analizie możliwości realizacji steganografii w obrazach cyfrowych przy wykorzystaniu języka programo-wania C#. Wytypowane zostały istniejące biblioteki, przekształcenia matematyczne, a także zaimplementowane zostały własne rozwiązania. W celu dokonania obiektywnej oceny metod ukrywania danych obliczono parametry opisujące stopień zniekształceń transformat oraz ukrywanych obrazów. Następnie wyłoniono optymalne rozwiązania dla konkretnych problemów oraz przeprowadzono demonstracyjne ukrycie danych. Na podstawie otrzymanych rezultatów można stwierdzić, że możliwe jest kompleksowe zrealizowanie steganografii w języku C#. Istnieje wiele gotowych bibliotek i narzędzi, których skuteczność została zweryfikowana w przeprowadzonej analizie. Z racji sprzeczności wymagań stenograficznych nie jest możliwe optymalne spełnienie ich wszystkich tj.: niewykrywalności, odporności na zniszczenie i pojemności informacyjnej. Z tego powodu nie jest możliwe jednoznaczne wskazanie najlepszych rozwiązań. Aby osiągnąć zadowalające rezultaty należy szukać kompromisów pomiędzy stawianymi wymaganiami.
The computing power of modern computers is sufficient to break many cryptographic keys, therefore it is necessary to create an additional security layer which hides the very fact of transmitting a secret message. For this purpose, ste-ganographic methods can be used. The article is devoted to the analysis of the possibility of implementing digital imag-es steganography with the use of the C # programming language. Firstly, existing libraries and mathematical transfor-mations which can help with performing steganography were found. Also, own code solutions were implemented. In order to objectively evaluate the methods of data hiding, the parameters describing the degree of distortion of trans-forms and hidden images were calculated. Subsequently, optimal solutions for specific problems were identified and demonstrational data hiding was performed. Based on the obtained results, it can be concluded that it is possible to successfully implement steganography in the C # language. There are many ready-made libraries and tools, the effec-tiveness of which has been verified in the conducted analysis. Due to the contradictory of stenographic requirements, it is not possible to meet all of them optimally, i.e. undetectability, resistance to destruction and information capacity. For this reason, it is not possible to clearly indicate the best solutions. In order to achieve satisfactory results, one should look for compromises between the set requirements.
Źródło:
Journal of Computer Sciences Institute; 2021, 21; 383-390
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: I. algebra and query language
Autorzy:
Widera, M.
Jeżewski, J.
Winiarczyk, R.
Wróbel, J.
Horoba, K.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/333189.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
The paper presents the algebra and declarative query language developed for fetal monitoring system MONAKO. At present, the system architecture is centralised. Recording, analyzing and visualization of data are carrying out in the central unit. Therefore, the system cannot scale in a simple manner. Presented solution enables to define query based on data streams that makes the updated answers currently available. Applying database management system that carries out its tasks based on presented assumptions enables the construction of monitoring system of distributed architecture
Źródło:
Journal of Medical Informatics & Technologies; 2003, 5; MI83-90
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: II. Application to signal processing
Autorzy:
Jeżewski, J.
Widera, M.
Winiarczyk, R.
Matonia, A.
Kupka, T.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/334015.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
Fetal monitoring system belongs to signal processing system class. The main functions of the system are signal acquisition from bedside monitors, on-line trace analysis and dynamic presentation of incoming data. Collected data set is controlled by centralised application. Relational database management system cannot process samples of high frequency biomedical signals on-line. Therefore, we decide to build our own data management system dedicated to stream processing that support continuous query. This paper describes a method of building a query plan based on proposed algebra. The presented example of application enables implementation of algorithm determining long- and short-term indices for fetal heart rate variability assessment on the basis of declarative query language. Our solution enables to define query based on data streams that make the updated answers currently available.
Źródło:
Journal of Medical Informatics & Technologies; 2003, 6; IT35-42
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O wiele więcej niż Google Translate, czyli komputerowe przetwarzanie języka naturalnego (NLP) w translatoryce i translatologii
Far Beyond Google Translate: Natural Language Processing (NLP) in Translation and Translatology
Autorzy:
Okulska, Inez
Powiązania:
https://bibliotekanauki.pl/articles/912393.pdf
Data publikacji:
2020-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
literary translation
machine learning
big data
natural language processing
theory of translation
computational linguistics
machine translation
przekład literacki
teoria przekładu
przetwarzanie języka naturalnego
lingwistyka komputerowa
przekład maszynowy
uczenie maszynowe
Opis:
Przewrotna jest rola postępu – im więcej technologicznego rozwoju, tym większy udział człowieka – w koncepcji, formułowaniu zadań, interpretacji wyników, nadzorze i korekcie. Hierarchia jest zachowana, człowiek wciąż nieodzowny, ale to nie znaczy, że w pewnych obszarach maszynowy potencjał rzeczywiście nie przewyższa ludzkiego i że nie warto z tej przewagi skorzystać. Przetwarzanie języka naturalnego (NLP) to dziedzina niemłoda, ale w ostatnich latach dzięki rozkwitowi metod uczenia głębokiego (deep learning), mody na maszynowe wnioskowanie (data/knowledge mining) czy nowym sprzętowym interfejsom (m.in. zaawansowane rozpoznawanie obrazu) komputerowa analiza tekstu przeżywa istny renesans. W odniesieniu do translacji przyjęło się mówić i pisać głównie o coraz doskonalszych lub właśnie zupełnie niemożliwych algorytmach dla kolejnych par języków czy coraz większej precyzji samego tłumaczenia. Niniejszy artykuł przedstawia natomiast nieco szersze spektrum procesu tłumaczenia i przygląda się elementom przekładowi towarzyszącym (jak choćby krytyka), w których wykorzystanie metod NLP możeprzynieść nowe, ciekawe wyniki. Wyniki, których ze względu na ograniczoną moc obliczeniową człowiek nie jest w stanie osiągnąć. Omówione zostały takie aspekty jak wektorowa reprezentacja języka, stylometria i jej zastosowania czy analiza wielkich zbiorów danych – wszystko to na potrzeby szeroko rozumianychtranslacji i translatologii.
The more technological development, the greater the participation of the human – in formulating tasks and problems, supervising and improving automated processes and interpreting their outcomes. The hierarchy is preserved, humans are still indispensable, but it does not mean that in certain areas of machinery the potential does not really exceed that of the human and that this advantage is not worth exploiting. Natural language processing (NLP) is not a young field, but in recent years, thanks to the thrive of deep learning methods, data and knowledge mining or new human-machine interfaces, computer text analysis is experiencing a real renaissance. As far as translation is concerned, it is mostly algorithms for machine translation that are being discussed. This article, on the other hand, presents a slightly broader spectrum of the translation process and looks at the accompanying elements (such as criticism) in which the use of NLP methods may bring new and interesting results. Results which, due to limited computing power, humans are unable to achieve. The discussion in the paper covers such aspects as the vector representation of language,stylometry and its application, or the analysis of large data sets – all for the purposes of translation and translatology.
Źródło:
Porównania; 2020, 26, 1; 283-297
1733-165X
Pojawia się w:
Porównania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza sentymentu – metoda analizy danych jakościowych. Przykład zastosowania oraz ewaluacja słownika RID i metody klasyfikacji Bayesa w analizie danych jakościowych
Sentiment analysis. An example of application and evaluation of RID dictionary and Bayesian classification methods in qualitative data analysis approach
Autorzy:
Tomanek, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/622902.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
analiza danych jakościowych
analiza sentymentu
analiza treści
text mining
kodowanie tekstów
przetwarzanie języka naturalnego słownik RID
naiwny klasyfikator Bayesa
CAQDAS
qualitative data analysis
sentiment analysis
content analysis
coding techniques
natural language processing
RID dictionary
naive Bayes
Opis:
Celem artykułu jest prezentacja podstawowych metod klasyfikacji jakościowych danych tekstowych. Metody te korzystają z osiągnięć wypracowanych w takich obszarach, jak przetwarzanie języka naturalnego i analiza danych nieustrukturalizowanych. Przedstawiam i porównuję dwie techniki analityczne stosowane wobec danych tekstowych. Pierwsza to analiza z zastosowaniem słownika tematycznego. Druga technika oparta jest na idei klasyfikacji Bayesa i opiera się na rozwiązaniu zwanym naiwnym klasyfikatorem Bayesa. Porównuję efektywność dwóch wspomnianych technik analitycznych w ramach analizy sentymentu. Akcentuję rozwiązania mające na celu zbudowanie trafnego, w kontekście klasyfikacji tekstów, słownika. Porównuję skuteczność tak zwanych analiz nadzorowanych do skuteczności analiz zautomatyzowanych. Wyniki, które prezentuję, wzmacniają wniosek, którego treść brzmi: słownik, który w przeszłości uzyskał dobrą ocenę jako narzędzie klasyfikacyjne, gdy stosowany jest wobec nowego materiału empirycznego, powinien przejść fazę ewaluacji. Jest to, w proponowanym przeze mnie podejściu, podstawowy proces adaptacji słownika analitycznego, traktowanego jako narzędzie klasyfikacji tekstów.
The purpose of this article is to present the basic methods for classifying text data. These methods make use of achievements earned in areas such as: natural language processing, the analysis of unstructured data. I introduce and compare two analytical techniques applied to text data. The first analysis makes use of thematic vocabulary tool (sentiment analysis). The second technique uses the idea of Bayesian classification and applies, so-called, naive Bayes algorithm. My comparison goes towards grading the efficiency of use of these two analytical techniques. I emphasize solutions that are to be used to build dictionary accurate for the task of text classification. Then, I compare supervised classification to automated unsupervised analysis’ effectiveness. These results reinforce the conclusion that a dictionary which has received good evaluation as a tool for classification should be subjected to review and modification procedures if is to be applied to new empirical material. Adaptation procedures used for analytical dictionary become, in my proposed approach, the basic step in the methodology of textual data analysis.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 118-136
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies