Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "language data processing" wg kryterium: Wszystkie pola


Wyświetlanie 1-11 z 11
Tytuł:
Fazy przetwarzania informacji językowych w nauce obcojęzycznego słownictwa
The phases of vocabulary learning
Autorzy:
Kubiczek, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/1037568.pdf
Data publikacji:
2012-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu. Collegium Novum. Polskie Towarzystwo Neofilologiczne
Tematy:
second language acquisition
taching vocabulary
language data processing
przyswajanie języka drugiego
nauczanie słownictwa
przetwarzanie danych językowych
Opis:
In the article I am presenting the course of the process of learning vocabulary activated while teaching a foreign language. The paper takes the models of information processing and input processing as a starting point to describe the phases of vocabulary learning and to implicate the teaching procedures based on the insights in the natural processes of language acquisition. It provides theoretical background referring to the concept of instructed learning understood as the possibility of steering learners’ perception and processing of lexical structures by the teacher, and also examples on how to use this knowledge in the classroom.
Źródło:
Neofilolog; 2012, 39/1; 81-93
1429-2173
Pojawia się w:
Neofilolog
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Streamlining of Obtaining and Processing Data from Ogimet Service Using Python Language Script
Ułatwienie procesu pozyskiwania i przetwarzania danych z serwisu Ogimet
Autorzy:
Pietras-Szewczyk, Małgorzata
Szewczyk, Leszek
Powiązania:
https://bibliotekanauki.pl/articles/385398.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
cloudiness
meteorological data
long-term average
obtaining data
zachmurzenie
dane meteorologiczne
średnie długoterminowe
pozyskiwanie danych
Opis:
This paper contains a study of using Ogimet services as a source of meteorological data and the Python language script to streamline data processing. Meteorological data is important in large number of research projects in different disciplines of sciences and technology. In this case, it was used to analyze cloudiness, but it can also be used for energy, hydrology, and environment analyses. Attention has been paid to the total cloudiness variability in an area of the Lower Silesia region in Poland during the time period of 2001–2010 using the data from eight synoptic stations (the data was obtained from the Ogimet service). A very important part of the work constituted Ogimet services as a source of free and easily available meteorological data. The biggest advantage of Ogimet is that the process of obtaining data is very easy and helpful in reducing the time needed to collect the data necessary in the research process. The offered data is free and available via the Internet, but it is raw and general. For these reasons, a Python script language application was made for faster and easier data processing. The script applied in this project has been described in detail in the work. Finally, after processing the data, the daily averages of total cloudiness have been calculated based on the available data for eight meteorological stations. Next, the ten-year average for each day and month have been calculated. The results of the study were compared with works that took a longer data time period of total cloudiness into account.
Artykuł poświęcony jest wykorzystaniu usługi Ogimet jako źródła danych meteorologicznych opisujących zachmurzenie oraz skryptu w języku Python do optymalizacji procesu przetwarzania pozyskanych danych. Dane meteorologiczne są istotne w wielu zagadnieniach badawczych z różnych dyscyplin nauki i techniki. W tym przypadku dane zostały wykorzystane do analizy wielkości zachmurzenia. Z równym powodzeniem opisane narzędzia mogą być wykorzystane w innych dziadzinach, takich jak hydrologia, ochrona środowiska czy energetyka. Zasadniczym elementem pracy jest opis usługi Ogimet jako źródła wolnych i łatwo dostępnych danych meteorologicznych. Największą zaletą serwisu jest prostote i szybkie pozyskiwanie danych. Oferowane dane są bezpłatne i dostępne przez Internet, ale są one surowe i ogólne. Z tego powodu zaproponowano użycie języka skryptowego Python do przetwarzania danych. Skrypt zastosowany w tym projekcie został szczegółowo opisany w pracy. Po przetworzeniu danych, na podstawie dostępnych informacji z ośmiu stacji meteorologicznych, obliczono wartości średnich dobowych całkowitego zachmurzenia. Następnie obliczono średnie dziesięcioletnie dla każdej ze stacji. Wyniki zostały porównane danymi zawartymi w pracach, w których analizowano zachmurzenie w dłuższym okresie.
Źródło:
Geomatics and Environmental Engineering; 2019, 13, 1; 51-62
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: I. algebra and query language
Autorzy:
Widera, M.
Jeżewski, J.
Winiarczyk, R.
Wróbel, J.
Horoba, K.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/333189.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
The paper presents the algebra and declarative query language developed for fetal monitoring system MONAKO. At present, the system architecture is centralised. Recording, analyzing and visualization of data are carrying out in the central unit. Therefore, the system cannot scale in a simple manner. Presented solution enables to define query based on data streams that makes the updated answers currently available. Applying database management system that carries out its tasks based on presented assumptions enables the construction of monitoring system of distributed architecture
Źródło:
Journal of Medical Informatics & Technologies; 2003, 5; MI83-90
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: II. Application to signal processing
Autorzy:
Jeżewski, J.
Widera, M.
Winiarczyk, R.
Matonia, A.
Kupka, T.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/334015.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
Fetal monitoring system belongs to signal processing system class. The main functions of the system are signal acquisition from bedside monitors, on-line trace analysis and dynamic presentation of incoming data. Collected data set is controlled by centralised application. Relational database management system cannot process samples of high frequency biomedical signals on-line. Therefore, we decide to build our own data management system dedicated to stream processing that support continuous query. This paper describes a method of building a query plan based on proposed algebra. The presented example of application enables implementation of algorithm determining long- and short-term indices for fetal heart rate variability assessment on the basis of declarative query language. Our solution enables to define query based on data streams that make the updated answers currently available.
Źródło:
Journal of Medical Informatics & Technologies; 2003, 6; IT35-42
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards textual data augmentation for neural networks: synonyms and maximum loss
Autorzy:
Jungiewicz, Michał
Smywiński-Pohl, Aleksander
Powiązania:
https://bibliotekanauki.pl/articles/305750.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
deep learning
data augmentation
neural networks
natural language processing
sentence classification
Opis:
Data augmentation is one of the ways to deal with labeled data scarcity and overfitting. Both of these problems are crucial for modern deep-learning algorithms, which require massive amounts of data. The problem is better explored in the context of image analysis than for text; this work is a step forward to help close this gap. We propose a method for augmenting textual data when training convolutional neural networks for sentence classification. The augmentation is based on the substitution of words using a thesaurus as well as Princeton University's WordNet. Our method improves upon the baseline in most of the cases. In terms of accuracy, the best of the variants is 1.2% (pp.) better than the baseline.
Źródło:
Computer Science; 2019, 20 (1); 57-83
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Swarm algorithms for NLP : the case of limited training data
Autorzy:
Tambouratzis, George
Vassiliou, Marina
Powiązania:
https://bibliotekanauki.pl/articles/1396739.pdf
Data publikacji:
2019
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
particle swarm optimisation
natural language processing
text phrasing
machine translation
Opis:
The present article describes a novel phrasing model which can be used for segmenting sentences of unconstrained text into syntactically-defined phrases. This model is based on the notion of attraction and repulsion forces between adjacent words. Each of these forces is weighed appropriately by system parameters, the values of which are optimised via particle swarm optimisation. This approach is designed to be language-independent and is tested here for different languages. The phrasing model’s performance is assessed per se, by calculating the segmentation accuracy against a golden segmentation. Operational testing also involves integrating the model to a phrase-based Machine Translation (MT) system and measuring the translation quality when the phrasing model is used to segment input text into phrases. Experiments show that the performance of this approach is comparable to other leading segmentation methods and that it exceeds that of baseline systems.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2019, 9, 3; 219-234
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O wiele więcej niż Google Translate, czyli komputerowe przetwarzanie języka naturalnego (NLP) w translatoryce i translatologii
Far Beyond Google Translate: Natural Language Processing (NLP) in Translation and Translatology
Autorzy:
Okulska, Inez
Powiązania:
https://bibliotekanauki.pl/articles/912393.pdf
Data publikacji:
2020-06-15
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
literary translation
machine learning
big data
natural language processing
theory of translation
computational linguistics
machine translation
przekład literacki
teoria przekładu
przetwarzanie języka naturalnego
lingwistyka komputerowa
przekład maszynowy
uczenie maszynowe
Opis:
Przewrotna jest rola postępu – im więcej technologicznego rozwoju, tym większy udział człowieka – w koncepcji, formułowaniu zadań, interpretacji wyników, nadzorze i korekcie. Hierarchia jest zachowana, człowiek wciąż nieodzowny, ale to nie znaczy, że w pewnych obszarach maszynowy potencjał rzeczywiście nie przewyższa ludzkiego i że nie warto z tej przewagi skorzystać. Przetwarzanie języka naturalnego (NLP) to dziedzina niemłoda, ale w ostatnich latach dzięki rozkwitowi metod uczenia głębokiego (deep learning), mody na maszynowe wnioskowanie (data/knowledge mining) czy nowym sprzętowym interfejsom (m.in. zaawansowane rozpoznawanie obrazu) komputerowa analiza tekstu przeżywa istny renesans. W odniesieniu do translacji przyjęło się mówić i pisać głównie o coraz doskonalszych lub właśnie zupełnie niemożliwych algorytmach dla kolejnych par języków czy coraz większej precyzji samego tłumaczenia. Niniejszy artykuł przedstawia natomiast nieco szersze spektrum procesu tłumaczenia i przygląda się elementom przekładowi towarzyszącym (jak choćby krytyka), w których wykorzystanie metod NLP możeprzynieść nowe, ciekawe wyniki. Wyniki, których ze względu na ograniczoną moc obliczeniową człowiek nie jest w stanie osiągnąć. Omówione zostały takie aspekty jak wektorowa reprezentacja języka, stylometria i jej zastosowania czy analiza wielkich zbiorów danych – wszystko to na potrzeby szeroko rozumianychtranslacji i translatologii.
The more technological development, the greater the participation of the human – in formulating tasks and problems, supervising and improving automated processes and interpreting their outcomes. The hierarchy is preserved, humans are still indispensable, but it does not mean that in certain areas of machinery the potential does not really exceed that of the human and that this advantage is not worth exploiting. Natural language processing (NLP) is not a young field, but in recent years, thanks to the thrive of deep learning methods, data and knowledge mining or new human-machine interfaces, computer text analysis is experiencing a real renaissance. As far as translation is concerned, it is mostly algorithms for machine translation that are being discussed. This article, on the other hand, presents a slightly broader spectrum of the translation process and looks at the accompanying elements (such as criticism) in which the use of NLP methods may bring new and interesting results. Results which, due to limited computing power, humans are unable to achieve. The discussion in the paper covers such aspects as the vector representation of language,stylometry and its application, or the analysis of large data sets – all for the purposes of translation and translatology.
Źródło:
Porównania; 2020, 26, 1; 283-297
1733-165X
Pojawia się w:
Porównania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie możliwości realizacji steganografii w języku C#
An analysis of the possibility of realization steganography in C#
Autorzy:
Pawlak, Piotr
Podgórniak, Jakub Bogdan
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/2055138.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
steganografia
język C#
przekształcanie obrazów cyfrowych
ukrywanie danych
steganography
C# programming language
data hiding
digital image processing
Opis:
Moc obliczeniowa współczesnych komputerów jest wystarczająca do łamania wielu zabezpieczeń kryptograficznych, w związku z powyższym konieczne jest utworzenie dodatkowej warstwy bezpieczeństwa polegającej na ukryciu same-go faktu przekazywania tajnej wiadomości. W tym celu mogą zostać wykorzystane metody steganograficzne. Artykuł poświęcono analizie możliwości realizacji steganografii w obrazach cyfrowych przy wykorzystaniu języka programo-wania C#. Wytypowane zostały istniejące biblioteki, przekształcenia matematyczne, a także zaimplementowane zostały własne rozwiązania. W celu dokonania obiektywnej oceny metod ukrywania danych obliczono parametry opisujące stopień zniekształceń transformat oraz ukrywanych obrazów. Następnie wyłoniono optymalne rozwiązania dla konkretnych problemów oraz przeprowadzono demonstracyjne ukrycie danych. Na podstawie otrzymanych rezultatów można stwierdzić, że możliwe jest kompleksowe zrealizowanie steganografii w języku C#. Istnieje wiele gotowych bibliotek i narzędzi, których skuteczność została zweryfikowana w przeprowadzonej analizie. Z racji sprzeczności wymagań stenograficznych nie jest możliwe optymalne spełnienie ich wszystkich tj.: niewykrywalności, odporności na zniszczenie i pojemności informacyjnej. Z tego powodu nie jest możliwe jednoznaczne wskazanie najlepszych rozwiązań. Aby osiągnąć zadowalające rezultaty należy szukać kompromisów pomiędzy stawianymi wymaganiami.
The computing power of modern computers is sufficient to break many cryptographic keys, therefore it is necessary to create an additional security layer which hides the very fact of transmitting a secret message. For this purpose, ste-ganographic methods can be used. The article is devoted to the analysis of the possibility of implementing digital imag-es steganography with the use of the C # programming language. Firstly, existing libraries and mathematical transfor-mations which can help with performing steganography were found. Also, own code solutions were implemented. In order to objectively evaluate the methods of data hiding, the parameters describing the degree of distortion of trans-forms and hidden images were calculated. Subsequently, optimal solutions for specific problems were identified and demonstrational data hiding was performed. Based on the obtained results, it can be concluded that it is possible to successfully implement steganography in the C # language. There are many ready-made libraries and tools, the effec-tiveness of which has been verified in the conducted analysis. Due to the contradictory of stenographic requirements, it is not possible to meet all of them optimally, i.e. undetectability, resistance to destruction and information capacity. For this reason, it is not possible to clearly indicate the best solutions. In order to achieve satisfactory results, one should look for compromises between the set requirements.
Źródło:
Journal of Computer Sciences Institute; 2021, 21; 383-390
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An Efficient Classification of Hyperspectral Remotely Sensed Data Using Support Vector Machine
Autorzy:
Mahendra, H. N.
Mallikarjunaswamy, S.
Powiązania:
https://bibliotekanauki.pl/articles/2134051.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
support vector machine
SVM
central processing unit
CPU
digital signal processor
DSP
field programmable gate array
FPGA
high level synthesis
HLS
hardware description language
HDL
Opis:
This work present an efficient hardware architecture of Support Vector Machine (SVM) for the classification of Hyperspectral remotely sensed data using High Level Synthesis (HLS) method. The high classification time and power consumption in traditional classification of remotely sensed data is the main motivation for this work. Therefore presented work helps to classify the remotely sensed data in real-time and to take immediate action during the natural disaster. An embedded based SVM is designed and implemented on Zynq SoC for classification of hyperspectral images. The data set of remotely sensed data are tested on different platforms and the performance is compared with existing works. Novelty in our proposed work is extend the HLS based FPGA implantation to the onboard classification system in remote sensing. The experimental results for selected data set from different class shows that our architecture on Zynq 7000 implementation generates a delay of 11.26 μs and power consumption of 1.7 Watts, which is extremely better as compared to other Field Programmable Gate Array (FPGA) implementation using Hardware description Language (HDL) and Central Processing Unit (CPU) implementation.
Źródło:
International Journal of Electronics and Telecommunications; 2022, 68, 3; 609--617
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza sentymentu – metoda analizy danych jakościowych. Przykład zastosowania oraz ewaluacja słownika RID i metody klasyfikacji Bayesa w analizie danych jakościowych
Sentiment analysis. An example of application and evaluation of RID dictionary and Bayesian classification methods in qualitative data analysis approach
Autorzy:
Tomanek, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/622902.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
analiza danych jakościowych
analiza sentymentu
analiza treści
text mining
kodowanie tekstów
przetwarzanie języka naturalnego słownik RID
naiwny klasyfikator Bayesa
CAQDAS
qualitative data analysis
sentiment analysis
content analysis
coding techniques
natural language processing
RID dictionary
naive Bayes
Opis:
Celem artykułu jest prezentacja podstawowych metod klasyfikacji jakościowych danych tekstowych. Metody te korzystają z osiągnięć wypracowanych w takich obszarach, jak przetwarzanie języka naturalnego i analiza danych nieustrukturalizowanych. Przedstawiam i porównuję dwie techniki analityczne stosowane wobec danych tekstowych. Pierwsza to analiza z zastosowaniem słownika tematycznego. Druga technika oparta jest na idei klasyfikacji Bayesa i opiera się na rozwiązaniu zwanym naiwnym klasyfikatorem Bayesa. Porównuję efektywność dwóch wspomnianych technik analitycznych w ramach analizy sentymentu. Akcentuję rozwiązania mające na celu zbudowanie trafnego, w kontekście klasyfikacji tekstów, słownika. Porównuję skuteczność tak zwanych analiz nadzorowanych do skuteczności analiz zautomatyzowanych. Wyniki, które prezentuję, wzmacniają wniosek, którego treść brzmi: słownik, który w przeszłości uzyskał dobrą ocenę jako narzędzie klasyfikacyjne, gdy stosowany jest wobec nowego materiału empirycznego, powinien przejść fazę ewaluacji. Jest to, w proponowanym przeze mnie podejściu, podstawowy proces adaptacji słownika analitycznego, traktowanego jako narzędzie klasyfikacji tekstów.
The purpose of this article is to present the basic methods for classifying text data. These methods make use of achievements earned in areas such as: natural language processing, the analysis of unstructured data. I introduce and compare two analytical techniques applied to text data. The first analysis makes use of thematic vocabulary tool (sentiment analysis). The second technique uses the idea of Bayesian classification and applies, so-called, naive Bayes algorithm. My comparison goes towards grading the efficiency of use of these two analytical techniques. I emphasize solutions that are to be used to build dictionary accurate for the task of text classification. Then, I compare supervised classification to automated unsupervised analysis’ effectiveness. These results reinforce the conclusion that a dictionary which has received good evaluation as a tool for classification should be subjected to review and modification procedures if is to be applied to new empirical material. Adaptation procedures used for analytical dictionary become, in my proposed approach, the basic step in the methodology of textual data analysis.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 118-136
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-11 z 11

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies