Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "ekstrakcja informacji" wg kryterium: Temat


Wyświetlanie 1-5 z 5
Tytuł:
Ukryte modele Markowa jako metoda eksploracji danych tekstowych
Hidden Markov Models as a text mining method
Autorzy:
Mazurek, M.
Powiązania:
https://bibliotekanauki.pl/articles/305867.pdf
Data publikacji:
2010
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
eksploracja danych tekstowych
ukryte modele Markowa
ekstrakcja informacji
text mining
hidden Markov model
information retrieval
Opis:
W eksploracji danych tekstowych z dużym powodzeniem stosuje się probabilistyczne modele dokumentów. W artykule przedstawiony został jeden z podstawowych, dla tej dziedziny informatyki, sposobów reprezentacji dokumentu za pomocą ukrytych modeli Markowa. Przedstawiono definicję ukrytego modelu Markowa oraz sposób wyznaczenia podstawowych wielkości związanych z wykorzystaniem tego modelu, takich jak prawdopodobieństwo wystąpienia obserwowanej sekwencji symboli (słów), wyszukanie najbardziej prawdopodobnej sekwencji stanów procesu, czy też formuły reestymacji parametrów modelu używane w procesie uczenia modelu.
In the text mining applications probabilistic models of document are widely used. In this paper the Hidden Markov Models were described as a fundamental method for text processing. Definition of the HMM was presented and the algorithms to find parameters of the model. Some of the possible applications of HMM were suggested.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2010, 6; 27-31
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Auromatyczne rozpoznawianie ofert kupna, sprzedaży i zamiany w tekstach w języku polskim
Automatic identification of buy, sell and exchange offers in unstructured texts written in the Polish language
Autorzy:
Małyszko, Jacek
Bukowska, Elżbieta
Filipowska, Agata
Perkowski, Bartosz
Stolarski, Piotr
Wieloch, Karol
Powiązania:
https://bibliotekanauki.pl/articles/539823.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Ekonomiczny w Poznaniu
Tematy:
przetwarzanie języka naturalnego
ekstrakcja informacji
industrial organization
industry studies: services
information and internet services
computer sofrware
Opis:
Artykuł prezentuje wyniki prac i eksperymentów dotyczących problemu przetwarzania niestrukturyzowanych tekstów napisanych w języku polskim w celu identyfikacji w nich ofert kupna, sprzedaży lub wymiany. W badaniach wykorzystano reguły ekstrakcji przygotowane na podstawie przeprowadzonej analizy korpusu. W artykule omówione są wybrane przykłady reprezentujące trudności, jakie niesie ze sobą omawiany problem. Opracowane podejście zostało poddane eksperymentalnej ocenie, na której podstawie skuteczność identyfikacji ofert została określona na 83% (według miary F1), natomiast określanie typu oferty (czy jest to kupno, czy sprzedaż) działa poprawnie w ponad 95% przypadków.
This article presents the results of research and experimentation on processing unstructured texts written in the Polish language in order to identify which of these texts contain buy, sell or exchange offers. The approach applied was based on manually prepared rules of extraction based on an analysis of a corpus of documents obtained from the Internet (within the Semantic Monitoring of Cyberspace project). In the article, selected examples of text fragments are discussed which show what challenges had to be addressed to solve the problem. The chosen approach was then experimentally evaluated; the accuracy in identifying offers reaching 83% (according to the F1-score), while determining the offer type (whether buying or selling) was correct in over 95% of cases.
Źródło:
Studia Oeconomica Posnaniensia; 2013, 1, 5(254)
2300-5254
Pojawia się w:
Studia Oeconomica Posnaniensia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych
Application of formal concept analysis for information extraction system analysis
Autorzy:
Mirończuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/209644.pdf
Data publikacji:
2012
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
formalna analiza pojęć
FCA
ekstrakcja informacji
analiza danych tekstowych
projektowanie ekstraktorów informacji
formal concept analysis
information extraction
project of knowledge based systems
Opis:
W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.
This article describes a design process of information extraction system IES. The proposed projecting method is based on rules and formal concept analysis.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2012, 61, 3; 270-293
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling population density using artificial neural networks from open data
Modelowanie gęstości ludności z wykorzystaniem sztucznych sieci neuronowych na podstawie otwartych danych
Autorzy:
Nadolny, Adam
Powiązania:
https://bibliotekanauki.pl/articles/2146817.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
population density
artificial neural network
detection model
information extraction
image
gęstość zaludnienia
sztuczna sieć neuronowa
model detekcyjny
ekstrakcja informacji
obraz
Opis:
This paper introduces the concept of creating a model for population density prediction and presents the work done so far. The unit of reference in the study is more the population density of a location rather than tracking human movements and habits. Heterogeneous open data, which can be obtained from the World Wide Web, was adopted for the analysis. Commercial telephony data or social networking applications were intentionally omitted. Both for data collection and later for modeling the potential of artificial neural networks was used. The potential of detection models such as YOLO or ResNet was explored. It was decided to focus on a method of acquiring additional data using information extraction from images and extracting information from web pages. The BDOT database and statistical data from the Central Statistical Office (polish: GUS) were adopted for the base model. It was shown that the use of street surveillance cameras in combination with deep learning methods gives an exam.
W niniejszej pracy przedstawiono koncepcję stworzenia modelu do predykcji gęstości ludności oraz przedstawiono wykonane dotychczas prace. Jednostką odniesienia w badaniach jest bardziej gęstość ludności w danym miejscu niż śledzenie ruchów i nawyków człowieka. Do analizy przyjęto heterogeniczne otwarte dane, które można pozyskać z sieci WWW. Celowo pominięto komercyjne dane telefonii czy aplikacji społecznościowych. Zarówno do gromadzenia danych jak i później do modelowania wykorzystano potencjał sztucznych sieci neuronowych. Zbadano potencjał modeli detekcyjnych takich jak YOLO czy ResNet. Postanowiono skupić się na metodzie pozyskiwania dodatkowych danych z wykorzystaniem ekstrakcji informacji z obrazu oraz pozyskiwania informacji ze stron WWW. Do modelu bazowego przyjęto bazę danych BDOT oraz dane statystyczne z GUS. Wykazano, że wykorzystanie kamer monitoringu ulic w połączeniu z metodami głębokiego uczenia daje egzamin.
Źródło:
Roczniki Geomatyki; 2021, 19, 2(93); 31--43
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PKE: a novel Polish keywords extraction method
PKE: nowatorska metoda ekstrakcji słów kluczowych dla języka polskiego
Autorzy:
Kozłowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/152445.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
information retrieval
keyword extraction
summarization
pozyskiwanie informacji
ekstrakcja słów kluczowych
automatyczne streszczanie
Opis:
In the paper a novel summarization approach, called the Polish Keywords Extractor (PKE), is presented. It is the single document oriented method that is capable of extracting keywords from Polish documents. PKE is a knowledge-poor method (not using any external knowledge resources as Wikipedia) inspired by RAKE and KEA. In comparison with the previous methods PKE uses Polish lemmatizer, Part-of-Speech filters, and various evaluation approaches (statistical measures, classifiers). This algorithm was tested on a set of abstracts of Polish academic papers. The experiments have shown that PKE achieves better quality measures (precision, recall, F-measure) than RAKE and KEA.
Automatyczne streszczanie tekstów dotyczy redukcji całych dokumentów lub korpusów dokumentów do postaci reprezentatywnego zbioru słów, lub akapitu. Jedną z popularniejszych metod streszczania jest ekstrakcja słów kluczowych, której celem jest identyfikacja pojedynczych słów lub fraz etykietujących zadany dokument. Metody ekstrakcji słów kluczowych mogą być podzielone na zorientowane na pojedyncze dokumentu lub na korpusy. Dodatkowo metody ekstrakcji mogą być klasyfikowane według stosowanych podejść: lingwistyczne podejście, statystyczne lub oparte na uczeniu maszynowym. W tym artykule jest zaprezentowane nowe podejście do ekstrakcji słów kluczowych, nazwane PKE, które jest zorientowane na pojedyncze polsko języczne dokumenty. PKE jest metodą nie wykorzystującą zewnętrznych zasobów wiedzy jak np. Wikipedia. Metoda została zainspirowana metodami KEA [7] i RAKE [8]. RAKE jest algorytmem bez nadzoru, niezależnym od dziedziny i języka, który pozyskuje słowa kluczowe z pojedynczych dokumentów. KEA natomiast jest metodą z nadzorem, która wykorzystuje modele bayesowskie w celu obliczenia prawdopodobieństwa bycia słowem kluczowym. W porównaniu do powyższych metod, PKE używa Polskiego lematyzatora, filtrów części mowy, oraz różnorodnych metod ewaluacji (statystycznych miar, klasyfikatorów). Proponowany algorytm został przetestowany na zbiorze polskich abstraktów artykułów. Automatycznie proponowane słowa kluczowe zostały zweryfikowane względem słów wybranych przez autorów prac. Eksperymenty (tabela 1 i 2) pokazały, że PKE osiąga lepsze miary jakości (precyzja, kompletność, F1) niż RAKE i KEA.
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 5, 5; 305-308
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-5 z 5

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies