Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "ekstrakcja informacji" wg kryterium: Wszystkie pola


Wyświetlanie 1-7 z 7
Tytuł:
Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych
Application of formal concept analysis for information extraction system analysis
Autorzy:
Mirończuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/209644.pdf
Data publikacji:
2012
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
formalna analiza pojęć
FCA
ekstrakcja informacji
analiza danych tekstowych
projektowanie ekstraktorów informacji
formal concept analysis
information extraction
project of knowledge based systems
Opis:
W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.
This article describes a design process of information extraction system IES. The proposed projecting method is based on rules and formal concept analysis.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2012, 61, 3; 270-293
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ukryte modele Markowa jako metoda eksploracji danych tekstowych
Hidden Markov Models as a text mining method
Autorzy:
Mazurek, M.
Powiązania:
https://bibliotekanauki.pl/articles/305867.pdf
Data publikacji:
2010
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
eksploracja danych tekstowych
ukryte modele Markowa
ekstrakcja informacji
text mining
hidden Markov model
information retrieval
Opis:
W eksploracji danych tekstowych z dużym powodzeniem stosuje się probabilistyczne modele dokumentów. W artykule przedstawiony został jeden z podstawowych, dla tej dziedziny informatyki, sposobów reprezentacji dokumentu za pomocą ukrytych modeli Markowa. Przedstawiono definicję ukrytego modelu Markowa oraz sposób wyznaczenia podstawowych wielkości związanych z wykorzystaniem tego modelu, takich jak prawdopodobieństwo wystąpienia obserwowanej sekwencji symboli (słów), wyszukanie najbardziej prawdopodobnej sekwencji stanów procesu, czy też formuły reestymacji parametrów modelu używane w procesie uczenia modelu.
In the text mining applications probabilistic models of document are widely used. In this paper the Hidden Markov Models were described as a fundamental method for text processing. Definition of the HMM was presented and the algorithms to find parameters of the model. Some of the possible applications of HMM were suggested.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2010, 6; 27-31
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PKE: a novel Polish keywords extraction method
PKE: nowatorska metoda ekstrakcji słów kluczowych dla języka polskiego
Autorzy:
Kozłowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/152445.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
information retrieval
keyword extraction
summarization
pozyskiwanie informacji
ekstrakcja słów kluczowych
automatyczne streszczanie
Opis:
In the paper a novel summarization approach, called the Polish Keywords Extractor (PKE), is presented. It is the single document oriented method that is capable of extracting keywords from Polish documents. PKE is a knowledge-poor method (not using any external knowledge resources as Wikipedia) inspired by RAKE and KEA. In comparison with the previous methods PKE uses Polish lemmatizer, Part-of-Speech filters, and various evaluation approaches (statistical measures, classifiers). This algorithm was tested on a set of abstracts of Polish academic papers. The experiments have shown that PKE achieves better quality measures (precision, recall, F-measure) than RAKE and KEA.
Automatyczne streszczanie tekstów dotyczy redukcji całych dokumentów lub korpusów dokumentów do postaci reprezentatywnego zbioru słów, lub akapitu. Jedną z popularniejszych metod streszczania jest ekstrakcja słów kluczowych, której celem jest identyfikacja pojedynczych słów lub fraz etykietujących zadany dokument. Metody ekstrakcji słów kluczowych mogą być podzielone na zorientowane na pojedyncze dokumentu lub na korpusy. Dodatkowo metody ekstrakcji mogą być klasyfikowane według stosowanych podejść: lingwistyczne podejście, statystyczne lub oparte na uczeniu maszynowym. W tym artykule jest zaprezentowane nowe podejście do ekstrakcji słów kluczowych, nazwane PKE, które jest zorientowane na pojedyncze polsko języczne dokumenty. PKE jest metodą nie wykorzystującą zewnętrznych zasobów wiedzy jak np. Wikipedia. Metoda została zainspirowana metodami KEA [7] i RAKE [8]. RAKE jest algorytmem bez nadzoru, niezależnym od dziedziny i języka, który pozyskuje słowa kluczowe z pojedynczych dokumentów. KEA natomiast jest metodą z nadzorem, która wykorzystuje modele bayesowskie w celu obliczenia prawdopodobieństwa bycia słowem kluczowym. W porównaniu do powyższych metod, PKE używa Polskiego lematyzatora, filtrów części mowy, oraz różnorodnych metod ewaluacji (statystycznych miar, klasyfikatorów). Proponowany algorytm został przetestowany na zbiorze polskich abstraktów artykułów. Automatycznie proponowane słowa kluczowe zostały zweryfikowane względem słów wybranych przez autorów prac. Eksperymenty (tabela 1 i 2) pokazały, że PKE osiąga lepsze miary jakości (precyzja, kompletność, F1) niż RAKE i KEA.
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 5, 5; 305-308
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelling population density using artificial neural networks from open data
Modelowanie gęstości ludności z wykorzystaniem sztucznych sieci neuronowych na podstawie otwartych danych
Autorzy:
Nadolny, Adam
Powiązania:
https://bibliotekanauki.pl/articles/2146817.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
population density
artificial neural network
detection model
information extraction
image
gęstość zaludnienia
sztuczna sieć neuronowa
model detekcyjny
ekstrakcja informacji
obraz
Opis:
This paper introduces the concept of creating a model for population density prediction and presents the work done so far. The unit of reference in the study is more the population density of a location rather than tracking human movements and habits. Heterogeneous open data, which can be obtained from the World Wide Web, was adopted for the analysis. Commercial telephony data or social networking applications were intentionally omitted. Both for data collection and later for modeling the potential of artificial neural networks was used. The potential of detection models such as YOLO or ResNet was explored. It was decided to focus on a method of acquiring additional data using information extraction from images and extracting information from web pages. The BDOT database and statistical data from the Central Statistical Office (polish: GUS) were adopted for the base model. It was shown that the use of street surveillance cameras in combination with deep learning methods gives an exam.
W niniejszej pracy przedstawiono koncepcję stworzenia modelu do predykcji gęstości ludności oraz przedstawiono wykonane dotychczas prace. Jednostką odniesienia w badaniach jest bardziej gęstość ludności w danym miejscu niż śledzenie ruchów i nawyków człowieka. Do analizy przyjęto heterogeniczne otwarte dane, które można pozyskać z sieci WWW. Celowo pominięto komercyjne dane telefonii czy aplikacji społecznościowych. Zarówno do gromadzenia danych jak i później do modelowania wykorzystano potencjał sztucznych sieci neuronowych. Zbadano potencjał modeli detekcyjnych takich jak YOLO czy ResNet. Postanowiono skupić się na metodzie pozyskiwania dodatkowych danych z wykorzystaniem ekstrakcji informacji z obrazu oraz pozyskiwania informacji ze stron WWW. Do modelu bazowego przyjęto bazę danych BDOT oraz dane statystyczne z GUS. Wykazano, że wykorzystanie kamer monitoringu ulic w połączeniu z metodami głębokiego uczenia daje egzamin.
Źródło:
Roczniki Geomatyki; 2021, 19, 2(93); 31--43
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Grain size determination and classification using adaptive image segmentation with grain shape information for milling quality evaluation
Określenie rozmiaru ziarna i klasyfikacja z użyciem adaptacyjnej segmentacji obrazu i informacji o kształcie dla oceny jakości mielenia
Autorzy:
Budzan, S.
Pawełczyk, M.
Powiązania:
https://bibliotekanauki.pl/articles/328384.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
grain classification
particle analysis
image segmentation
feature extraction
klasyfikacja ziaren
analiza
wielkość ziaren
segmentacja obrazów
ekstrakcja cech
Opis:
In this paper, authors described methods of material granularity evaluation and a novel method for grain size determination with inline electromagnetic mill device diagnostics. The milling process quality evaluation can be carried out with vibration measurements, analysis of the milling material images or well-known screening machines. The method proposed in this paper is developed to the online examination of the milled product during the milling process using real-time digital images. In this paper, authors concentrated their work on copper ore milling process. Determination of the total number of the grain, the size of each grain, also the classification of the grains are the main goal of the developed method. In the proposed method the vision camera with lightning mounted at two assumed angles has been used. The detection of the grains has been based on an adaptive segmentation algorithm, improved with distance transform to enhance grains detection. The information about particles shape and context is used to optimize the grain classification process in the next step. The final classification is based on the rule-based method with defined particle shape and size parameters.
W pracy autorzy opisali metody oceny uziarnienia materiału i nową metodę określania wielkości ziaren z jednoczesną diagnostyką pracy młyna elektromagnetycznego. Ocena jakości mielenia może być realizowana na kilka sposobów, tj. poprzez pomiar drgań, analizę obrazów materiału zmielonego, lub wykorzystanie matryc przesiewowych. Proces mielenia jest procesem obciążonym znacznym zużyciem energii, dlatego proces diagnostyki powinien być wykonywany z dużą efektywnością. Metoda zaproponowana w niniejszym artykule opiera się na badaniu mielonego produktu podczas procesu mielenia przy użyciu analizy obrazów cyfrowych w czasie rzeczywistym. Głównym celem opracowanej metody jest określenie całkowitej liczby ziaren, wielkości ziaren, jak i klasyfikacja ziaren. W zaproponowanej metodzie wykorzystano akwizycję obrazów z kamery przy oświetlaniu badanych próbek pod kątem, co pozwala zwiększyć liczbę wykrywanych ziaren. Detekcja ziaren bazuje na metodzie segmentacji adaptacyjnej rozszerzonej o analizę map odległościowych w celu poprawienia jakości i liczby wykrytych ziaren. Informacje na temat kształtu ziaren są wykorzystywane w celu optymalizacji procesu klasyfikacji ziaren. Ostateczna klasyfikacja opiera się na metodzie bazującej na regułach, w których określono zależności dla różnych parametrów kształtu i rozmiaru ziaren.
Źródło:
Diagnostyka; 2018, 19, 1; 41-48
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ekstrakcja informacji wektorowej w fotogrametrycznym systemie summit evolution – arcgis 3D z uwzględnieniem topologii dachów
Extraction of vector data in the summit evolution – arcgis 3D photogrammetric system with inclusion of roof topology
Autorzy:
Bujakiewicz, A.
Preuss, R.
Powiązania:
https://bibliotekanauki.pl/articles/129917.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
cyfrowe zdjęcia
stereodigitalizacja
topologia dachów
baza obrysów dachów budynków
digital images
stereo digitization
roof topology
base of roof edges of buildings
Opis:
W artykule dokonana zostanie analiza korzyści stosowania stacji fotogrametrycznej Summit Evolution/ArcGis3D firmy DAT/EM, dla procesu pozyskiwania obrysów dachów budynków w formie wektorowej. Proces stereodigitalizacji w tym systemie może być prowadzony na modelu przestrzennym zrekonstruowanym zarówno na podstawie cyfrowych zdjęć lotniczych jak i wysokorozdzielczych obrazów satelitarnych. Oprogramowanie tej stacji cyfrowej umożliwia tworzenie bazy obrysów dachów budynków w środowisku GIS, jednocześnie z ich pomiarem fotogrametrycznym. Takie bezpośrednie połączenie systemu bazy danych GIS z pomiarową stacją fotogrmetryczną, pozwala na przeprowadzenie przez obserwatora weryfikacji i odpowiedniej modyfikacji zawartości utworzonej bazy w czasie rzeczywistym, a tym samym zapewnia wyższą zgodność mierzonych fotogrametrycznie danych z istniejącymi już w bazie GIS. Tego typu integracja stacji fotogrametrycznej i systemu GIS pozwala na automatyczną i bezpośrednią wizualizację ekstrahowanych danych, co umożliwia jednoczesną kontrolę powstającego lub aktualizowanej bazy modelu wektorowego w aplikacji GIS w zakresie topologicznym, korzystając z funkcjonalności oprogramowania ArcMap.
The paper presents an analysis of the advantages from using the photogrammetric system Summit Evolution – ArcGis 3D, DAT/EM, for acquisition of vector data for edges of building roofs. The process of stereodigitization in this system can be performed on the stereo model reconstructed on the basis of the digital aerial photographs as well as the high resolution satellite images. The software allows to create the base of roof edges for buildings in GIS environment simultaneously with their extraction. Such direct connection of a GIS data base with the photogrammetric workstation permits an on-line verification and modification of the content of the data base, and thus a higher consistence of the extracted vector data with the existing data in GIS data base can be ensured. Such direct integration of a photogrammetric workstation with GIS data base allows for direct and automatic visualization of the extracted data, and thus a control of a new or modified vector data base with respect to geometry and topology can be carried out on-line.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2010, 21; 53-62
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Auromatyczne rozpoznawianie ofert kupna, sprzedaży i zamiany w tekstach w języku polskim
Automatic identification of buy, sell and exchange offers in unstructured texts written in the Polish language
Autorzy:
Małyszko, Jacek
Bukowska, Elżbieta
Filipowska, Agata
Perkowski, Bartosz
Stolarski, Piotr
Wieloch, Karol
Powiązania:
https://bibliotekanauki.pl/articles/539823.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Ekonomiczny w Poznaniu
Tematy:
przetwarzanie języka naturalnego
ekstrakcja informacji
industrial organization
industry studies: services
information and internet services
computer sofrware
Opis:
Artykuł prezentuje wyniki prac i eksperymentów dotyczących problemu przetwarzania niestrukturyzowanych tekstów napisanych w języku polskim w celu identyfikacji w nich ofert kupna, sprzedaży lub wymiany. W badaniach wykorzystano reguły ekstrakcji przygotowane na podstawie przeprowadzonej analizy korpusu. W artykule omówione są wybrane przykłady reprezentujące trudności, jakie niesie ze sobą omawiany problem. Opracowane podejście zostało poddane eksperymentalnej ocenie, na której podstawie skuteczność identyfikacji ofert została określona na 83% (według miary F1), natomiast określanie typu oferty (czy jest to kupno, czy sprzedaż) działa poprawnie w ponad 95% przypadków.
This article presents the results of research and experimentation on processing unstructured texts written in the Polish language in order to identify which of these texts contain buy, sell or exchange offers. The approach applied was based on manually prepared rules of extraction based on an analysis of a corpus of documents obtained from the Internet (within the Semantic Monitoring of Cyberspace project). In the article, selected examples of text fragments are discussed which show what challenges had to be addressed to solve the problem. The chosen approach was then experimentally evaluated; the accuracy in identifying offers reaching 83% (according to the F1-score), while determining the offer type (whether buying or selling) was correct in over 95% of cases.
Źródło:
Studia Oeconomica Posnaniensia; 2013, 1, 5(254)
2300-5254
Pojawia się w:
Studia Oeconomica Posnaniensia
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-7 z 7

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies