Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data generalization" wg kryterium: Temat


Wyświetlanie 1-5 z 5
Tytuł:
Metoda uogólnienia danych w procesie generalizacji obiektów liniowych
The method of generalization data objects linear
Autorzy:
Chrobak, T.
Powiązania:
https://bibliotekanauki.pl/articles/130242.pdf
Data publikacji:
2003
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obiekt liniowy
metoda uogólnienia danych
linia łamana
linear object
generalization method of data
polyline
Opis:
W artykule omówiono metodę upraszczania linii łamanych, która spełnia warunki jednoznacznego przekształcenia geometrycznego. W tym procesie upraszczania krzywych parametry są zależne od skali mapy redagowanej (zawsze mniejszej od skali źródłowej) i najkrótszej długości trójkąta elementarnego, która (to długość) jest miarą rozpoznawalności rysunku. Metoda zapewnia w procesie upraszczania ten sam kształt krzywej z dokładnością rozpoznawalności rysunku, gdy dane są źródłowe (powoduje to większy rozstęp skal) czy już dane są przetworzone (mniejszy rozstęp skal).
This article discusses the method of the curve simplification which fulfills the cconditions of geometric transformation. In this process, the parameters depend on the scale of the maps under discussion (always smaller than the source scale) and the shortest length of the elementary triangle. This length is a measure of the figure recognizability. This method ensures – in the simplification process – the same shape of the curve with the accuracy of recognizability of the figure.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2003, 13a; 33-38
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generalizacja osadnictwa i sieci dróg bazy danych ogólnogeograficznych z wykorzystaniem systemu Clarity
Settlement and road network generalization in the general geographic database using the Clarity environment
Autorzy:
Karsznia, I.
Powiązania:
https://bibliotekanauki.pl/articles/130906.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
generalizacja danych przestrzennych
baza danych obiektów ogólnogeograficznych
środowisko Clarity
generalization of spatial data
General Geographic Database
Clarity environment
Opis:
Zagadnieniu automatyzacji generalizacji danych przestrzennych poświęcono wiele miejsca w literaturze, analizując jego teoretyczne oraz praktyczne aspekty. W wielu instytucjach naukowych oraz komercyjnych prowadzone są badania zmierzające do pełnej automatyzacji procesu generalizacji, jednakże jak dotąd zostały one uwieńczone jedynie częściowym sukcesem. Obecnie najbardziej zaawansowanym systemem do automatycznej generalizacji map i danych przestrzennych jest system Clarity. Środowisko to zostało opracowane w rezultacie badań prowadzonych w ramach europejskiego projektu AGENT. Badania nad prototypem systemu prowadzone były w latach 1997-2000 przez jednostki naukowe: Krajowy Instytut Geograficzny oraz Instytut Geograficzny Politechniki w Grenoble (Francja), Uniwersytet w Edynburgu, Uniwersytet w Zurychu oraz firmę komercyjną 1Spatial z Wielkiej Brytanii. W wielu krajach (m. in. we Francji, Danii czy w Wielkiej Brytanii) Clarity wykorzystywane jest obecnie do produkcji map topograficznych. Celem prowadzonych badań jest określenie możliwości oraz ograniczeń automatyzacji generalizacji danych przestrzennych w wymienionym systemie, jak również propozycja rozszerzenia systemu o nowe narzędzia analiz przestrzennych oraz nowe algorytmy generalizacji. Podstawowym założeniem jest opracowanie zestawu czynności generalizacyjnych, w postaci bazy wiedzy kartograficznej, stanowiącej elementy podstaw metodycznych procesu. Zakres prowadzonych badań obejmuje generalizację sieci dróg i osadnictwa Bazy Danych Ogólnogeograficznych (BDO) ze skali 1:250 000 do skal mniejszych. W artykule zaproponowano aparat badawczy w postaci sekwencji czynności generalizacyjnych oraz jego implementację w środowisku Clarity. Wykorzystano w tym celu dostępne funkcje systemu, jak również opracowano (przy użyciu języka programowania Java) własne narzędzia analiz przestrzennych pozwalające na uzyskanie bardziej poprawnych, z kartograficznego punktu widzenia, wyników generalizacji. Weryfikacja zaproponowanego aparatu badawczego w omawianym środowisku programowym pozwoliła na sformułowanie następujących wniosków: W systemie Clarity, stanowiącym środowisko otwarte, w którym możliwe jest zaprogramowanie własnych algorytmów generalizacji oraz narzędzi analiz przestrzennych w większym stopniu możliwa jest kontrola procesu generalizacji oraz jego dostosowanie do potrzeb generalizacji danych przestrzennych małoskalowych.- Opracowanie narzędzia (tzw. link w źródłowej bazie danych) pozwoliło na wzbogacenie struktury bazy przez powiązanie ze sobą dwóch generalizowanych warstw tematycznych (sieci dróg oraz osadnictwa), a w konsekwencji na uzyskanie bardziej spójnych i poprawnych wyników generalizacji. - Zastosowanie narzędzi cluster settlements oraz action poligon erode pozwoliło na uzyskanie bardziej poprawnych efektów agregacji części miejscowości przedstawionych w postaci konturów w stosunku do poprzednich etapów badawczych. Wykonane badania pozwoliły na określenie możliwości oraz ograniczeń generalizacji wybranych elementów BDO, wskazanie zakresu przydatności systemu Clarity do generalizacji opracowań małoskalowych oraz zebranie zestawu czynności generalizacyjnych, w formie bazy wiedzy kartograficznej, stanowiącej elementy podstaw metodycznych procesu.
SUMMARY: The automation problem of spatial data generalization is widely considered in a literature from both theoretical and practical perspective. Numerous scientific centers as well as commercial enterprises have been involved in researches aimed on a full automation of generalization process however, until now such works were only partially successful. Nowadays, the most advanced system for automatic generalization of maps and spatial data is Clarity by 1Spatial. Such environment was discovered in the result of researches conducted within European project ‘AGENT’. The prototype of the above mentioned system were performed within years 1997 – 2000 by: National Geographical Institute both with Geographical Institute of the Polytechnic in Grenoble (France), University of Edinburgh, University of Zurich and commercial company 1Spatial from the United Kingdom. In many countries (ex. France, Denmark or in the UK) the Clarity software has been used in a production of topographic maps. The main purpose of the researches presented in the paper is defining possibilities and limitations of automation of spatial data generalization in the above mentioned software. Furthermore, there was also presented a proposition of modifying the system by adding new tools for spatial analyses both with new generalization algorithms. The basic assumption was to create a set of generalization steps in form of cartographical knowledge base which is crucial for methodical principles of the process. The scope of conducted researches covers generalization of roads network and a settlement in the General Geographic Database (GGD) from the scales of 1:250 000 to minor scales. In the article an approach has been proposed defined as sequences of generalization procedures and their implementation in the Clarity environment. To achieve this aim many available functions as well as new self-developed tools for spatial analysis (developed in Java programming language) were used. Such new tools make it possible to obtain significantly improved results - more correct from the cartographical point of view. Verification of such approach in the presented software leads to the following conclusions: - In the Clarity system - which is an open environment - it is possible to create selfdeveloped generalization algorithms and tools. It is also possible to check the generalization process in a more efficient way as well as its adjusting to demands of a spatial small-scale data generalization. - Discovering of a new tool (so called ‘link in source database’) made it possible to enrich the database’s structure by combining together two generalized thematic layers (road networks and settlement) and – in the consequence – to obtain more coherent and correct results of the generalization. - The use of cluster settlements and action polygon erode tools made it possible to get more correct aggregation effect of some settlements presented as contours comparing to the previous researches. The presented researches made it possible to define the possibilities and limitations of selected GGD elements, describing a level of usefulness of the Clarity system for small-scale generalization and finally, to collect sets of generalization procedures in the form of a cartographic knowledge base. It can be considered as the elements of methodical principles of the process.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2009, 19; 155-167
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reduction of DTM obtained from LiDAR data for flood modeling
Autorzy:
Bakuła, K.
Powiązania:
https://bibliotekanauki.pl/articles/129625.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
DTM
generalization
lidar
algorithm
data structure
generalizacja
LIDAR
algorytm
struktura danych
Opis:
Recent years the cataclysm of flood has occurred in many regions around the world. For this reason, so much attention is focused on prediction of this cataclysm by creating flood risk maps and hydrodynamic – numerical simulation of flood water which are based on Digital Terrain Model (DTM). The modern techniques for automatic data acquisition provide very abundant amount of points. Actually, Light Detection and Ranging (LiDAR) is the most effective data source for DTM creation with density of one to few points per square meter and good height accuracy of less than 15 cm. This high redundancy of data is essential problem for algorithms used in programs for flood modeling. Many software generating such models are restricted with respect to the maximum number of points in DTM. Hundreds of thousands of points are too large number for complex calculations which describe fluid model of the flood water. In order to obtain reliable and accurate results, it is necessary to have DTM with an appropriate accuracy. The flood disaster also occurs in large areas what usually is associated with large data sets. However, it is possible to provide suitable DTM for flood modeling by its generalization without losing its accuracy, which could still ensure sufficient precision for hydrodynamic – numerical calculations. In this paper six reduction algorithms were tested to obtain DTM with small number of points and with accuracy comparable to the original model created from LiDAR data. The main criteria for this comparison was the relation between accuracy and reduction coefficient of final result. Methods used in this research were based on different DTM structures. GRID, TIN and hierarchical structures were compared in various approaches to obtain the most reduced and the most accurate terrain model of two study areas. As the result of the experiment the best methods for data reduction were chosen. Over 90% reduction rate and less than 20 cm root mean standard error were achieved in practice for different types of terrain with respect to input DTM. It was noted that hybrid and quad-tree grid based models can be even more efficient than a typical uniform GRID or TIN one.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2011, 22; 51-61
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wybrane operatory generalizacyjne i ich implementacja w systemie informacji przestrzennej ARC/INFO
Autorzy:
Cichociński, P.
Powiązania:
https://bibliotekanauki.pl/articles/131322.pdf
Data publikacji:
2001
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
system informacji przestrzennej
kartografia
generalizacja automatyczna
przetwarzanie danych przestrzennych
spatial information system
cartography
automatic generalization
spatial data processing
Opis:
The paper presents the problem of automatic generalization of databases in spatial information systems. The requirements for generalization procedures are analyzed. Existing generalization operators are listed. Generalization functions to be found in professional GIS software are briefly described. New algorithms of complicated generalization tasks and programs based on these algorithms are presented.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2001, 11; 4-67-4-73
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu o strukturze hybrydowej
The comparison of algorithms for key points extraction in simplification of hybrid digital terrain models
Autorzy:
Bakuła, K.
Powiązania:
https://bibliotekanauki.pl/articles/131096.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
numeryczny model terenu
punkty istotne
redukcja ilościowa danych
generalizacja
indeks pozycji topograficznej
TPI
Very Important Points
VIP
Z-tolerance
digital terrain model (DTM)
critical points
data reduction
generalization
Topographic Position Index
Opis:
Przedstawione badania dotyczą opracowania algorytmu redukcji ilości danych wysokościowych w postaci numerycznego modelu terenu z lotniczego skanowania laserowego (ALS) dla potrzeb modelowania powodziowego. Redukcja jest procesem niezbędnym w przetwarzaniu ogromnych zbiorów danych z ALS, a jej przebieg nie może mieć charakteru regularnej filtracji danych, co często ma miejsce w praktyce. Działanie takie prowadzi do pominięcia szeregu istotnych form terenowych z punktu widzenia modelowania hydraulicznego. Jednym z proponowanych rozwiązań dla redukcji danych wysokościowych zawartych w numerycznych modelach terenu jest zmiana jego struktury z regularnej siatki na strukturę hybrydową z regularnie rozmieszczonymi punktami oraz nieregularnie rozlokowanymi punktami istotnymi. Celem niniejszego artykułu jest porównanie algorytmów ekstrakcji punktów istotnych z numerycznych modeli terenu, które po przetworzeniu ich z użyciem redukcji danych zachowają swoją dokładność przy jednoczesnym zmniejszeniu rozmiaru plików wynikowych. W doświadczeniach zastosowano algorytmy: indeksu pozycji topograficznej (TPI), Very Important Points (VIP) oraz Z-tolerance, które posłużyły do stworzenia numerycznych modeli terenu, podlegających następnie ocenie w porównaniu z danymi wejściowymi. Analiza taka pozwoliła na porównanie metod. Wyniki badań potwierdzają możliwości uzyskania wysokiego stopnia redukcji, która wykorzystuje jedynie kilka procent danych wejściowych, przy relatywnie niewielkim spadku dokładności pionowej modelu terenu sięgającego kilku centymetrów.
The presented research concerns methods related to reduction of elevation data contained in digital terrain model (DTM) from airborne laser scanning (ALS) in hydraulic modelling. The reduction is necessary in the preparation of large datasets of geospatial data describing terrain relief. Its course should not be associated with regular data filtering, which often occurs in practice. Such a method leads to a number of important forms important for hydraulic modeling being missed. One of the proposed solutions for the reduction of elevation data contained in DTM is to change the regular grid into the hybrid structure with regularly distributed points and irregularly located critical points. The purpose of this paper is to compare algorithms for extracting these key points from DTM. They are used in hybrid model generation as a part of elevation data reduction process that retains DTM accuracy and reduces the size of output files. In experiments, the following algorithms were tested: Topographic Position Index (TPI), Very Important Points (VIP) and Z-tolerance. Their effectiveness in reduction (maintaining the accuracy and reducing datasets) was evaluated in respect to input DTM from ALS. The best results were obtained for the Z-tolerance algorithm, but they do not diminish the capabilities of the other two algorithms: VIP and TPI which can generalize DTM quite well. The results confirm the possibility of obtaining a high degree of reduction reaching only a few percent of the input data with a relatively low decrease of vertical DTM accuracy to a few centimetres. The presented paper was financed by the Foundation for Polish Science - research grant no. VENTURES/2012-9/1 from Innovative Economy program of the European Structural Funds.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2014, 26; 11-21
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-5 z 5

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies