Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "chmury punktów" wg kryterium: Wszystkie pola


Tytuł:
A Comparison of Accuracy between Point Clouds from Convergent Images and Spherical Panoramas
Analiza porównawcza chmur punktów wygenerowanych na podstawie zdjęć zbieżnych i panorama
Autorzy:
Szlapińska, S.
Tokarczyk, R.
Powiązania:
https://bibliotekanauki.pl/articles/385943.pdf
Data publikacji:
2017
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
Agisoft
zdjęcia zbieżne
modelowanie na podstawie zdjęć
chmury punktów
panoramy sferyczne
convergent photos
image-based modeling
point clouds
spherical panoramas
Opis:
W pracy przedstawiono wyniki analizy porównawczej chmur punktów opracowanych na podstawie zdjęć zbieżnych oraz panoram sferycznych powstałych ze zdjęć wykonywanych z tego samego środka rzutów. Porównywano wyniki opracowania dla sieci zdjęć zbieżnych i sieci panoram pod względem dokładności, gęstości chmury i ekonomiczności pomiaru. Prace badawcze prowadzono na polu testowym założonym w dużym wnętrzu budynku. Zdjęcia zbieżne oraz panoramy wykonano lustrzanką Canon EOS 5D. Do wykonania panoram użyto głowicy GIGA PAN Epic Pro. Do obliczeń i utworzenia modeli zastosowano program Agisoft PhotoScan, ponieważ ma on funkcję automatycznej orientacji oraz dopasowania obrazów w przypadku panoram sferycznych. Porównanie dokładności chmur punktów, z których odczytywano współrzędne punktów kontrolnych, wykazało, że dokładność modelu utworzonego ze zdjęć zbieżnych wynosi 19 mm, a dokładność modelu z panoram – 73 mm. Ponieważ gorszy wynik dokładności chmury z panoram może być spowodowany jej znacznie mniejszą gęstością, sprawdzono również wpływ dokładności ich wykonania przez analityczne wyznaczenie współrzędnych punktów kontrolnych na etapie orientacji zdjęć i panoram. Przeprowadzona analiza potwierdziła, że model ze zdjęć zbieżnych cechuje się wyższą dokładnością (20 mm) niż model z panoram (36 mm).
The work includes the results of a comparison of point clouds made on the basis of convergent images and spherical panoramas from the photos taken in the same center of projection. The results were compared for the group of convergent photos and panoramas in relation to accuracy, cloud density and measurement economics. The research was carried out on the testfield inside a large building. The convergent photos and panoramas were taken using the Canon EOS 5D camera. The robotic camera mount GIGA PAN Epic Pro was used to make panoramas. For calculations and building models the Agisoft PhotoScan application was selected, as it has a function of automatic orientation and adjusting photos. The comparison of point cloud accuracy, from which the control point coordinates were taken, has shown that the accuracy of the model made from the photos was 19 mm, and the accuracy of panorama model was 73 mm. As the worse result of panorama cloud accuracy may be caused by much lower density, the effect on their accuracy was also checked by making an analytical determination of control point coordinates at the stage of photo and panorama orientation. The analysis has proven that the model made of convergent photos is more accurate (20 mm) than the model made of panoramas (36 mm).
Źródło:
Geomatics and Environmental Engineering; 2017, 11, 2; 63-72
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A method of point cloud data block registration with considering distance from point to surface
Autorzy:
Lu, Yinju
Duan, Mingyi
Dai, Shuguang
Powiązania:
https://bibliotekanauki.pl/articles/2173646.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
point cloud registration
data block registration
distance from point to surface
parameter calculation
rejestracja chmury punktów
rejestracja bloku danych
odległość od punktu do powierzchni
obliczanie parametrów
Opis:
The number of scanner stations used to acquire point cloud data is limited, resulting in poor data registration. As a result, a cloud point block registration approach was proposed that took into account the distance between the point and the surface. When registering point cloud data, the invariant angle, length, and area of the two groups of point cloud data were affine transformed, and then the block registration parameters of point cloud data were determined. A finite hybrid model of point cloud data was created based on the coplane four-point nonuniqueness during the affine translation. On this basis, the point cloud data block registration algorithm was designed. Experimental results prove that the proposed method has great advantages in texture alignment, registration accuracy and registration time, so it is able to effectively improve the registration effect of point cloud data. The point cloud data block registration algorithm was built on this foundation. Experiments show that the suggested method has significant improvements in texture alignment, registration accuracy, and registration time, indicating that it can significantly improve point cloud data registration.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 2; art. no. e140259
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accuracy of the BIM model generated from the point cloud for an object made in glass technology
Dokładność modelu BIM z chmury punktów dla obiektu wykonanego w technologii szklanej
Autorzy:
Wider, Marta
Gawronek, Pelagia
Powiązania:
https://bibliotekanauki.pl/articles/2029730.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
terrestrial laser scanning
architectural survey
glass façade
accuracy analysis of geometry modelling
naziemny skaning laserowy
inwentaryzacja
modelowanie
fasada szklana
analiza dokładności odwzorowania geometrii
Opis:
Mapping glass objects in 3D space has long raised doubts as to the possibility of obtaining data, and as to the accuracy of that data. The basics of terrestrial laser scanning technology and the principles of the physics of light propagation in the environment of transparent and reflective surfaces, as a rule, contradict the technological possibility of a faithful mapping thereof. Although Building Information Modelling (BIM) of existing objects based on data from terrestrial laser scanning is an increasingly common practice, it is recognized, nevertheless, that the accuracy of the model is primarily reflected in the accuracy of the point cloud obtained as a result of scanning. The article discusses the possibilities of developing a BIM model of an object made in glass technology, based on data obtained with the method of terrestrial laser scanning. The subject of the study was the glazed façade of the complex of buildings belonging to the University of Agriculture in Krakow. The study on the fidelity of mapping glazed surfaces included the acquisition and processing of the point cloud, 3D modelling of the object using the Revit software, and the analysis of the accuracy of mapping the existing status in comparison with architectural design and construction documentation. Based on the research, the possibility of using the BIM process was assessed using TLS data in the process of recreating the geometry of an object made in glass technology. The results of the study showed a significant convergence of the façade model geometry with the actual course of the structure, which, however, can be attributed to the development methodology, i.e. the accuracy of 3D data acquisition, the registration process, the filtration procedure, the method of parametric modelling of the façade structure itself, and ultimately fitting three-layer glazing into the model of that structure.
Odwzorowanie obiektów szklanych w przestrzeni 3D od lat budzi wątpliwości w zakresie możliwości pozyskania danych oraz ich dokładności. Podstawy technologii naziemnego skaningu laserowego oraz zasady fizyki rozchodzenia się światła w środowisku powierzchni transparentnych i refleksyjnych co do zasady przeczą możliwością technologicznym ich wiernego odwzorowania. Modelowanie BIM obiektów istniejących w oparciu o dane z naziemnego skanowania laserowego to coraz powszechniejsza praktyka, jednak nadal uznaje się, że o dokładności modelu świadczy przede wszystkim dokładność pozyskanej w wyniku skanowania chmury punktów. W artykule omówiono możliwości opracowania modelu BIM obiektu wykonanego w technologii szklanej, na podstawie danych pozyskanych technologią naziemnego skaningu laserowego. Przedmiotem opracowania była przeszklona fasada kompleksu zabudowań Uniwersytetu Rolniczego w Krakowie. Badania wierności odwzorowania przeszkleń obejmowały pozyskanie i przetworzenie chmury punktów, modelowanie 3D obiektu w programie Revit oraz analizę dokładności odtworzenia stanu istniejącego w porównaniu z dokumentacją architektoniczno – budowlaną. W oparciu o przeprowadzone badanie dokonano oceny możliwości zastosowania procesu BIM przy wykorzystaniu danych TLS w procesie odtworzenia geometrii obiektu wykonanego w technologii szklanej. Rezultaty opracowania wykazały znaczą zbieżność geometrii modelu fasady z rzeczywistym przebiegiem konstrukcji, co jednak zawdzięczać można metodyce opracowania tj. dokładności pozyskania danych 3D, procesowi rejestracji, filtracji, metodzie modelowania parametrycznego samej konstrukcji fasady oraz finalne wpasowaniu w jej model trójwarstwowych szkleń.
Źródło:
Geomatics, Landmanagement and Landscape; 2021, 4; 117-133
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza algorytmów detekcji obiektów infrastruktury kolejowej na podstawie chmury punktów mobilnego skaningu laserowego
Analysis of detection algorithms of railway infrastructure object based on scanning mobile laser point cloud
Autorzy:
Marmol, U.
Powiązania:
https://bibliotekanauki.pl/articles/130674.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
mobilny skaning laserowy
filtracja
detekcja obiektów
mobile laser scanning
filtering
object detection
Opis:
Tematem niniejszego artykułu jest detekcja obiektów infrastruktury kolejowej na podstawie chmury punktów mobilnego skaningu laserowego. Pierwszym istotnym etapem, zanim przystąpi się do właściwej detekcji, jest usunięcie szumu pomiarowego. W przypadku skaningu mobilnego szum jest kluczowym problemem, gdyż wprowadza duże zakłócenia do danych pomiarowych. W pierwszej części artykułu zawarto krótką charakterystykę programów pod kątem prostych filtrów geometrycznych, które zarówno usuwają szumy jak i przeprowadzają proste operacje klasyfikacji (na przykład wydzielenie obiektów oddalonych o określoną wartość głębokości). Dopiero po usunięciu szumu jest możliwe rozpoznawanie obiektów. Jest to stosunkowo nowe zagadnienie, otwierające szerokie pole do analiz i badań naukowych. Do tej pory zostało opisanych kilka metod klasyfikacji danych pochodzących z mobilnych systemów laserowych. Część algorytmów opiera się na metodach wywodzących się z teorii przetwarzania obrazów. Rozproszona chmura punktów jest zapisywana w siatce regularnej jako raster, którego wartości pikseli odpowiadają głębokości lub intensywności danych laserowych. Do metod opartych na obrazach możemy zaliczyć: algorytmy wykorzystujące filtry morfologiczne i algorytmy wyszukiwania. Inne metody detekcji obiektów bazują na danych rozproszonych, czyli oryginalnej chmurze punktów. Przykładem może być metoda oparta na algorytmie RANSAC. Przeprowadzona analiza algorytmów filtracji ujawniła, że mobilny skaning laserowy może stanowić miarodajne źródło do wyodrębniania obiektów.
The subject of this paper is detection of railway infrastructure objects based on mobile laser scanning. The first important step, made before proceeding with correct detection, is to remove the measurement noise. In the case of mobile scanning noise is a key issue, since it introduces a large distortion of the measurement data. In the first part of the article a brief description of the programs in terms of simple geometric filters which both remove noise and carry out simple operations of the classification (for example, the separation of objects spaced by a certain depth). Object recognition is possible only after the removal of the noise This is a relatively new problem, opening a wide field for analysis and research. So far several methods have been described for the classification of the mobile data. Some algorithms based on methods derived from the image processing theory. Scattered cloud of points is stored in a regular grid, the pixel values correspond to the depth or intensity of the laser data. The image-based methods: algorithms using morphological filters and retrieval algorithms. Other methods are based on the detection of objects from the original cloud of points. An example is the method based on RANSAC algorithm. An analysis of filtering algorithms revealed that mobile laser scanning can be a reliable information source to extract objects.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 24; 211-220
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatyczne określanie średnicy pnia, podstawy korony oraz wysokości sosny zwyczajnej (Pinus Silvestris L.) na podstawie analiz chmur punktów 3D pochodzących z wielostanowiskowego naziemnego skanowania laserowego
Automatic determination of trunk diameter, crown base and height of scots pine (Pinus Sylvestris L.) Based on analysis of 3D point clouds gathered from multistation terrestrial laser scanning
Autorzy:
Ratajczak, M.
Wężyk, P.
Powiązania:
https://bibliotekanauki.pl/articles/130230.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
naziemne skanowanie laserowe
TLS
przetwarzanie chmury punktów
algorytmy
Charakterystyka biometryczna
terrestrial laser scanning
point cloud processing
algorithms
biometric characteristics
Opis:
Rozwój technologii naziemnego skanowania laserowego (TLS) w ostatnich latach spowodował jej uznanie i wdrożenie w wielu gałęziach gospodarki, w tym w leśnictwie i ochronie przyrody. Wykorzystanie chmur punktów 3D TLS w procesie inwentaryzacji drzew i drzewostanów oraz określaniu wybranych cech biometrycznych drzewa (np. średnicy pnia, wysokości drzewa, podstawy korony, liczby kształtu pnia) oraz wielkości surowca drzewnego (objętość drzew) staje się już praktyką. Wartością dodaną technologii TLS poza dokładnością samego pomiaru jest automatyzacja procesu przetwarzania chmury punktów 3D pod katem ekstrakcji wybranych cech drzew i drzewostanów. Praca prezentuje autorskie oprogramowanie (GNOM) służące do automatycznego pomiaru wybranych parametrów drzew na podstawie chmury punktów pozyskanych skanerem laserowym FARO FOCUS 3D. Dzięki opracowanym algorytmom (GNOM) określono lokalizację pni drzew na kołowej powierzchni badawczej oraz dokonano pomiarów: pierśnicy pni (d1.3), kolejnych średnic pnia na różnych wysokościach pnia, wysokości wierzchołka drzewa, podstawy korony i objętości pnia (metoda pomiaru sekcyjnego) oraz korony drzewa. Prace badawcze realizowano na terenie Nadleśnictwa Niepołomice w jednogatunkowym drzewostanie sosnowym (Pinus sylvestris L.) na powierzchni kołowej o promieniu 18.0 m w zasięgu której znajdowało się 16 sosen (14 z nich ścięto). Drzewostan w wieku 147 lat miał jednopiętrową budowę i był pozbawiony podszytu. Naziemne skanowanie laserowe przeprowadzono tuż przed pracami zrębowymi. Pierśnicę 16 sosen określono w pełni automatycznie algorytmem GNOM z błędem około +2,1% w stosunku do pomiaru referencyjnego wykonanego średnicomierzem. Średni, bezwzględny błąd pomiaru w chmurze punktów - półautomatycznymi metodami "PIXEL" (pomiędzy punktami) oraz PIPE (wpasowanie walca) w programie FARO Scene 5.x, wykazał błąd odpowiednio: 3.5% oraz 5.0%. Za referencyjną wysokość wierzchołka przyjęto pomiar taśmą mierniczą na ściętym drzewie. Średni błąd automatycznego określania wysokości drzew algorytmem GNOM na podstawie chmury punktów TLS wyniósł 6.3%, i był niewiele większy niż przy zastosowaniu manualnej metody pomiaru na przekrojach w programie TerraScan (Terrasolid; błąd ~5.6%). Pomiar wysokości podstawy korony wykazał błąd na poziomie +9,5%. Referencję w tym przypadku stanowił pomiar taśmą wykonany ściętych sosnach. Przetwarzanie chmur punktów TLS algorytmami GNOM w przypadku 16 analizowanych sosen trwało poniżej 10 min (37 sek. /drzewo). W pracy wykazano jednoznacznie przydatność technologii TLS w leśnictwie i jej wysoką dokładność przy pozyskiwaniu danych biometrycznych drzew oraz dalszą potrzebę zwiększania stopnia automatyzacji przetwarzania chmur punktów 3D pochodzących z naziemnego skanowania laserowego.
Rapid development of terrestrial laser scanning (TLS) in recent years resulted in its recognition and implementation in many industries, including forestry and nature conservation. The use of the 3D TLS point clouds in the process of inventory of trees and stands, as well as in the determination of their biometric features (trunk diameter, tree height, crown base, number of trunk shapes), trees and lumber size (volume of trees) is slowly becoming a practice. In addition to the measurement precision, the primary added value of TLS is the ability to automate the processing of the clouds of points 3D in the direction of the extraction of selected features of trees and stands. The paper presents the original software (GNOM) for the automatic measurement of selected features of trees, based on the cloud of points obtained by the ground laser scanner FARO. With the developed algorithms (GNOM), the location of tree trunks on the circular research surface was specified and the measurement was performed; the measurement covered the DBH (l: 1.3m), further diameters of tree trunks at different heights of the tree trunk, base of the tree crown and volume of the tree trunk (the selection measurement method), as well as the tree crown. Research works were performed in the territory of the Niepolomice Forest in an unmixed pine stand (Pinussylvestris L.) on the circular surface with a radius of 18 m, within which there were 16 pine trees (14 of them were cut down). It was characterized by a two-storey and even-aged construction (147 years old) and was devoid of undergrowth. Ground scanning was performed just before harvesting. The DBH of 16 pine trees was specified in a fully automatic way, using the algorithm GNOM with an accuracy of +2.1%, as compared to the reference measurement by the DBH measurement device. The medium, absolute measurement error in the cloud of points - using semi-automatic methods "PIXEL" (between points) and PIPE (fitting the cylinder) in the FARO Scene 5.x., showed the error, 3.5% and 5.0%,.respectively The reference height was assumed as the measurement performed by the tape on the cut tree. The average error of automatic determination of the tree height by the algorithm GNOM based on the TLS point clouds amounted to 6.3% and was slightly higher than when using the manual method of measurements on profiles in the TerraScan (Terrasolid; the error of 5.6%). The relatively high value of the error may be mainly related to the small number of points TLS in the upper parts of crowns. The crown height measurement showed the error of +9.5%. The reference in this case was the tape measurement performed already on the trunks of cut pine trees. Processing the clouds of points by the algorithms GNOM for 16 analyzed trees took no longer than 10 min. (37 sec. /tree). The paper mainly showed the TLS measurement innovation and its high precision in acquiring biometric data in forestry, and at the same time also the further need to increase the degree of automation of processing the clouds of points 3D from terrestrial laser scanning.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 123-138
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Błędy NMT i NMPT wynikające z automatycznej klasyfikacji chmury punktów pochodzącej z lotniczego skaningu laserowego przy zastosowaniu oprogramowania TerraScan
DTM and DSM errors resulting from automatic classification of a cloud of points which originate from aerial laser scanning using TerraScan software
Autorzy:
Kwoczynska, B.
Powiązania:
https://bibliotekanauki.pl/articles/60059.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Stowarzyszenie Infrastruktura i Ekologia Terenów Wiejskich PAN
Tematy:
lotniczy skaning laserowy
chmura punktow
przetwarzanie danych
klasyfikacja manualna
klasyfikacja automatyczna
program TerraScan
Opis:
Kluczowym zagadnieniem w przetwarzaniu danych pochodzących z lotniczego skaningu laserowego jest filtracja, rozumiana jako procedura eliminacji wszystkich punktów, które nie należą do określonej powierzchni z pomierzonej „chmury punktów”. Pozwala ona wyznaczyć przebieg powierzchni topograficznej, czyli określić NMT. Wstępna klasyfikacja punktów przeprowadzana jest zazwyczaj automatycznie z wykorzystaniem różnego rodzaju algorytmów do automatycznej filtracji danych laserowych. W zależności od zastosowanego oprogramowania istnieje możliwość korekty takiej filtracji poprzez ręczną klasyfikację. W publikacji dokonano analizy algorytmów wykorzystywanych w oprogramowaniu TerraScan stosowanych do klasyfikacji „chmury punktów”. Porównano wyniki otrzymane przy zastosowaniu algorytmów o różnych parametrach oraz zwrócono uwagę na najczęściej pojawiające się błędy NMT i NMPT. Badania przeprowadzone zostały na danych pochodzących ze skaningu lotniczego wykonanego w 2011 roku, obejmującego część województwa śląskiego. Skanowanie zostało wykonane z pokładu samolotu skanerem LMS-Q680i ze średnią wysokością lotu 850 metrów, a nalot przebiegał w dwóch kierunkach: północ-południe oraz wschód-zachód z kątem poprzecznym skanowania wynoszącym odpowiednio 25 i 30 stopni. Średnia gęstość skanowania w jednym przelocie wynosiła 6 punktów na metr kwadratowy.
Key problem in processing data originating from airborne laser scanning is filtration understood as a procedure of elimination of all points which do not belong to specific surface in measured cloud of points. It enables determination of topographic surface course, that is determine DTM. Preliminary classification is usually performed automatically with use of various algorithms for automatical filtration of laser scanning data. Depending on used program exist possibilities of such filtration correction through manual classification. In the paper analysis of automats applied in classification of cloud of points originating from airborne laser scanning on example of TerraScan program. Results obtained using automates with different parameters were compared, and the most often appearing errors DTM and DSM were taken into consideration. Investigations were performed on data originating from the airborne laser scanning performed in 2011, containing a part of Silesia Voivodship. The scanning was performed from a plane using LMS-Q680i scanner with the average height of flight about 850 meters, and the flight was proceeded in two directions: northsouth, and east-west with transverse scanning angle respectively 25 and 30 grades. Average density of scanning in single flight came to 6 points on a square meter.
Źródło:
Infrastruktura i Ekologia Terenów Wiejskich; 2013, 2/II
1732-5587
Pojawia się w:
Infrastruktura i Ekologia Terenów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Czynniki wpływające na gęstość chmury punktów „leżących na gruncie” lotniczego skanowania laserowego na przykładzie danych pochodzących z projektu ISOK
Factors influencing ground point density from AirborneLaser Scanning – a case study with ISOK Project data
Autorzy:
Maślanka, M.
Powiązania:
https://bibliotekanauki.pl/articles/345800.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
ISOK
znormalizowany numeryczny model pokrycia terenu
numeryczny model terenu
numeryczny model pokrycia terenu
zwarcie drzewostanu
normalized Digital Surface Model
digital terrain model (DTM)
Digital Surface Model
canopy cover
Opis:
Obszary gęsto pokryte roślinnością charakteryzują się obniżoną gęstością chmury punktów „leżących na gruncie”. Wpływa to negatywnie na odwzorowanie szczegółów terenowych na danym obszarze. W Polsce w latach 2011 - 2015 pozyskano dane lotniczego skanowania laserowego w ramach projektu Informatyczny Systemu Osłony Kraju (ISOK) przed nadzwyczajnymi zagrożeniami. Ze względu na coraz częstsze wykorzystanie tych danych do generowania NMT, należy ocenić czynniki wpływające na gęstość chmury punktów pod obszarami gęsto pokrytymi roślinnością. Praca przedstawia przykład takiej oceny. W pierwszym etapie wykonano modele rastrowe: gęstości chmury punktów, procentowego udziału punktów gruntu, liczby szeregów, NMT, nachylenia terenu, kąta skanowania, zwarcia drzewostanów i znormalizowanego numerycznego modelu pokrycia terenu (zNMPT). W dalszej części dla punktów testowych przeprowadzono analizę związków między zmiennymi na podstawie wielkości z wygenerowanych modeli oraz obiektów wektorowych. W wyniku przeprowadzonych badań stwierdzono, że gęstość chmury punktów warunkowana jest głównie przez zwarcie drzewostanów, wysokość szaty roślinnej i kąt skanowania, przy czym pewien wpływ na kształtowanie się gęstości chmury punktów ma również nachylenie terenu oraz liczba szeregów.
Areas covered with vegetation are characterized by a lower density of ground points. This issue has a negative impact on the accuracy of terrain representation and terrain details that could be detected. Country-wide ALS data was delivered in Poland within the ISOK Project (the IT System of the Country’s Protection against Extreme Hazards) between 2011 and 2015. Considering the increasing use of this data in the process of generation of Digital Terrain Models (DTM), factors affecting the density of ground points in areas covered with vegetation should be carefully assessed. During the first step various raster models were generated: the point cloud density, the percentage of ground points, the point source number, the slope, the scan angle, the canopy cover, the DTM and the normalized Digital Surface Model (nDSM). In the next step statistical analysis of relations between variables, basing on values from generated models and vector objects, was performed. The results showed that the density of ground points is mainly determined by the canopy cover, the forest height and the scan angle; however it is also influenced by the slope and the point source number.
Źródło:
Roczniki Geomatyki; 2016, 14, 4(74); 511-519
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep learning for automatic LiDAR point cloud processing
Głębokie uczenie w automatycznym przetwarzaniu chmury punktów skanowania laserowego
Autorzy:
Dominik, Wojciech
Bożyczko, Marcin
Tułacz-Maziarz, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/27322929.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
deep learning
LiDAR
point cloud
classification
automation
głębokie uczenie
chmura punktów
klasyfikacja
automatyzacja
Opis:
The paper presents the method of automatic point cloud classification that has been developed by OPEGIEKA. The method is based on deep learning techniques and consists of an in- house developed algorithm of point cloud transformation to a regular array accompanied by internally designed convolutional neural network architecture. The developed workflow as well as experiences from its application during the execution of the CAPAP project are described. Results obtained on real project data as well as statistics obtained on the ISPRS 3D semantic labelling benchmark with the use of OPEGIEKA's method are presented. The achieved results place OPEGIEKA in the top 3 of the classification accuracy rating in the ISPRS benchmark. The implementation of OPEGIEKA's solution into LiDAR point clouds classification workflow allowed to reduce the amount of necessary manual work.
W artykule przedstawiono metodę automatycznej klasyfikacji chmur punktów opracowaną przez firmę OPEGIEKA. Metoda opiera się na technice głębokiego uczenia i składa się z opracowanego przez autorów algorytmu transformacji chmury punktów do regularnej macierzy, któremu towarzyszy wewnętrznie zaprojektowana architektura konwolucyjnej sieci neuronowej. W tekście opisano opracowany ciąg technologiczny uwzględniający metodykę na przykładzie doświadczenia podczas realizacji projektu CAPAP. Przedstawiono wyniki uzyskane na rzeczywistych danych projektowych oraz statystyki uzyskane na benchmarku ISPRS dotyczącego etykietowania semantycznego z wykorzystaniem metody OPEGIEKA. Osiągnięte wyniki plasują OPEGIEKA w pierwszej 3 rankingu dokładności klasyfikacji w benchmarku ISPRS. Wdrożenie rozwiązania OPEGIEKA do przepływu pracy klasyfikacji chmur punktów LiDAR pozwoliło zmniejszyć ilość niezbędnej pracy manualnej.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2021, 33; 13--22
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design of a testing method to assess the correctness of a point cloud colorization algorithm
Opracowanie metody oceny poprawności działania algorytmu kolorowania chmury punktów
Autorzy:
Pleskacz, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131127.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
data integration
algorithm testing
data quality
scan colorization
integracja danych
testowanie algorytmów
jakość danych
koloryzacja skanów
Opis:
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 91-104
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Determination of the number of trees in the Bory Tucholskie National Park using crown delineation of the canopy height models derived from aerial photos matching and airborne laser scanning data
Określanie liczby drzew w Parku Narodowym Bory Tucholskie metodą segmentacji koron na modelach wysokościowych pochodzących z dopasowania zdjęć lotniczych oraz lotniczego skanownia laserowego
Autorzy:
Wężyk, P.
Hawryło, P.
Szostak, M.
Powiązania:
https://bibliotekanauki.pl/articles/130706.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
image segmentation
object classification
point clouds
airborne laser scanning
National Park
Bory Tucholskie
segmentacja obrazu
klasyfikacja obiektowa
chmury punktów
lotnicze skanowanie laserowe
Park Narodowy
Opis:
In recent years the term "precise forestry" has been used more and more often, referring to a modern and sustainable model of forest management. Functioning of such management of wood biomass resources is based, among others, on precisely defined and log-term monitored selected forest taxation parameters of single trees and whole forest stands based on modern geoinformation technologies, including Airborne Laser Scanning (ALS) and digital photogrammetry. The purpose of the work was the analysis of the usefulness of the CHM (Canopy Height Model) generated from the image-based point cloud or ALS technology to define the number of trees using the method of the segmentation of single Scots pine (Pinus sylvestris L.) crowns. The study was carried out in the Scots pine stands located in the Bory Tucholskie National Park (Poland). Due to the intentional lack of certain silviculture treatments, over the recent decades, these forest stands have been characterized by relatively high tree density, compared to managed forests. The CHM was generated from digital airborne photos (CIR composition; GSD 0.15 m) and on the other hand - from the ALS point clouds (4 points/m2 ; ISOK project). To generate point clouds from airborne photos using stereomatching method, the PhotoScan Professional (Agisoft) software was applied. The CHM coming from the Image-Based Point Cloud (CHM_IPC; GSD: 0.30 m) and ALS data (CHM_ALS; GSD: 0.75 m) were generated using FUSION (USDA Forest Service) software. The segmentation of tree crowns was carried out in eCognition Developer (TRIMBLE GeoSpatial) software. Apart from height models, also spectral information was used (so-called true CIR orthophotomaps; GSD: 0.3 and 0.75 m). To assess the accuracy of the obtained results, the ground truth data from 248 reference areas were used. The carried out analyses showed that in forest stands of younger age classes (< 120 years) better results were achieved applying the method of image matching (CHM_IPC), while in the case of older stands (> 120 years) the accuracy of the detection rate of tree crowns was the highest when CHM_ALS model was applied. The mean percentage error (defined by the number of trees, based on the detection of single pine crowns), calculated based on 248 ground truth areas was 0.89%, which shows a great potential of digital photogrammetry (IPC) and GEOBIA. In case of almost full nationwide cover in Poland of airborne digital images (present IPC models) and ALS point clouds (DTM and DSM), at almost 71% forest stands in the Polish State Forests National Forest Holding (PGL LP), one can assume wide application of geodata (available free of charge) in precise modelling of selected tree stand parameters all over Poland.
W ostatnich latach coraz częściej w odniesieniu do nowoczesnej i zrównoważonej gospodarki leśnej używa się terminu "precyzyjne leśnictwo". Funkcjonowanie takiego modelu zarządzania zasobami biomasy drzewnej opiera się m.in. na dokładnie określonych i monitorowanych cyklicznie wybranych parametrach taksacyjnych drzewostanów i pojedynczych drzew w oparciu o nowoczesne technologie geoinformacyjne, w tym lotnicze skanowanie laserowe (ang. ALS) oraz fotogrametrię cyfrową. Celem pracy była analiza przydatności Modelu Koron Drzew (ang. CHM) generowanego z chmur punktów pochodzących z automatycznego dopasowania cyfrowych zdjęć lotniczych (ang. Image-Based Point Cloud) lub z technologii ALS w celu określania liczby drzew metodą segmentacji pojedynczych koron sosen. Badania realizowano w drzewostanach sosnowych (Pinus sylvestis L.) na obszarze Parku Narodowego "Bory Tucholskie". Drzewostany te poprzez celowe zaniechanie w ostatnich dekadach pewnych zabiegów hodowlanych charakteryzowały się stosunkowo dużym zagęszczeniem drzew w porównaniu do drzewostanów gospodarczych. Model Koron Drzew wygenerowano w jednym wariancie ze zdjęć lotniczych CIR (GSD 0.15 m) a w drugim z chmur punktów ALS (4 pkt/m2 ; CODGiK ISOK). Do generowania chmur punktów ze zdjęć lotniczych metodą dopasowania zastosowano oprogramowanie Photoscan Professional (Agisoft). Modele Koron Drzew pochodzące z dopasowania zdjęć lotniczych (CHM_IPC; GSD: 0.30 m) oraz z danych ALS (CHM_ALS; GSD: 0.75 m) zostały wygenerowane w oprogramowania FUSION (USDA Forest Service). Segmentację koron prowadzono w oprogramowaniu eCognition Developer. Oprócz modeli wysokościowych wykorzystano także informację spektralną (tzw. prawdziwe ortofotomapy CIR; GSD: 0.3 i 0.75 m). Do oceny dokładności otrzymanych wyników wykorzystano dane pochodzące z 248 powierzchni referencyjnych. Przeprowadzona analiza wykazała, że w drzewostanach młodszych klas wieku (< 120 lat), lepsze wyniki można osiągnąć stosując metody dopasowania zdjęć (CHM_IPC) natomiast w drzewostanach starszych (> 120 lat) dokładność wykrywania koron drzew jest najwyższa przy stosowaniu wariantu CHM_ALS. Średni błąd procentowy określania liczby drzew w oparciu o detekcję pojedynczych koron sosen obliczony na podstawie 248 powierzchni referencyjnych wyniósł 0.89% co świadczy o ogromnym potencjale fotogrametrii cyfrowej (metod dopasowania zdjęć) oraz analizy obrazu (OBIA; Object-Based Image Analysis). W aspekcie niemal całkowitego pokrycia kraju danymi ALS oraz blisko 70% udziału drzewostanów sosnowych w Lasach Państwowych można założyć szerokie wykorzystanie tych nieodpłatnie dostępnych geodanych w celu zbudowania modelu precyzyjnego leśnictwa dla obszaru całego kraju.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 137-156
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dokładność pozycjonowania końcówki roboczej robota równoległego typu delta na podstawie analizy „chmury punktów”
Positioning accuracy of end efector of the delta robot based on the point cloud
Autorzy:
Łygas, K.
Paszko, M.
Powiązania:
https://bibliotekanauki.pl/articles/316488.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
robot równoległy typu delta
silniki krokowe
chmura punktów
delta robot
stepper motors
point cloud
Opis:
W artykule zaproponowano metodę wyznaczenia dokładności statycznej pozycjonowania końcówki roboczej manipulatora równoległego typu delta. Obliczenia dokonano dla różnych rozdzielczości członów napędowych. Dokonano również estymacji dokładności pozycjonowania dla przestrzeni roboczej o dużej liczbie punktów.
This paper proposes a method of determining a static accuracy of positioning of end effector of delta robot. Calculations were made for different resolutions of actuators. Also the estimation accuracy of the positioning was made for the working space with a large number of points.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2016, 17, 12; 1160-1152
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Filtracja chmur punktów za pomocą dopasowania danych 2D-3D
Point Cloud Filtering Using 2D-3D Matching Method
Autorzy:
Rzepka, Karol
Kulczykowski, Michał
Wittels, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/2090882.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
chmury punktów 3D
filtracja chmur punktów
dopasowanie 2D
3D point clouds
point cloud filtering
2D matching
Opis:
Precyzja jest cechą kluczową dla rozwoju systemów pomiarowych 3D. Wykorzystywane do takich pomiarów kamery Time-of-Flight tworzą chmury punktów zawierające dużo szumu, przez co mogą się okazać mało użyteczne w dalszej analizie. W ramach badań nad rozwiązaniem tego problemu proponujemy nową metodę precyzyjnego filtrowania chmur punktów. Do usuwania punktów odstających z pomiarów 3D, zarejestrowanych za pomocą kamery Time-of-Flight, wykorzystujemy informacje 2D z kamery z obiektywem telecentrycznym. Zastosowanie kamery telecentrycznej pozwala uzyskać najbardziej precyzyjną informację o konturze obiektu, co przekłada się na precyzyjne filtrowanie rekonstrukcji obiektu w 3D.
Precision is a key feature for the development of 3D measurement systems. Time-of-flight cameras used for such measurements create point clouds containing a lot of noise, which may not be useful for further analysis. In our research to solve this problem, we propose a new method for precise point cloud filtering. We use 2D information from a telecentric lens camera to remove outlier points from 3D measurements recorded with a Time-of-Flight camera. The use of a telecentric camera allows us to obtain the most precise information about the contour of an object, which allows us to accurately filter the object reconstruction in 3D.
Źródło:
Pomiary Automatyka Robotyka; 2022, 26, 2; 15--21
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
From a point cloud to a 3D model – an exercise for users of AutoCAD and revit
Tworzenie modeli 3D z chmury punktów
Autorzy:
Kotarska-Lewandowska, B.
Powiązania:
https://bibliotekanauki.pl/articles/118824.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Geometrii i Grafiki Inżynierskiej
Tematy:
laser scanning
point clouds
3D modelling
BIM
reverse engineering
skanowanie laserowe
chmury punktów
modelowanie 3D
inżynieria wsteczna
Opis:
At the Faculty of Civil and Environmental Engineering students learn about various methods of presenting spatial forms - from descriptive geometry to 3D modelling. Both educational and commercial 3D software are continually refined and enriched with everimproving options, this applies also to commonly used Autodesk products such as AutoCAD or Revit. One of these novelties supporting building information modelling is the option to work on point clouds that support the design process by providing the actual context. After attaching a point cloud to a model, it can be used as a drawing aid, viewed in a different mode, etc. Considering the fact that the above-mentioned programs are already used by students in early semesters and that they are a basic tool in the office, it is worth using a new tool in a 3D CAD course. The article presents a basic exercise that may prove to be an interesting alternative to a modelling course as it is used to practice basic skills such as rotation, change of reference, etc. In addition, students gain proficiency in transferring data between a few required programs. This task seems to favour the integration of functional skills into several programs but at a fundamental level and can be a great topic for group projects. The task described in this article required the preparation of a point cloud that was obtained using a Leica P30 laser scanner and then pre-processed in Cyclone software.
Obecnie można zaobserwować wpływ nowych technologii na zmieniający się warsztat inżyniera projektanta w zakresie wytwarzania dokumentacji technicznej. Rozwój technologii BIM służących do wszechstronnego digitalizowania informacji o obiekcie oraz równolegle skaningu laserowego powoduje, że wieloaspektowe działania w gospodarce budowlanej przenoszą się do środowiska cyfrowego. W wielu krajach, w tym w Polsce potrzebne staje się dostosowanie norm i certyfikatów dotyczących dokumentacji budowlanych, ale kierunek transformacji jest już znany i wraz z nim następuje dostosowanie środowiska edukacyjnego. W sektorze budownictwa intensywny rozwój można zauważyć w dziedzinie inżynierii odwrotnej czyli wprowadzenia obiektów rzeczywistych do przestrzeni wirtualnej w celu dalszego przetwarzania. Zadanie to może być realizowane za pomocą urządzeń do mierzenia zdalnego, np. za pomocą skanerów laserowych, których zaletą jest zbieranie dużej liczby różnorodnych informacji o wysokiej jakości w bardzo krótkim czasie. Ponieważ technologie skaningu są coraz szerzej wykorzystywane do prac diagnostyczno-inwentaryzacyjnych, dlatego też w praktyce inżynierskiej pojawiać się będzie coraz częściej konieczność działania w chmurach punktów. W referacie przedstawiono propozycję tematu ćwiczenia dla studentów kierunków budowlanych w ramach zajęć dotyczących modelowania 3D. Zadanie polega na utworzeniu modelu trójwymiarowego na podstawie pomiaru uzyskanego skanerem laserowym Leica P30. Ze względu na maksymalną liczbę punktów w chmurze w prezentowanych programach pliki wyjściowe muszą być odpowiednio wyczyszczone i zmniejszone. Artykuł przedstawia zastosowanie wybranych narzędzi do tworzenia geometrii pod kątem przygotowywanego ćwiczenia w popularnych programach AutoCAD i Revit.
Źródło:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics; 2017, 30; 17-21
1644-9363
Pojawia się w:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie numerycznych modeli powierzchni oraz terenu w Tatrach na podstawie chmury punktów z lotniczego skaningu laserowego (ALS)
Generation of digital surface and terrain models of the Tatras Mountains based on airbone laser scanning (ALS) point cloud
Autorzy:
Wężyk, P
Borowiec, N.
Szombara, S.
Wańczyk, R.
Powiązania:
https://bibliotekanauki.pl/articles/131204.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
ALS
NMPT
NMT
znormalizowany NMPT
Tatry
DTM
DSM
nDSM
Tatra Mts.
Opis:
Celem pracy było zaprezentowanie metod zastosowanych w półautomatycznym procesie generowania numerycznych modeli bazujących na chmurze punktów zarejestrowanych technologią lotniczego skaningu laserowego (ang. Airborne Laser Scanning; ALS) w trudnych obszarach wysokogórskich Tatr. Teren badań o powierzchni około 60 km2, obejmował masyw Kasprowego Wierchu, Kuźnice oraz fragment miasta Zakopane ze stokami Gubałówki. Dane ALS pozyskano w 2007 roku w 33 pasach (RIEGL LMS-Q560), w zagęszczeniu, co najmniej 20 pkt/m2. Wpasowania połączonych skanów dokonano w oparciu o pomiary tachimetryczne powierzchni planarnych (dachy budynków) i dowiązanie przez dGPS. Błędy położenia punktów w płaszczyźnie poziomej wahały się w przedziale -0.09÷+0.28 m, a błędy wysokościowe w przedziale od -0.12÷0.14 m (HAE). Wykonawca dostarczył dane osobno z 2 skanerów, dla każdego: pierwsze i ostatnie odbicie impulsu. Ze względu na duży rozmiar plików podzielono ja na mniejsze generując 353 obszary robocze o rozmiarze 500·500 m dla każdego skanera i numeru odbicia. Przeprowadzono filtrację chmury punktów oraz ich klasyfikację do zestawów danych: „low points”, „ground", „low vegetation”, „medium vegetation”, „high vegetation” oraz „air points”. W celu wygenerowania NMPT stworzono klasę „ground_inverse" wymagającą kontroli operatora wspomagającego się ortofotomozaiką cyfrową (RGB\CIR; kamera Vexcel). Dla każdego przetwarzanego obszaru roboczego wygenerowano NMT oraz NMPT. Na podstawie zweryfikowanych modeli wygenerowano znormalizowany numeryczny model powierzchni terenu obrazujący wysokości względne obiektów występujących w obszarze opracowania (drzewa, piętro kosodrzewiny, budynki, linie energetyczne, liny wyciągów, etc). Analizy przestrzenne bazujące na wygenerowanych modelach otwierają zupełnie nowe możliwości licznym badaniom naukowym.
The work presented was aimed at constructing a semi-automatic work-flow of Digital Surface Model (DSM) and Digital Terrain Model (DTM) generation based on an ALS point cloud gathered in a very difficult mountain area. The study area located in the Polish part of the Tatras Mountains covered about 60 km2 and included the Kasprowy Wierch, Kuźnice, and downtown Zakopane with the Gubałówka. ALS data, collected in 2007, consisted of 33 scans (minimum density of 20 points/m2). To combine all the scans and match them to the coordinate system, planar surfaces (building roofs) were measured using a tachimeter and a dGPS survey. Position errors of the ALS points in the horizontal plane varied from -0.09m to +0.28m; height errors ranged from -0.12m to 0.14m (HAE). The operator delivered the data separately from 2 Riegl Q- 560 scanners, for every FE and LE. The ALS files, due to their huge size, were divided into smaller ones and generated 353 sheets (500x500 m in size ) for every scanner and number of returns combination. The point cloud was filtered and assigned to the following levels: "low points”, "ground", "low vegetation”, "medium vegetation”, "high vegetation” and "air points”. To generate a DSM, a special class called "ground_inverse" was created; it required an operator control supported by a digital orthophoto (RGB\CIR; Vexcel camera). For every sheet processed, the DTM and DSM were generated. Those verified models served as a basis for developing an nDSM model using the ER Mapper software. The nDSM shows relative heights of objects in the study area (forest stands, dwarf mountain pines, buildings, power lines, ski lifts, etc.). Development of a precise DSM and nDSM as well as analyses of the nDSM open new perspectives for numerous scientific projects.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18b; 651-661
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Gęstość chmury punktów pochodzącej z mobilnego skanowania laserowego
Density of point clouds in mobile laser scanning
Autorzy:
Warchoł, A.
Powiązania:
https://bibliotekanauki.pl/articles/130766.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
mobilny skaning laserowy
chmura punktów
gęstość
mobile laser scanning
point clouds
density
Opis:
Dzięki intensywnemu rozwojowi technologia LiDAR (Light Detection And Ranging) jest w ostatnim czasie co raz bardziej popularną metodą pozyskiwania informacji przestrzennej. Rejestrowanie przestrzeni za pomocą skanerów laserowych zamontowanych na mobilnej platformie łączy w sobie szybkość pozyskiwania gęstej chmury punktów z dokładnościami centymetrowymi. Jest to więc bardzo skuteczne rozwiązanie do pozyskiwania informacji o obiektach wydłużonych (liniowych), a także ich otoczeniu. Wynikowa chmura punktów, aby mogła być wykorzystywana do poszczególnych zastosowań, musi spełniać określone parametry, zarówno dokładnościowe jak i jakościowe. Zwykle zamawiający określa wartości parametrów, które w projekcie należy uzyskać. O ile w kwestii parametrów dokładnościowych nie pojawiają się rozbieżności co do metodyki, o tyle w przypadku gęstości chmury punktów sytuacja nie jest jednoznaczna. Ze względu na specyfikę danych MLS (Mobile Laser Scanning), nie można tu zastosować bezpośrednio rozwiązań z ALS (Airborne Laser Scanning). Podawanie również gęstości chmury punktów jako ilorazu liczby punktów przez „płaskie” pole powierzchni powstające z rzutu granicy projektu na płaszczyznę, powoduje mylne wrażenie o gęstości chmury punktów na zeskanowanych obiektach. A właśnie gęstość chmury punktów na obiektach jest kluczowym kryterium w kwestii jej przydatności do dalszego przetwarzania i wykorzystania (np. możliwość rozpoznania obiektów na chmurze). W niniejszym artykule, na trzech polach testowych, zbadano trzy różne metody obliczania gęstości zbioru danych LiDAR dzieląc liczbę punktów: najpierw przez „płaskie” pole powierzchni, następnie przez „trójwymiarowe”, a kończąc na metodzie voxelowej. Najbardziej wiarygodną wydaje się być metoda voxelowa, która oprócz samych lokalnych wartości gęstości, przedstawia ich przestrzenny rozkład.
The LiDAR (Light Detection And Ranging) technology is becoming a more and more popular method to collect spatial information. The acquisition of 3D data by means of one or several laser scanners mounted on a mobile platform (car) could quickly provide large volumes of dense data with centimeter-level accuracy. This is, therefore, the ideal solution to obtain information about objects with elongated shapes (corridors), and their surroundings. Point clouds used by specific applications must fulfill certain quality criteria, such as quantitative and qualitative indicators (i.e. precision, accuracy, density, completeness).Usually, the client fixes some parameter values that must be achieved. In terms of the precision, this parameter is well described, whereas in the case of density point clouds the discussion is still open. Due to the specificities of the MLS (Mobile Laser Scanning), the solution from ALS (Airborne Laser Scanning) cannot be directly applied. Hence, the density of the final point clouds, calculated as the number of points divided by "flat" surface area, is inappropriate. We present in this article three different ways of determining and interpreting point cloud density on three different test fields. The first method divides the number of points by the "flat" area, the second by the "three-dimensional" area, and the last one refers to a voxel approach. The most reliable method seems to be the voxel method, which in addition to the local density values also presents their spatial distribution.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 149-161
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies