Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "chmury punktów" wg kryterium: Wszystkie pola


Tytuł:
Identyfikacja obiektów na podstawie chmury punktów
Objects identification based on a point cloud
Autorzy:
Dzierżanowski, Ł.
Koza, R.
Powiązania:
https://bibliotekanauki.pl/articles/377125.pdf
Data publikacji:
2013
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
identyfikacja obiektów
chmura punktów
skanowanie przestrzenne
algorytm ICP
drzewo kd
Opis:
Artykuł przedstawia problematykę identyfikacji obiektów w obrazach uzyskanych ze skanerów przestrzennych z wykorzystaniem chmury punktów. Przybliża zasadę algorytmu ICP, popularnej metody wykorzystywanej w celu dopasowania do siebie dwóch chmur punktów w oparciu o wskazanie najbliższego sąsiada. Ponadto zaprezentowano metodę kd-drzew znacznie zwiększającą wydajność algorytmu ICP, co zostało poparte wynikami działania autorskiej aplikacji służącej do dopasowywania chmur punktów z wykorzystaniem różnych metod: kd-drzew, triangulacji Delaunay oraz metody Brute-Force.
The paper presents the aspects of objects identification based on 3D scanning with use of the point cloudes. The ICP, a popular algorithm for point cloud adjustment based on the nearest neighbor iteration. Moreover a kd-tree method for ICP efficiency improving has been described along with the results of testing the authors’ program for point cloud adjustment based on kd-tree, Delaunay’s triangulation and brute force methods.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2013, 76; 135-142
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Gęstość chmury punktów pochodzącej z mobilnego skanowania laserowego
Density of point clouds in mobile laser scanning
Autorzy:
Warchoł, A.
Powiązania:
https://bibliotekanauki.pl/articles/130766.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
mobilny skaning laserowy
chmura punktów
gęstość
mobile laser scanning
point clouds
density
Opis:
Dzięki intensywnemu rozwojowi technologia LiDAR (Light Detection And Ranging) jest w ostatnim czasie co raz bardziej popularną metodą pozyskiwania informacji przestrzennej. Rejestrowanie przestrzeni za pomocą skanerów laserowych zamontowanych na mobilnej platformie łączy w sobie szybkość pozyskiwania gęstej chmury punktów z dokładnościami centymetrowymi. Jest to więc bardzo skuteczne rozwiązanie do pozyskiwania informacji o obiektach wydłużonych (liniowych), a także ich otoczeniu. Wynikowa chmura punktów, aby mogła być wykorzystywana do poszczególnych zastosowań, musi spełniać określone parametry, zarówno dokładnościowe jak i jakościowe. Zwykle zamawiający określa wartości parametrów, które w projekcie należy uzyskać. O ile w kwestii parametrów dokładnościowych nie pojawiają się rozbieżności co do metodyki, o tyle w przypadku gęstości chmury punktów sytuacja nie jest jednoznaczna. Ze względu na specyfikę danych MLS (Mobile Laser Scanning), nie można tu zastosować bezpośrednio rozwiązań z ALS (Airborne Laser Scanning). Podawanie również gęstości chmury punktów jako ilorazu liczby punktów przez „płaskie” pole powierzchni powstające z rzutu granicy projektu na płaszczyznę, powoduje mylne wrażenie o gęstości chmury punktów na zeskanowanych obiektach. A właśnie gęstość chmury punktów na obiektach jest kluczowym kryterium w kwestii jej przydatności do dalszego przetwarzania i wykorzystania (np. możliwość rozpoznania obiektów na chmurze). W niniejszym artykule, na trzech polach testowych, zbadano trzy różne metody obliczania gęstości zbioru danych LiDAR dzieląc liczbę punktów: najpierw przez „płaskie” pole powierzchni, następnie przez „trójwymiarowe”, a kończąc na metodzie voxelowej. Najbardziej wiarygodną wydaje się być metoda voxelowa, która oprócz samych lokalnych wartości gęstości, przedstawia ich przestrzenny rozkład.
The LiDAR (Light Detection And Ranging) technology is becoming a more and more popular method to collect spatial information. The acquisition of 3D data by means of one or several laser scanners mounted on a mobile platform (car) could quickly provide large volumes of dense data with centimeter-level accuracy. This is, therefore, the ideal solution to obtain information about objects with elongated shapes (corridors), and their surroundings. Point clouds used by specific applications must fulfill certain quality criteria, such as quantitative and qualitative indicators (i.e. precision, accuracy, density, completeness).Usually, the client fixes some parameter values that must be achieved. In terms of the precision, this parameter is well described, whereas in the case of density point clouds the discussion is still open. Due to the specificities of the MLS (Mobile Laser Scanning), the solution from ALS (Airborne Laser Scanning) cannot be directly applied. Hence, the density of the final point clouds, calculated as the number of points divided by "flat" surface area, is inappropriate. We present in this article three different ways of determining and interpreting point cloud density on three different test fields. The first method divides the number of points by the "flat" area, the second by the "three-dimensional" area, and the last one refers to a voxel approach. The most reliable method seems to be the voxel method, which in addition to the local density values also presents their spatial distribution.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 149-161
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep learning for automatic LiDAR point cloud processing
Głębokie uczenie w automatycznym przetwarzaniu chmury punktów skanowania laserowego
Autorzy:
Dominik, Wojciech
Bożyczko, Marcin
Tułacz-Maziarz, Karolina
Powiązania:
https://bibliotekanauki.pl/articles/27322929.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
deep learning
LiDAR
point cloud
classification
automation
głębokie uczenie
chmura punktów
klasyfikacja
automatyzacja
Opis:
The paper presents the method of automatic point cloud classification that has been developed by OPEGIEKA. The method is based on deep learning techniques and consists of an in- house developed algorithm of point cloud transformation to a regular array accompanied by internally designed convolutional neural network architecture. The developed workflow as well as experiences from its application during the execution of the CAPAP project are described. Results obtained on real project data as well as statistics obtained on the ISPRS 3D semantic labelling benchmark with the use of OPEGIEKA's method are presented. The achieved results place OPEGIEKA in the top 3 of the classification accuracy rating in the ISPRS benchmark. The implementation of OPEGIEKA's solution into LiDAR point clouds classification workflow allowed to reduce the amount of necessary manual work.
W artykule przedstawiono metodę automatycznej klasyfikacji chmur punktów opracowaną przez firmę OPEGIEKA. Metoda opiera się na technice głębokiego uczenia i składa się z opracowanego przez autorów algorytmu transformacji chmury punktów do regularnej macierzy, któremu towarzyszy wewnętrznie zaprojektowana architektura konwolucyjnej sieci neuronowej. W tekście opisano opracowany ciąg technologiczny uwzględniający metodykę na przykładzie doświadczenia podczas realizacji projektu CAPAP. Przedstawiono wyniki uzyskane na rzeczywistych danych projektowych oraz statystyki uzyskane na benchmarku ISPRS dotyczącego etykietowania semantycznego z wykorzystaniem metody OPEGIEKA. Osiągnięte wyniki plasują OPEGIEKA w pierwszej 3 rankingu dokładności klasyfikacji w benchmarku ISPRS. Wdrożenie rozwiązania OPEGIEKA do przepływu pracy klasyfikacji chmur punktów LiDAR pozwoliło zmniejszyć ilość niezbędnej pracy manualnej.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2021, 33; 13--22
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wizualizacja i przetwarzanie chmury punktów lotniczego skaningu laserowego
Visualization and processing of airborne laser scanning points cloud
Autorzy:
Twardowski, M.
Marmol, U.
Powiązania:
https://bibliotekanauki.pl/articles/130604.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
lotniczy skaning laserowy
wizualizacja
przetwarzanie danych
airborne laser scanning (ALS)
visualization
data processing
Opis:
Lotniczy skaning laserowy stwarza szerokie pole dla badań naukowych i prac badawczych nad rozwojem nowych algorytmów i metod analizy danych przestrzennych. Niestety większość istniejących oprogramowań do przetwarzania danych laserowych nie pozwala na modyfikację istniejących procedur, niekiedy wręcz działając na zasadzie „czarnej skrzynki”. Wejściowe dane laserowe ulegają bliżej nie określonym operacjom, przynosząc trudne do zweryfikowania wyniki, co zdecydowanie ogranicza wolność naukową w pracach badawczych. Dlatego w Katedrze Geoinformacji, Fotogrametrii i Teledetekcji Środowiska AGH narodziła się idea stworzenia własnego narzędzia, opartego na licencji OpenSource, które nie będzie obarczone żadnymi ograniczeniami. Były to główne przesłanki do powstania projektu LIDARView. Założeniem projektu jest otwarty dostęp do kodu źródłowego obiektów, co pozwoli na udoskonalanie zastosowanych algorytmów. Modularna budowa systemu umożliwi nieograniczone rozwijanie jego potencjału poprzez aktualizację i dodawanie nowych elementów do systemu. Projekt LIDARView jest obecnie w początkowej fazie rozwoju. Oprogramowanie umożliwia podstawowe operacje na chmurze punktów, takie jak: powiększanie, obracanie i przesuwanie danych laserowych. Zakładka Image pozwala na integrację danych laserowych z danymi obrazowymi. Umożliwia także wykorzystanie obserwacji stereoskopowej w procesie przetwarzania danych lidarowych poprzez możliwość edycji linii nieciągłości i form morfologicznych W zakładce Cloud zostały zaimplementowane algorytmy do klasyfikacji i filtracji chmury punktów. Na obecnym etapie rozwoju zostały zaprogramowane proste filtry usunięcia błędów grubych i rozrzedzenia chmury punktów. Została także wprowadzona procedura automatycznej klasyfikacji chmury danych laserowych na punkty terenowe i punkty pokrycia. Filtracja odbywa się z wykorzystaniem algorytmu częstotliwościowego (Marmol, 2010). Autorzy projektu mają nadzieję, że dzięki otwartej strukturze systemu, projekt LIDARView nie ulegnie stagnacji i będzie rozwijany także w innych ośrodkach badawczych.
Relatively new technology which is laser scanning provides wide area of scientific study and research on new algorithms and spatial analysis methods. Unfortunately most of existing software does not allow for modification of existing procedures, usually working on a “black box” principle, where laser input data are treated with unknown operations, yielding results which are hard to verify. It severely impedes scientific freedom while research is involved. That is why idea of creating own software was born, based on open source license, not encumbered with those restricttions. Those were main reasons for creating LIDARView project. It assumes open access to modules source code allowing for improvements of used algorithms and modular design allows for unrestricted research through additions of new elements. LIDARView project is currently in its starting phase. Software allows for basic point cloud operations such as: zooming, translation and rotation of laser data. Included image module allows for displaying photographs as background for a point cloud. Cloud module can be used for accessing classification and filter functions. Current development state includes: gross error removal, cloud thinning and point classification for topographic surface.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 457-465
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Model BIM z chmury punktów
Design a BIM model from a point cloud at various levels of development
Autorzy:
Borkowski, Andrzej Szymon
Powiązania:
https://bibliotekanauki.pl/articles/129015.pdf
Data publikacji:
2020
Wydawca:
PWB MEDIA Zdziebłowski
Tematy:
modelowanie
technologia BIM
chmura punktów
poziom szczegółowości
modelling
BIM technology
point cloud
development level
Opis:
W artykule przedstawiono podejście obiektowe do modelowania architektonicznego z chmury punktów. Coraz częściej wykorzystywana technologia BIM pozwala na projektowanie na różnych poziomach szczegółowości. Celem pracy było zbudowanie modelu BIM budynku kamienicy z zewnątrz na różnych poziomach szczegółowości. Opisane przykłady mogą zostać wykorzystane przez inwestora lub zamawiającego do zdefiniowania pożądanego przez niego poziomu szczegółowości (dokładności modelu). Przedstawione podejście może zostać zastosowane do inwentaryzacji budowli, rekonstrukcji obiektów zabytkowych czy modernizacji instalacji technologicznych.
The article presents an object-oriented approach to architectural modeling from a points cloud. Increasingly used BIM technology allows designing at various levels of developement. The purpose of the work was to build a BIM model of a tenement building from outside at various levels of development. The described examples can be used by the investor or the contracting authority to define the desired level of development (model accuracy). The presented approach can be applied to the inventory of buildings, reconstruction of historic buildings or modernization of technological installations.
Źródło:
Builder; 2020, 24, 1; 42-44
1896-0642
Pojawia się w:
Builder
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie chmury punktów ze skaningu laserowego w obszarze koron drzew
The lidar point cloud data-based forest canopy modelling
Autorzy:
Wężyk, P.
Powiązania:
https://bibliotekanauki.pl/articles/130582.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
lotniczy skaning laserowy
ALS
inwentaryzacja lasu
wysokość drzew
podstawa korony
powierzchnia warstwy koron
objętość warstwy koron
forest inventory
tree height
canopy base
canopy surface
canopy volume
Opis:
Celem pracy było określenie przydatności i zaproponowanie rozwiązań automatyzacji procesu określania wybranych parametrów taksacyjnych drzewostanów związanych z koronami drzew, w oparciu o dane z lotniczego skaningu laserowego (ALS). Analiza przydatności danych ALS bazuje na pomiarach referencyjnych 432 sosen w obszarze badawczym Milicz (RDLP Wrocław). Osiągnięte wyniki wskazują, iż: (1) wysokość pojedynczych drzew określona na podstawie modelowanej chmury punktów ALS w zależności od użytego algorytmu, prowadzi do niewielkiego zaniżenia wartości (średnia różnica -0.90 m CHM1 lub -0.12 m CHM2); (2) średnia wysokość analizowanych drzewostanów na powierzchniach kołowych określana na podstawie ALS, była wyższa (+0.85 m) od wartości zapisanych w bazie danych SILP (2005) co w efekcie prowadzić może do zaniżenia zasobności drzewostanów w całym obrębie; (3) automatycznie analizowana średnia wysokość drzewostanów sosnowych (95 centyl FE) była wyższa o +0.46 m w stosunku do danych z SILP; (4) automatycznie określona podstawa korony sosny wykazuje błąd zaledwie około 0.56 m; (5) analiza histogramów chmury punktów umożliwiła określenie długości korony z przeszacowaniem o +0.44 m w stosunku do danych referencyjnych; (6) modelowanie warstwy koron otwiera dyskusje na temat homogeniczności jednowiekowych i jednogatunkowych pododdziałów oraz istniejącego podziału przestrzennego. Nowa metoda inwentaryzacji leśnej bazująca na technologii pozyskiwania danych ALS i modelowaniu chmury punktów ma duże szanse na wdrożenie w lasach Polski o powinno przynieść ze sobą wzrost dokładności jak i obniżyć koszty prac urządzeniowych.
The study was aimed at determining the utility of and to improve the understanding of the airborne laser scanning (ALS) technology in acquisition of selected parameters of canopy layers for individual trees and whole stands. This approach, based on ALS data (TopoSys fiber scanner; swing mode + optical line scanner), was compared with reference data drawn from a forest inventory (432 Scots pines). The study showed that: (1) the height of a single tree, as derived from ALS data, leads to underestimation (mean difference -0.90 m or +0.12 m depending on CHM generation algorithm); (2) the mean stand height was higher (+0.85 m) than the height recorded in the SILP database, which may result in underestimation of the timber volume in the entire Milicz forest district; (3) the stand mean height (understood as 95th percentile of the FE point cloud) was +0.46 m higher than the height recorded in the SILP inventory database; (4) it was possible to estimate the canopy base with 0.56 m overestimation; (5) the canopy length as measured during the forest inventory was +0.44 m lower compared to the ALS data (histogram analysis); (6) the homogeneity of a contemporaneous-pine stand is questionable. In a very near future, a new approach to the forest inventory, supported by ALS data, will be presented as a list of new parameters and guidelines.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18b; 685-695
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
From a point cloud to a 3D model – an exercise for users of AutoCAD and revit
Tworzenie modeli 3D z chmury punktów
Autorzy:
Kotarska-Lewandowska, B.
Powiązania:
https://bibliotekanauki.pl/articles/118824.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Geometrii i Grafiki Inżynierskiej
Tematy:
laser scanning
point clouds
3D modelling
BIM
reverse engineering
skanowanie laserowe
chmury punktów
modelowanie 3D
inżynieria wsteczna
Opis:
At the Faculty of Civil and Environmental Engineering students learn about various methods of presenting spatial forms - from descriptive geometry to 3D modelling. Both educational and commercial 3D software are continually refined and enriched with everimproving options, this applies also to commonly used Autodesk products such as AutoCAD or Revit. One of these novelties supporting building information modelling is the option to work on point clouds that support the design process by providing the actual context. After attaching a point cloud to a model, it can be used as a drawing aid, viewed in a different mode, etc. Considering the fact that the above-mentioned programs are already used by students in early semesters and that they are a basic tool in the office, it is worth using a new tool in a 3D CAD course. The article presents a basic exercise that may prove to be an interesting alternative to a modelling course as it is used to practice basic skills such as rotation, change of reference, etc. In addition, students gain proficiency in transferring data between a few required programs. This task seems to favour the integration of functional skills into several programs but at a fundamental level and can be a great topic for group projects. The task described in this article required the preparation of a point cloud that was obtained using a Leica P30 laser scanner and then pre-processed in Cyclone software.
Obecnie można zaobserwować wpływ nowych technologii na zmieniający się warsztat inżyniera projektanta w zakresie wytwarzania dokumentacji technicznej. Rozwój technologii BIM służących do wszechstronnego digitalizowania informacji o obiekcie oraz równolegle skaningu laserowego powoduje, że wieloaspektowe działania w gospodarce budowlanej przenoszą się do środowiska cyfrowego. W wielu krajach, w tym w Polsce potrzebne staje się dostosowanie norm i certyfikatów dotyczących dokumentacji budowlanych, ale kierunek transformacji jest już znany i wraz z nim następuje dostosowanie środowiska edukacyjnego. W sektorze budownictwa intensywny rozwój można zauważyć w dziedzinie inżynierii odwrotnej czyli wprowadzenia obiektów rzeczywistych do przestrzeni wirtualnej w celu dalszego przetwarzania. Zadanie to może być realizowane za pomocą urządzeń do mierzenia zdalnego, np. za pomocą skanerów laserowych, których zaletą jest zbieranie dużej liczby różnorodnych informacji o wysokiej jakości w bardzo krótkim czasie. Ponieważ technologie skaningu są coraz szerzej wykorzystywane do prac diagnostyczno-inwentaryzacyjnych, dlatego też w praktyce inżynierskiej pojawiać się będzie coraz częściej konieczność działania w chmurach punktów. W referacie przedstawiono propozycję tematu ćwiczenia dla studentów kierunków budowlanych w ramach zajęć dotyczących modelowania 3D. Zadanie polega na utworzeniu modelu trójwymiarowego na podstawie pomiaru uzyskanego skanerem laserowym Leica P30. Ze względu na maksymalną liczbę punktów w chmurze w prezentowanych programach pliki wyjściowe muszą być odpowiednio wyczyszczone i zmniejszone. Artykuł przedstawia zastosowanie wybranych narzędzi do tworzenia geometrii pod kątem przygotowywanego ćwiczenia w popularnych programach AutoCAD i Revit.
Źródło:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics; 2017, 30; 17-21
1644-9363
Pojawia się w:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modeling BIM objects from point clouds. Examples
Modelowanie obiektów BIM z chmur punktów. Przykłady
Autorzy:
Kotarska-Lewandowska, Bożena
Powiązania:
https://bibliotekanauki.pl/articles/119201.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Geometrii i Grafiki Inżynierskiej
Tematy:
laser scanning
point clouds
3D modeling
BIM
skanowanie laserowe
chmury punktów
modelowanie 3d
Opis:
The article presents several ways to obtain BIM (Building Information Modeling) models from point clouds using standard commands in Revit 2018. In Revit geometric forms are possible to obtain in project, family or conceptual environments. Efficient modeling requires knowledge of methods of creating families and components in these environments and ways to combine them. Modeling methods with system and loadable families are presented, however, the main part of the article is modeling of individual forms as In-Place Model, or Conceptual Mass. Drawing model lines on the work plane is facilitated due to a snapping feature in Revit. Point clouds must be limited to allow observation near the work plane. Cloud modeling is labor intensive, therefore knowledge of various techniques is particularly important. In creating reusable BIM objects adding parameterization to already created models has a positive effect on the efficiency of the entire process. Making models from point clouds, even at the initial stage, requires good knowledge of the software, but spatial imagination and knowledge of spatial relations gained from descriptive geometry classes become an asset. Modeling from point clouds can be an interesting alternative to other courses for future engineers in the building sector.
W artykule przedstawiono kilka sposobów uzyskania modeli BIM z chmury punktów za pomocą standardowych poleceń programu Revit 2018. Zaproponowany zestaw przykładów modelowania z chmur punktów może być ciekawą alternatywą na kursach dla przyszłych inżynierów w sektorze budownictwa. Revit jest rozbudowanym programem, w którym modelowanie form geometrycznych jest możliwe w trzech środowiskach: projektu, rodziny, bryły koncepcyjnej. W sprawnym modelowaniu potrzebna jest wiedza do jakich przypadków wykorzystywać te środowiska, jak w nich działać i je łączyć. W budowaniu modelu BIM obiektu budowlanego z chmury punktów dla elementów nadrzędnych wykorzystuje się rodziny systemowe (ang. System families) takie jak ściany, stropy, dachy. Natomiast modelowanie w środowisku rodzin jest w pewien sposób ograniczone ponieważ w programie Revit 2018 nie jest możliwe bezpośrednie wczytanie chmur do rodzin. Dlatego w modelowaniu rodzin wczytywalnych (ang. Loadable families) takich jak np. okna, trzeba przenieść linie charakterystyczne budowanej formy geometrycznej obiektu z chmury punktów widocznej w projekcie do środowiska rodziny. Jak opisano w artykule zapewnia to eksport linii modelu do formatu dwg, a następnie wczytanie pliku w nowej rodzinie. Trzeba jednak stwierdzić, że ta pośrednia metoda zmniejsza efektywność modelowania tego typu elementów. Chmury punktów stanowią reprezentację rzeczywistego obiektu, często o nietypowych kształtach, zdeformowanego, nieidealnego. Powoduje to konieczność utworzenia unikatowych, indywidualnych form. Sposobem na ich uzyskanie jest model lokalny (ang. Model In-Place). Jest on tworzony w projekcie, a zatem w bezpośrednim sąsiedztwie chmury punktów. W artykule opisano metodę tworzenia z modelu lokalnego rodzin i ich parametryzację, która powoduje, ze określone wymiary obiektu są edytowalne. Taki zabieg tworzy możliwość wielokrotnego wykorzystania raz utworzonego modelu i jego modyfikacji wewnątrz projektu, ale również w innych projektach. Z kolei bardziej złożone geometrie wynikające z układu punktów w chmurze mogą być utworzone jako lokalna bryła koncepcyjna (ang. In-Place Mass). Ponieważ bryła ta jest tworzona w środowisku projektu można bezpośrednio dowiązywać się do punków w chmurze. Sposób modelowania i środowisko bryły koncepcyjnej jest odmienne od modelu lokalnego i może dawać dużo większą dowolność form. Początkowo utworzone obiekty lokalnej bryły koncepcyjnej mogą być dalej zmieniane poprzez dodawanie krawędzi i przekrojów oraz modyfikacje więzów. W efekcie końcowym powstają złożone powierzchnie tzw. free form. Fragmenty tych powierzchni mogą być następnie przekształcane w elementy strukturalne budynku, takie jak dach, ściana, strop. Ponieważ modelowanie w chmurach jest pracochłonne dlatego szczególnego znaczenia nabiera znajomość różnych podejść do modelowania a także dodawanie parametryzacji do już utworzonych modeli, co wpływa dodatnio na efektywność całego procesu. Wykonanie modeli z chmur punktów nawet na początkowym poziomie wymaga dobrej znajomości programu, ale dodatkowo niezbędna staje się wiedza w zakresie budowania form i współzależności relacji przestrzennych wyniesiona z zajęć geometrii wykreślnej oraz wyćwiczona na tych zajęciach wyobraźnia przestrzenna.
Źródło:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics; 2019, 32; 55-64
1644-9363
Pojawia się w:
Journal Biuletyn of Polish Society for Geometry and Engineering Graphics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design of a testing method to assess the correctness of a point cloud colorization algorithm
Opracowanie metody oceny poprawności działania algorytmu kolorowania chmury punktów
Autorzy:
Pleskacz, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131127.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
data integration
algorithm testing
data quality
scan colorization
integracja danych
testowanie algorytmów
jakość danych
koloryzacja skanów
Opis:
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 91-104
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ algorytmu przetwarzania chmury punktów na dokładność wyznaczenia wymiaru małych elementów
The influence of point cloud processing on the accuracy of determining a small element dimension
Autorzy:
Rak, M.
Woźniak, A.
Powiązania:
https://bibliotekanauki.pl/articles/155232.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
chmura punktów
skaning
filtracja
point cloud
scanning
filtration
Opis:
Celem badań było wyznaczenie wpływu algorytmów przetwarzania chmury punktów na dokładność wyznaczenia wymiaru, na przykładzie danych pochodzących z pomiaru elementu o prostej geometrii i małym wymiarze. Dane zostały otrzymane z pomiarów przeprowadzonych na zasadzie triangulacji laserowej. Chmury punktów były poddawane przetwarzaniu różnego typu, a porównywanym parametrem był wymiar i odchyłka kształtu. Wykazano, iż stosowanie filtracji, a w szczególności tworzenie siatki trójkątów znacząco poprawia wygląd chmury. Jest to natomiast wyłącznie wizualizacja, która dodatkowo negatywnie wpływa na dokładność wyznaczenia wymiaru.
The aim of the study was to determine the effect of point cloud processing on the accuracy of determination of dimension. The experiment was conducted on an example of the data from a measurement of the element of small diameter and simple geometry – a ceramic ball. The data was obtained from the optical measuring method - laser triangulation. When measuring, the noise caused by properties of the measured surface or environmental conditions is generated. It should be filtered in order not to adversely affect the measurement result. Point clouds were processed in different ways: creating a mesh of triangles, and filtering with a median filter, and an average filter. The parameter taken into account in the analysis was the sphere radius and the sphericity error. Optical measuring methods are used mainly for large elements since they provide a large number of measuring points in a short period of time. This paper presents the problem which appears when small parts of simple geometry are for example a part of large free surfaces. It was shown that the use of filtration, in particular creation of the mesh of triangles, improved the appearance of clouds significantly in the case of a small element for which the ratio of noise to the measurement points is higher. However, it is only the visualization, which additionally affects the accuracy of dimension determination.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 5, 5; 406-409
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Możliwości generowania precyzyjnego NMT na podstawie chmury punktów z projektu ISOK
Possibilities of generation a precision DTM based on clouds of points obtained in project ISOK
Autorzy:
Biszof, A.
Oberski, T.
Powiązania:
https://bibliotekanauki.pl/articles/129707.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
interpolacja
lotniczy skaning laserowy
NMT
interpolation
airborne laser scanning
DTM
Opis:
Procesy tworzenia oraz wizualizacji NMT na podstawie danych z lotniczego skaningu laserowego stają się coraz powszechniejsze. Jakość NMT jest uzależniona od wielu czynników. W pracy poddano analizie proces tworzenia NMT w aspekcie zróżnicowania ukształtowania terenu, wielkości siatki GRID oraz metod interpolacji na podstawie danych pozyskanych z projektu ISOK dla fragmentu (1km2) miasta Koszalin. Wykorzystano interpolacje deterministyczne oraz stochastyczną do uzyskania modeli o rozdzielczościach 0.1 m, 0.25 m oraz 0.5 m. Porównano ponadto otrzymane modele ze standardowym NMT pozyskanym z ISOK. Największy wpływ na jakość NMT zbudowanego na podstawie danych LIDAR ma zróżnicowanie terenu. Ponadto w zależności od przeznaczenia modelu sprawdzono, czy zmiana wielkości oczka tworzonego modelu GRID ma wpływ na jakość NMT zwłaszcza w kontekście odwzorowania form morfologicznych rzeźby.
Creating and visualizing DTM based on data from airborne laser scanning become a common practice. Quality of DTM depends on many factors. The paper analyzes the process of creating a DTM in terms of diversity of terrain, the size of grid (the cell size) and methods of interpolation, based on data obtained from the project ISOK for a part (1km2) of the city of Koszalin. Deterministic and stochastic interpolations are used for cellsizes of 0.1 m, 0.25 m and 0.5 m. Moreover, the models were compared with DTM obtained from the ISOK. Diversity of terrain has the biggest impact on the quality of DTM based on LIDAR data. Furthermore, depending on the application of the model, it has been checked if reducing the cellsize of the created model GRID affects the quality of the DTM, especially in the context of mapping morhological forms.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2018, 30; 95-106
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie warstw tematycznych sklasyfikowanej chmury punktów w analizach widoczności w przestrzeni miejskiej
Using thematic layers of a classified points cloud in visibility analysis in urban space
Autorzy:
Piskorski, R.
Powiązania:
https://bibliotekanauki.pl/articles/345775.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
miasto
analiza widoczności
model pokrycia terenu
wysoka roślinność
lotniczy skaning laserowy
urban
visibility analysis
digital surface model
high vegetation
ALS
Opis:
Miasto jako przestrzeń składa się z wielu zróżnicowanych komponentów: zabudowy o zmiennej wysokości i kształcie, mnogości gatunków drzew bądź licznie występujących obiektów małej architektury. Powoduje to konieczność uwzględnienia specyfiki obszaru podczas przygotowania modeli pokrycia terenu wykorzystywanych w analizach dotyczących widoczności. Szczególnie ważnym problemem w takich badaniach jest uwzględnienie sposobu prezentacji wysokiej roślinności (drzew). Pomimo faktu występowania wielu algorytmów pozwalających na wykrywanie koron i osi drzew, wciąż dużym problemem jest ich prezentacja pozwalająca na wierne odzwierciedlenie sposobu postrzegania rzeczywistości. W związku z tym opracowano podejście wykorzystujące dane lidarowe do modelowania drzew, oparte na wykrywaniu ich osi przez wyszukiwanie maksimów lokalnych na warstwie tematycznej pokrycia terenu, reprezentującej wysoką roślinność. Warstwy tematyczne powstałe w oparciu o sklasyfikowaną chmurę punktów posłużyły do zaproponowania i porównania dwóch wariantów numerycznych modeli pokrycia terenu: klasycznego NMPT uwzględniającego drzewa jako korony oraz NMPT przedstawiającego drzewa jako pnie (osie). Zostały one stworzone w celu sprawdzenia czy uwzględnienie niejednorodności prezentacji drzew przy założonym pionowym kącie patrzenia wpływa na uzyskanie wyników bliższych ludzkiemu sposobowi percepcji. Badania przeprowadzono na obszarze krakowskich Błoń. Głównym celem analiz było przedstawienie złożoności problemu optymalizacji danych w aspekcie analiz widoczności oraz zaprezentowanie potencjału, jaki tkwi w technologii lotniczego skaningu laserowego w aspekcie badań dotyczących obszarów miejskich. Otrzymane wyniki wykazały wyższość analiz wykorzystujących kombinację zakresów widoczności w porównaniu z klasycznym NMPT nieuwzględniającym zróżnicowanego charakteru drzew.
The city as a space is made up of many different components: buildings of variable heights and shapes, the multitude of trees' species and many other objects (bench, street lights, banners etc.). This makes it necessary to take into account the particularities of the preparation of digital surface model used in the visibility analyses. Consideration of presentation of high vegetation (trees) is a particularly important issue in such studies. Although the occurrence of a number of algorithms that allow for the detection of crowns and axes of trees, their presentation allowing for an exact reflection of the perception of reality still creates a big problem. Therefore an approach using ALS data was drawn up for the modelling of trees based on the detection of their axes by searching for local maxima on the high vegetation thematic layer. Thematic layers formed on the basis of a classified points cloud were used to propose and compare two variants of a digital surface model (DSM): the classical DSM presenting trees as crowns and the DSM showing trees as trunks (axes). They were created in order to verify whether the inclusion of non-uniform presentation of trees at a given vertical viewing angle affects the possibility to achieve results closer to the actual mode of human perception. Cracow Błonia was selected as the study area. The main objective of the analysis was to present the complexity of the optimization problem of data analysis in terms of visibility and to demonstrate the potential that lies in the ALS technology, taking into account the urban areas. The results proved the superiority of analysis performed with the use of a combination of ranges of visibility compared to the classical DSM without consideration of diversified nature of trees.
Źródło:
Roczniki Geomatyki; 2016, 14, 5(75); 609-616
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dokładność pozycjonowania końcówki roboczej robota równoległego typu delta na podstawie analizy „chmury punktów”
Positioning accuracy of end efector of the delta robot based on the point cloud
Autorzy:
Łygas, K.
Paszko, M.
Powiązania:
https://bibliotekanauki.pl/articles/316488.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
robot równoległy typu delta
silniki krokowe
chmura punktów
delta robot
stepper motors
point cloud
Opis:
W artykule zaproponowano metodę wyznaczenia dokładności statycznej pozycjonowania końcówki roboczej manipulatora równoległego typu delta. Obliczenia dokonano dla różnych rozdzielczości członów napędowych. Dokonano również estymacji dokładności pozycjonowania dla przestrzeni roboczej o dużej liczbie punktów.
This paper proposes a method of determining a static accuracy of positioning of end effector of delta robot. Calculations were made for different resolutions of actuators. Also the estimation accuracy of the positioning was made for the working space with a large number of points.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2016, 17, 12; 1160-1152
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza algorytmów detekcji obiektów infrastruktury kolejowej na podstawie chmury punktów mobilnego skaningu laserowego
Analysis of detection algorithms of railway infrastructure object based on scanning mobile laser point cloud
Autorzy:
Marmol, U.
Powiązania:
https://bibliotekanauki.pl/articles/130674.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
mobilny skaning laserowy
filtracja
detekcja obiektów
mobile laser scanning
filtering
object detection
Opis:
Tematem niniejszego artykułu jest detekcja obiektów infrastruktury kolejowej na podstawie chmury punktów mobilnego skaningu laserowego. Pierwszym istotnym etapem, zanim przystąpi się do właściwej detekcji, jest usunięcie szumu pomiarowego. W przypadku skaningu mobilnego szum jest kluczowym problemem, gdyż wprowadza duże zakłócenia do danych pomiarowych. W pierwszej części artykułu zawarto krótką charakterystykę programów pod kątem prostych filtrów geometrycznych, które zarówno usuwają szumy jak i przeprowadzają proste operacje klasyfikacji (na przykład wydzielenie obiektów oddalonych o określoną wartość głębokości). Dopiero po usunięciu szumu jest możliwe rozpoznawanie obiektów. Jest to stosunkowo nowe zagadnienie, otwierające szerokie pole do analiz i badań naukowych. Do tej pory zostało opisanych kilka metod klasyfikacji danych pochodzących z mobilnych systemów laserowych. Część algorytmów opiera się na metodach wywodzących się z teorii przetwarzania obrazów. Rozproszona chmura punktów jest zapisywana w siatce regularnej jako raster, którego wartości pikseli odpowiadają głębokości lub intensywności danych laserowych. Do metod opartych na obrazach możemy zaliczyć: algorytmy wykorzystujące filtry morfologiczne i algorytmy wyszukiwania. Inne metody detekcji obiektów bazują na danych rozproszonych, czyli oryginalnej chmurze punktów. Przykładem może być metoda oparta na algorytmie RANSAC. Przeprowadzona analiza algorytmów filtracji ujawniła, że mobilny skaning laserowy może stanowić miarodajne źródło do wyodrębniania obiektów.
The subject of this paper is detection of railway infrastructure objects based on mobile laser scanning. The first important step, made before proceeding with correct detection, is to remove the measurement noise. In the case of mobile scanning noise is a key issue, since it introduces a large distortion of the measurement data. In the first part of the article a brief description of the programs in terms of simple geometric filters which both remove noise and carry out simple operations of the classification (for example, the separation of objects spaced by a certain depth). Object recognition is possible only after the removal of the noise This is a relatively new problem, opening a wide field for analysis and research. So far several methods have been described for the classification of the mobile data. Some algorithms based on methods derived from the image processing theory. Scattered cloud of points is stored in a regular grid, the pixel values correspond to the depth or intensity of the laser data. The image-based methods: algorithms using morphological filters and retrieval algorithms. Other methods are based on the detection of objects from the original cloud of points. An example is the method based on RANSAC algorithm. An analysis of filtering algorithms revealed that mobile laser scanning can be a reliable information source to extract objects.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 24; 211-220
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Filtracja chmur punktów za pomocą dopasowania danych 2D-3D
Point Cloud Filtering Using 2D-3D Matching Method
Autorzy:
Rzepka, Karol
Kulczykowski, Michał
Wittels, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/2090882.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
chmury punktów 3D
filtracja chmur punktów
dopasowanie 2D
3D point clouds
point cloud filtering
2D matching
Opis:
Precyzja jest cechą kluczową dla rozwoju systemów pomiarowych 3D. Wykorzystywane do takich pomiarów kamery Time-of-Flight tworzą chmury punktów zawierające dużo szumu, przez co mogą się okazać mało użyteczne w dalszej analizie. W ramach badań nad rozwiązaniem tego problemu proponujemy nową metodę precyzyjnego filtrowania chmur punktów. Do usuwania punktów odstających z pomiarów 3D, zarejestrowanych za pomocą kamery Time-of-Flight, wykorzystujemy informacje 2D z kamery z obiektywem telecentrycznym. Zastosowanie kamery telecentrycznej pozwala uzyskać najbardziej precyzyjną informację o konturze obiektu, co przekłada się na precyzyjne filtrowanie rekonstrukcji obiektu w 3D.
Precision is a key feature for the development of 3D measurement systems. Time-of-flight cameras used for such measurements create point clouds containing a lot of noise, which may not be useful for further analysis. In our research to solve this problem, we propose a new method for precise point cloud filtering. We use 2D information from a telecentric lens camera to remove outlier points from 3D measurements recorded with a Time-of-Flight camera. The use of a telecentric camera allows us to obtain the most precise information about the contour of an object, which allows us to accurately filter the object reconstruction in 3D.
Źródło:
Pomiary Automatyka Robotyka; 2022, 26, 2; 15--21
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies