Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "obraz cyfrowy" wg kryterium: Temat


Tytuł:
Model tekstowy danych graficznych i możliwości jego zastosowania w fotogrametrii cyfrowej
Autorzy:
Żarnowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/130284.pdf
Data publikacji:
2004
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
fotogrametria cyfrowa
obraz cyfrowy
model tekstowy
alfabet
gramatyka
format
digital photogrammetry
digital image
text model
alphabet
grammar
Opis:
W wyniku badań prowadzonych w latach 60-90 XX wieku opracowano rastrowy i wektorowy model danych graficznych, które najczęściej są wykorzystywane w grafice komputerowej, kartografii, fotogrametrii cyfrowej oraz SIP. Wady i zalety każdego z tych modeli są znane i opisane w wielu publikacjach, również jako możliwości ich wykorzystywania w technologiach cyfrowych zastosowanych w kartografii, SIP i fotogrametrii. Analizując nowoczesne technologie cyfrowe w geodezji, kartografii, fotogrametrii i SIP można stwierdzić, że procesy pozyskiwania, zapisywania, przechowywania, transferu, analiz i wykorzystania danych graficznych są nadal skomplikowane i pracochłonne. W artykule opisano wyniki badań prowadzonych przez autora, które dotyczą: modelu tekstowego obrazu graficznego, formatu zapisywania obrazu tekstowego.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2004, 15; 49-55
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatyzacja śledzenia linii na obrazach cyfrowych
An automation of line tracking on digital images
Autorzy:
Cieślar, J.
Powiązania:
https://bibliotekanauki.pl/articles/130324.pdf
Data publikacji:
2000
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz cyfrowy
śledzenie linii
lina odciągowa
maszt
wieża wiertnicza
digital image
line tracking
stay rope
mast
derrick
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2000, 10; 31-1-31-7
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fotogrametryczny pomiar elementów walcowanych
Photogrammetric measurement of rolled elements
Autorzy:
Tokarczyk, R.
Skoczek, K.
Powiązania:
https://bibliotekanauki.pl/articles/129850.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
fotogrametria bliskiego zasięgu
cyfrowy aparat fotograficzny
przetwarzanie obrazów
pomiar automatyczny
obraz cyfrowy
close-range photogrammetry
digital camera
digital image processing
automatic measurement
Opis:
Opracowanie fotogrametrycznej metody pomiaru służącego wyznaczeniu przemieszczeń i odkształceń elementów walcowanych przeprowadzono w ramach międzynarodowego projektu prowadzonego przez Katedrę Przeróbki Plastycznej i Metaloznawstwa Metali Nieżelaznych AGH pt.: ,,Badanie płynięcia materiału w procesie walcowania pielgrzymowego na zimno”. Badania nowego procesu walcowania pielgrzymowego prowadzone są na modelu fizycznym walcarki pielgrzymowej. Doświadczenia wykonywane są na materiałach niemetalicznych (plastelina, woski), i metalicznych (ołów, aluminium). Celem pracy jest opracowanie metody pomiaru służącego wyznaczeniu odkształcenia materiału walcowanego z plasteliny, mającego przed walcowaniem kształt wydrążonego walca, a w trakcie walcowania - stożka ściętego. Jako metodę pomiaru zaproponowano wcięcie w przód z dwu zdjęć zbieżnych o znanej orientacji wewnętrznej i zewnętrznej, po procesie orientacji wzajemnej i bezwzględnej. Do rejestracji obrazów wykorzystano skalibrowaną cyfrową lustrzankę Nikon D80, z matrycą 10 megapikseli oraz stałoogniskowym obiektywem Sigma EX DG 20/1,8. Wykonano próbę automatyzacji pomiaru sygnałów na elemencie walcowanym z użyciem narzędzi programu Matlab. Przetestowano dwie metody pomiaru: filtracji regionów do detekcji markerów i wagowanego środka ciężkości do pomiaru ich centrów oraz alternatywnie metodę wieloetapowego ścieniania na zbinaryzowanym obrazie.
Developing a photogrammetrical method of measuring displacements and deformations of rolled objects was supported by the international project “Investigations of displacements and deformation during cold rolling of tubes in pilgering process” led by the Department of Metal Forming, Cracow University of Technology. Cold rolling of tubes in the pilgering process is one of the most advanced technologies of manufacturing copper pipes used in of water supply systems, heating systems, medical systems, etc. The method makes it is possible to increase the overall deformation by up to 95%. Research on effects of the new process on the size of deformation and behaviour of the rolled material is thus required. The study on the new pilgering process were carried out on a physical model of a pilger mill. The first tests were conducted on non-metallic materials (plasticine, wax), the metallic materials (lead, aluminum) being tested at the last stage of trials. The aim of the proposed measurement method was to determine the deformation of a rolled wax material. Before it was rolled, the object was shaped like a hollow cylinder, a bevelled cone being produced after rolling. Direct intersection of two convergent images, with known interior and exterior orientation, was proposed as the measurement method. For image acquisition, we used 10 Mpx. Nikon D80 digital SLR camera with Sigma EX DG 20/1.8 fixed focus lens. The photogrammetric model is based on the relative orientation of the two images. It is then transformed to the reference system defined by the ground control points using an absolute orientation. After such procedures, image orientation elements are determined. Thus, we are able to calculate 3D coordinates of arbitrary point visible on the two images. The images were acquired from a tripod constructed especially for the needs of the project. The tripod allows moving the camera along the mill. Because the object being deformed is photographed only from the top, to assess deformations on its entire surface the object has to be rotated around its main axis. The photogrammetrical models that are thus created have to be connected into a special reference system. The first results of photogrammetric measurements were obtained by using the VSD AGH digital stereo plotter. It allowed us to check the correctness of the method and to create the first deformation plots. Subsequently, the image measurements and the calculation of 3D coordinates were carried out by using the software developed by the authors. It allows loading image data in an arbitrary format, zooming, point measuring, taking lens distortion into consideration, carrying out the relative and absolute orientation, and computing coordinates of an arbitrary point with the control of the transverse parallax. The results, i.e., 3D coordinates of the points, are written to a text file. To find out what processes occur during rolling, it is necessary to acquire a large number of images and, consequently, to take numerous measurements on digital images. Thus, there is a need to automate the process of measuring the markers on the rolled object. Numerous tests were carried out using the Matlab programming environment. Two methods of measurement were tested: 1) to detect markers (region filtering) and to measure the center of markers (weighted center of mass); 2) multi-staged thinning on a binarized (using the otsu method) image. The first method, which gave better results, forms the basis of the Test Field Measurement Field Box software intended as providing automatic measurement of calibration images in a test field. However, further work on automation of strongly deformed model in which the markers lose their circular shape, is recommended.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18b; 589-600
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie analizy falkowej w procesie filtracji obrazów cyfrowych
Autorzy:
Kędzierski, M.
Powiązania:
https://bibliotekanauki.pl/articles/130392.pdf
Data publikacji:
2002
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
analiza falkowa
filtracja obrazu
obraz cyfrowy
usuwanie szumów z obrazu
wavelet analysis
image filtering
digital image
image denoising
Opis:
Referat przedstawia podstawy teoretyczne i możliwości wykorzystania analizy folkowej we współczesnej fotogrametrii cyfrowej. Wykorzystując analizą falkową i jej właściwości możemy przefiltrować obrazy cyfrowe w sposób efektywniejszy niż przy klasycznym podejściu. W opracowaniach, w których materiał wyjściowy (zdjęcia lotnicze) są obarczone szumem lub nie nadają się do wykorzystania w procesie cyfrowej korelacji obrazów analiza falkowa może przynieść rozwiązanie problemów. W artykule omówino zagadnienie usuwania szumów oraz „ wydobycia " krawędzi z reprezentacji cyfrowej obrazu.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2002, 12; 178-184
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie metod analizy obrazów do automatycznej detekcji i pomiaru źrenic oczu
Methods of image analysis used for automatic detection of human eye pupils
Autorzy:
Koprowski, R.
Tokarczyk, R.
Wróbel, Z.
Powiązania:
https://bibliotekanauki.pl/articles/131258.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
digital image
image analysis
correlation
neuron network
morphological analysis
obraz cyfrowy
analiza obrazu
korelacja
sieć neuronowa
analiza morfologiczna
Opis:
Potrzeby diagnostyki medycznej wad budowy i postawy człowieka wymagają stworzenia prostej metody jego pozycjonowania w trójwymiarowej przestrzeni. Jedną z metod wyznaczania położenia charakterystycznych punktów ciała jest metoda fotogrametryczna. Pomierzone punkty na zdjęciach służą do zbudowania przestrzennego modelu i za pomocą punktów dostosowania umieszczenia go w układzie odniesienia. Fotogrametryczny system do pomiaru 3D punktów ciała ludzkiego opracowany w Zakładzie Fotogrametrii i Informatyki Teledetekcyjnej WGGiIŚ AGH w Krakowie wymaga pomiaru na zdjęciach cyfrowych wybranych miejsc ciała ludzkiego, sygnalizowanych styropianowymi kulkami-markerami oraz środków źrenic oczu. W ramach automatyzacji pomiaru na zdjęciach prowadzone są badania nad metodami detekcji i pomiaru trzech grup punktów: fotopunktów, markerów na pacjencie oraz źrenic oczu Niniejsze opracowanie dotyczy metody automatycznego pomiaru trzeciej grupy punktów pomiarowych. Opracowana metoda detekcji źrenic oczu wymaga zrealizowania celów cząstkowych: detekcji markerów na ciele pacjenta, segmentacji obrazu ciała dla wykrycia głowy z rejonem oczu, wykrycia i pomiaru środków źrenic. Pierwszy z celów osiągnięto wykorzystując metodę korelacji krzyżowej. Do wykrycia rejonu oczu wykorzystano analizę skupień zbioru wspołrzędnych metodą k najbliższych sąsiadów. Dalsze przybliżenie rejonu oczu osiągnięto wykorzystując analizę statystyczną dużej ilości zdjęć pacjentów dla wyznaczenia współczynnika kryterium rejonizacji. Metodyka wyznaczania położenia oczu, centralnych punktów położenia źrenic została oparta na sieciach neuronowych ze wsteczną propagacją błędu. Uzyskana dokładność metody została oceniona na poziomie około 1 piksela, jej skuteczność w znacznej mierze zależy od prawidłowej detekcji markerów na ciele pacjenta.
The needs of medical rehabilitation requires the creation of a simple method for the positioning of a human body in 3-D space. The method of posture analysis consists in simple visualization of particular characteristic points of the patient’s body. Usually, an assessment of the relative displacement and asymmetry of these points are a reliable measure of pathological body posture deviation. One of the methods of determining the position of characteristic points is the photogrammetric method. The points measured in the images are used to create a spatial model and, based on control points, position it in a reference system. The photogrammetric system for measuring 3D points located on a human body has been developed in the Department of Photogrammetry and Remote Sensing Informatics, Technical University – AGH Kraków. In the system, on digital images (taken with two compact, free-focus-type digital cameras), special markers (light foamed polystyrene balls) located on chosen points of human body and the center of an eye pupil are measured. To make the system more automatic, the research is carried on to automatically detect and measure the three following groups of points: control points, markers located on the human body and eye pupil. In this paper, the method of automatic measurement of last group of points is considered. The developed method of eye pupil detection requires achieving the following goals: detection of markers located on the human body, segmentation of the body image to detect a head, approximate eye localization and, finally, the measurement of a pupil center. The first goal was achieved by using the cross correlation method. The localization of the eyes was done by analyzing the coordinates’ set concentration by k nearest neighbors. The achieved results were divided into two sets pa 1 and pa 2 , which consist of data on the position of markers located on the front and back sides of body. A further approximation of eye location was achieved using statistical analysis of many images to determine the coefficient as a criterion for region membership. The methodology of determination of eye position, and pupil center were based on a neural network with backward error propagation. The achieved accuracy was estimated as 1 pixel, but the efficiency strongly depends on the proper detection of the markers located on the patient’s body.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 305-317
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wyodrębnienie drzew z danych lidarowych z zastosowaniem transformaty Hougha
Tree extraction from the cloud of points using Hough transform
Autorzy:
Borowiec, N.
Niemiec, B.
Powiązania:
https://bibliotekanauki.pl/articles/131296.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
detekcja obiektów
lotniczy skaning laserowy
obraz cyfrowy
transformata Hougha
object detection
airborne laser scanner
digital image
Hough transform
Opis:
W niniejszej pracy podjęto próbę automatycznego wyodrębnienia drzew z chmury punktów na podstawie utworzonego obrazu wysokiej roślinności z przefiltrowanych danych laserowych. W tym celu został napisany skrypt w programie MATLAB. Idea jego działania opiera się na tezie, że na obrazach cyfrowych kształt drzew w górnych piętrach zbliżony jest do okręgów. Do ich detekcji posłużono się transformatą Hougha - jedną ze skutecznych metod wykrywania kształtów w widzeniu komputerowym. Badania przeprowadzono na danych pochodzących z lotniczego skaningu laserowego, obejmujących teren Cmentarza Rakowickiego w Krakowie.
In the present study attempts to automatically extract trees from image which was created from points cloud representing high vegetation. For this purpose the script was written in MATLAB. The idea of the operation is based on the thesis that on the digital image trees shape in the upper floors is similar to circles. To detect trees the transform Hough was used - one of the effective methods to detect shapes in computer vision. The research was conducted on data from airborne laser scanning, which included the area of the Rakowicki cemetery in Krakow. In order to check the number of trees, a manual vectorization (indication of the trees tops) on the orthophotomap was made. However this measurement is sub-optimal, but allowed to assess the correctness of the HT algorithm.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2018, 30; 55-66
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Próba rekonstrukcji nieistniejących obiektów architektonicznych na wybranym przykładzie
An attempt at the photogrammetric reconstruction of no longer existing buildings of architectural interest based on a selected example
Autorzy:
Mikrut, S.
Dużyńska, U.
Powiązania:
https://bibliotekanauki.pl/articles/129633.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz cyfrowy
zdjęcia archiwalne
fotogrametria cyfrowa
fotogrametria bliskiego zasięgu
digital image
archive photos
digital photogrammetry
close-range photogrammetry
Opis:
Celem niniejszego artykułu jest zaprezentowanie wyników prac mających na celu próbę rekonstrukcji nieistniejącego obiektu architektonicznego. Przedstawiono etapy i wyniki badań związanych z fotogrametryczną rekonstrukcją nieistniejącego obiektu w oparciu o przedwojenne zdjęcia naziemne i lotnicze o nieznanych elementach orientacji. Oprócz stworzenia trójwymiarowego modelu budynku na podstawie archiwalnych zdjęć niemetrycznych, dokonano prób pozyskania wybranych szczegółów detali architektonicznych. Obiektem badań była krakowska willa wybudowana na Cyplu Dębnickim w pobliżu Wawelu. Do projektu wykorzystano zdjęcia wykonane niemetrycznymi kamerami, pochodzące z okresu 1900-1930. Do kalibracji zdjęć wykorzystano fotopunkty pomierzone na zdjęciach lotniczych, do tego celu użyto programu Dephos, kalibracje i rekonstrukcję wykonano w oprogramowaniu PhotoModeler i MicroStation. Zaproponowana metodyka polegająca na połączeniu archiwalnych zdjęć lotniczych i naziemnych pozwala na odtwarzanie wyglądu i rekonstrukcje wybranych obiektów. Prace te, prowadzone dzięki pomocy Muzeum Historii Fotografii w Krakowie, pozwolą na wirtualne zrekonstruowanie „zaginionych” obiektów.
The goal of this paper is to present results of work designed to develop technology for the reconstruction of buildings of architectural interest that no longer exist. The paper shows the stages in and results of investigations relating to the photogrammetric reconstruction of a no longer existing building on the basis of pre-war ground and aerial photos with unknown orientation elements. In addition to the creation of a 3D model of a building based on archive non-metric photos, the authors made attempts at obtaining selected details of architectural elements. The subject of the investigations was a villa owned by the Rożnowskis family, located in Kraków, near the Vistula, on a headland close to the Wawel Royal Castle. Both the villa, and the headland on which it had been constructed were flooded by the Vistula in the inter-war period, and at present they no longer exist. The research project utilised photos, which were made with the use of non-metric cameras in the period 1900-1930. Photo points measured on aerial images were later used for the calibration of these photos using the Dephos program. Calibration and reconstruction were carried out using the PhotoModeler and MicroStation software. The methodology as proposed under that approach consisted of the combination of archival aerial and ground photos, thus making it possible to reconstruct the appearance of selected buildings and to recreate them. This work, carried out thanks to the assistance of the local Museum of Photography in Kraków, will enable a virtual reconstruction of Kraków’s „lost” landmarks apprearing on photosin the museum’s collection. Finally, the technology will allow a wider use of archive photos and a reconstruction of heritage buildings and structures known from historical descriptions, as is the case in the city of Kraków.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2009, 20; 285-294
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie wpływu filtracji cyfrowej na dokładność rozwiązania metodą wiązek sieci zdjęć bliskiego zasięgu
Assessment of the influence of digital filtering on the accuracy of close range bundle blockadjustment
Autorzy:
Sawicki, P.
Powiązania:
https://bibliotekanauki.pl/articles/129845.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
lustrzanka cyfrowa
obraz cyfrowy
filtr cyfrowy
pomiar automatyczny
metoda wiązek
kalibracja równoczesna
DSLR camera
digital image
digital filter
automatic measurement
bundle adjustment
self-calibration
Opis:
Zastosowanie filtracji cyfrowej umożliwia korekcję wpływu nieostrości (rozmycia) oraz wyeliminowanie szumów na obrazach cyfrowych. W pracy badano wpływ 6. liniowych filtrów górnoprzepustowych (high-pass filters), wyostrzających obrazy rozmyte, oraz 5. filtrów liniowych dolnoprzepustowych (low-pass filters) i nieliniowego filtru medianowego, służących do eliminacji szumów, na dokładność pomiaru i rozwiązania sieci zdjęć bliskiego zasięgu. Badania przeprowadzono na 11. zdjęciach cyfrowych (4500x3000) pola testowego (220 punktów sygnalizowanych, w tym 65 punktów kodowych), z których wygenerowane zostały obrazy JPG nieostre (rozmycie gaussowskie, promień r = 2, r = 3 piksele) i obarczone szumem (gaussowski losowy, poziom = 25, gęstość= 50). W systemie AICON 3D Studio wykonano automatyczny pomiar punktów metodą ważonego środka ciężkości (Center Weighted Metod) oraz rozwiązanie terratriangulacji metodą wiązek, łącznie z kalibracją lustrzanki cyfrowej. Stwierdzono, że filtracja górnoprzepustowa obrazów nieostrych (rozmycie r = 2) jest niezbędna przy pomiarze punktów strukturalnych metodą ważonego środka ciężkości. W przypadku pomiaru obrazów silnie rozmytych (r = 3) jedynym skutecznym filtrem górnoprzepustowym, który umożliwia pomiar punktów, jest laplasjan gaussowski (maska 5×5 pikseli). Filtracja dolnoprzepustowa i medianowa obrazów zaszumionych nie wpływa na dokładność pomiaru oraz zmianę wartości wyznaczanych parametrów. Metoda ważonego środka ciężkości działa skutecznie przy pomiarze sygnalizowanych punktów na nieznacznie rozmytych obrazach cyfrowych bliskiego zasięgu oraz jest odporna na występowanie szumów losowych. W analizowanych wariantach obliczeń otrzymano dokładności: Sigma 0 = 0.07 piksela (p’HV= 7.9 μm), średniokwadratowe poprawki do współrzędnych tłowych RMS Vx’ = 0.05, RMS Vy’ = 0.06 piksela, oraz średniokwadratowe błędy współrzędnych wyznaczonych w układzie obiektu RMS SX = 0.05 mm, RMS SY = 0.1 mm, RMS SZ = 0.04 mm.
Random and systematic radiometric distortion in the images sequence is a common issue in digital photogrammetric close range applications. A digital image filtering enables correction of blur and elimination of noise on digital images. The paper analyses the influence of digital filtering of blurred and noisy close-range images on the subpixel accuracy of signalized points measurement and accuracy block bundle adjustment. Blurred (out of focus) images were processed with 6 linear high-pass filters, whereas 5 linear low-pass filters and 1 nonlinear median filter were applied for noisy images. The photogrammetric measurement was conducted on test field in Institute of Photogrammetry and Remote Sensing, Dresden University of Technology. The test field consisted of the total of 220 signalized, retro-reflective points (65 coded points, 14 bit code). The test field was registered on eleven convergent and normal color photos from the distance of ca YF = 5 m using digital SLR Kodak DCS Pro 14n (resolution 4500x3000) camera. Adobe Photoshop CS6 and Corel PHOTO-PAINT X6software were used for generation of blurred images (Gaussian blur, radius r = 2 and radius r = 3) and noisy images (random Gaussian noise, level = 25, density = 50). The fully automatic points measurement on the digital images using center weighted method, the bundle adjustment including self-calibration with additional parameters for modeling systematic imaging errors was determined in the AICON 3D Studio software package (AICON 3D Systems GmbH, Germany). The optimal correction terms contain additional parameters for the compensation of radial-symmetric A1, A2 lens distortion and radial-asymmetric tangential B1, B2 lens distortion as well as affinity C1 and shear of the digital sensor coordinate system C2. High-pass filtering of blurred digital images (blur r = 2) is essential for measurement of structural signalized points using center weighted method. In the case of significantly blurred images (blur r = 3) the typical Laplace filters do not sharpen the images to the extend enabling measurement. Laplacian of Gauss (mask 5×5 pixel) turned out to be the only efficient high-pass filter. The low-pass filtering and nonlinear median filter of noisy digital images does not influence the measurement accuracy and values of adjusted parameters. The center weighted operator is robust in the structural signalized points measurement on the insignificantly blurred images and is resistant to occurrences of random noises. In all of the analyzed variants Sigma 0 mean value after the combined bundle adjustment with the self-calibration amounted to σ0 = 0.07 pixel (sensor pixel size p’HV = 7.9 μm). The RMS image coordinates residuals after adjustment amounted to RMS Vx' = 0.05 pixel and RMS Vy' = 0.06 pixel and the RMS standard deviation of calculated object coordinates respectively amounted to: RMS SX = 0.05 mm, RMS SY = 0.1 mm, RMS SZ = 0.04 mm.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 24; 333-343
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przegląd metod teksturowania modeli 3D obiektów uzyskanych na drodze laserowego skanowania naziemnego i technik fotogrametrycznych
Review of methods of texturing 3D object models obtained through terrestrial laser scanning and photogrammetric techniques
Autorzy:
Tokarczyk, R.
Kohut, P.
Mikrut, S.
Kolecki, J.
Powiązania:
https://bibliotekanauki.pl/articles/131188.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
kamera niemetryczna
model 3D
teksturowanie
skaning laserowy
obraz cyfrowy
3D modeling
texturing
laser scanning
digital image
non-metric camera
Opis:
Teksturowanie jest procesem pokrywania powierzchni wirtualnych modeli obrazem (lub polem) uzyskanym w sposób sztuczny lub za pomocą kamer cyfrowych. Pozwala na uzyskanie efektu fotorealizmu, co w wielu aplikacjach jest szczególnie pożądane. W pracy dokonano przeglądu metod teksturowania, omówiono zagadnienia towarzyszące teksturowaniu: analizę widoczności, detekcję przysłonięć. Szczególny nacisk położono na analizę metod automatycznych, jako najbardziej ekonomicznych. W procesie tym powszechnie wykorzystuje się równanie kolinearności w celu rzutowania trójkątów z przestrzennego poligonu mesh na zorientowane płaszczyzny zdjęć wykonując analizę widoczności. Właściwa tekstura przypisywana jest na podstawie analizy porównawczej dostępnych tekstur. Możliwe jest teksturowanie fragmentu modelu na podstawie jednego optymalnego zdjęcia lub też na podstawie „uśrednienia” wielu zdjęć. Prace badawcze prowadzono w dwóch aspektach: poszukiwania warunków optymalnego teksturowania oraz testowania programów do manualnego, półautomatycznego i automatycznego teksturowania. Badania prowadzone na polu testowym obejmowały eksperymenty z zastosowaniem dwóch metod teksturowania przy zmienności zarówno wielkości trójkątów teksturowanych jak i orientacji zdjęć wykonanych do pozyskania tekstur. Pozwoliły one na sformułowanie wniosków odnośnie optymalizacji warunków teksturowania. W ramach drugiej części prac badawczych przetestowano różne dostępne programy. Testy przeprowadzono na wyjątkowo trudnych obiektach, bo jako dane posłużyły modele 3D obiektów infrastruktury kolejowej i teren znajdujący się w pobliżu skrajni oraz podtorze, pozyskane z danych laserowego skaningu mobilnego i towarzyszących mu barwnych zdjęć cyfrowych.
Texturing is a process, in which surfaces of virtual models are covered with images (or fields) obtained either artificially, or by means of digital cameras. The process makes it possible to yield the effect of photorealism, which is especially desirable in numerous applications. The paper provides a review of methods of texturing, and discusses texturing-related issues: analysis of visibility, detection of blind spots. Special attention has been paid to the analysis of automatic methods as the most economic ones. The process itself generally makes use of collinearity equation in order to project triangles from a spatial polygon mesh onto oriented surfaces of images, performing visibility analysis. The relevant texture is assigned based on a comparative analysis of available textures. It is possible to texture a fragment of the model based on a single, optimal image or based on the „averaging” of many images. Research works were conducted in two aspects: searching for conditions of an optimal texturing, and testing programs for manual, semi-automatic and automatic texturing. Research carried out in a test field included experiments with the use of two methods of texturing, at variability of both texturized triangle sizes, and orientation of images made to provide textures. Following the research, it was possible to draw conclusions concerning the optimisation of texturing conditions. In the second part of research, different available programs were tested. The tests were conducted on exceptionally difficult objects, since the test data included 3D models of railway infrastructure objects and area close to the clearance envelope, as well as of the trackbed, obtained from mobile laser scanning data and associated digital colour images. The experiments have proved that presently there is no software available, which would enable an automatic generation of a coherent and correct mesh on the basis of point cloud generated by a laser scanner, and subsequently mapping images from a movie camera or a photo camera on the so-obtained mesh.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 24; 367-381
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problemy automatycznego modelowania i teksturowania obiektów opisujących skrajnię linii kolejowych
Problems of automatic modelling and texturing of objects that describe railway line clearance gauge
Autorzy:
Pyka, K.
Mikrut, S.
Moskal, A.
Pastucha, E.
Tokarczyk, R.
Powiązania:
https://bibliotekanauki.pl/articles/130509.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
naziemny skaning laserowy
modelowanie 3D
teksturowanie
obraz cyfrowy
skrajnia kolejowa
terrestrial laser scanning
3D modelling
texturing
digital image
railway clearance
Opis:
The goal of the paper is to present results of research that has been conducted for several years in the Department of Geoinformatics, Photogrammetry and Environmental Remote Sensing, AGH University of Science and Technology in the field of automatic modelling and texturing of objects that describe railway line clearance gauges. In the paper, the authors have presented bases of 3D modelling and texturing of objects, with particular consideration of railway clearance gauge objects. An attempt has been made at assessing possibilities of automatic and semi-automatic reconstruction of objects located in the direct vicinity of railway tracks on the basis of a point cloud from a mobile scanning obtained, together with digital images from four cameras, for the selected test railway line section on Cracow-Warsaw route. Railway objects shape construction gauge of railway lines, therefore virtual geometric model of those objects might be used for checking if railway rolling stock elements of specified dimensions can safely fit the gauge outline. A couple of programs have been tested in the framework of research (PhotoModeler Scanner, RiScan Pro, 3DReshaper) as regards their usability for modelling and texturing. In research works a previously prepared triangle model has been utilized, as well as a set of 160 images made with the use of four cameras. Additional data included camera and distortion parameters, and elements of external orientation of obtained images. The paper shows exemplary results and indicates problems originating in the course of creating models by means of point cloud vectorization. The authors' experiences show that this is a far more difficult process than stereoscopic photogrammetric model vectorization. Only an experienced operator, with a good spatial imagination, is capable of producing a correct model. That is why in majority of solutions, semi-automatic methods are applied. Those methods consist in the operator's determining of a type (or, possibly, an approximated shape) of the object to be detected, as well as its rough location, and it is the task of the algorithm to fit the object into a set area. The conducted research has demonstrated that there is no thoroughly satisfactory method (program) for automatic modelling and texturing of railway line clearance gauge. As of today, numerous projects have still to be performed in either a semi-automatic, or a manual way.
W artykule podjęty jest problem automatycznego modelowania i teksturowania obiektów kształtujących skrajnię kolejową. Źródłem modelowania jest mobilny skaning laserowy, a teksturowania – zdjęcia wykonane podczas skaningu. Artykuł składa się z dwóch części: przeglądu literatury i opisu eksperymentu badawczego. Eksperyment badawczy potwierdził większość problemów artykułowanych w literaturze, wniósł także szereg nowych. Przestrzeń obiektów przytorowych była bardzo trudnym materiałem do wymodelowania i pokrycia teksturą fotograficzną, co uwypukliło problemy. W konkluzji wskazano, że główną przeszkodą w automatyzacji procesu teksturowania jest słaba jakość modeli generowanych automatycznie.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2013, 25; 177-188
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza przydatności algorytmów detekcji krawędzi w zastosowaniach fotogrametrii bliskiego zasięgu
The use of edge detection algorithms in close range photogrammetry applications
Autorzy:
Czechowicz, A.
Mikrut, S.
Powiązania:
https://bibliotekanauki.pl/articles/131208.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
digital image
edge detection
automatic vectorization
digital photogrammetry
close range photogrammetry
obraz cyfrowy
detekcja krawędzi
automatyczna wektoryzacja
fotogrametria cyfrowa
fotogrametria bliskiego zasięgu
Opis:
Niniejszy artykuł prezentuje wyniki badań porównujących metody detekcji krawędzi na obrazach cyfrowych oraz weryfikację ich przydatności w procesie automatycznej wektoryzacji. W ramach eksperymentu dokonano implementacji znanych algorytmów detekcji krawędzi bazujących na analizie pochodnych funkcji jasności obrazu (Sobela, Kircha, Canny’ego, Marr-Hildretha) jak również nowych rozwiązań (algorytm SUSAN). Opracowany w środowisku Matlab program autorski umożliwił uzyskanie punktowego opisu krawędzi, aproksymację ich przebiegu prostymi oraz analizę jakości uzyskanych wyników. Badania przeprowadzono na dwudziestu dwóch obiektach, które podzielono na dwie grupy – obiektów typowych i nietypowych. Obiekty te pochodzą z projektów wykonanych w ramach inwentaryzacji zabytków. Zdjęcia zostały pozyskane metodą bezpośrednią – aparatem cyfrowym Canon EOS 300D z obiektywami Canon EF 14 mm L USM i Canon EF 50mm L USM oraz pośrednią – kamerą analogową Rolleiflex 6006 metric i skanerem PHOTOSCAN – TD. Dla sprawdzenia poprawności wyznaczonych krawędzi dokonano ich ręcznej wektoryzacji. Obliczono współczynniki określające dokładność ilościowo – jakościową algorytmów detekcji krawędzi przy zadanych parametrach. Umożliwiło to wytypowanie optymalnych ustawień detekcji. Obliczanymi współczynnikami były: kompletność (completeness), poprawność (correctness) i jakość (quality). Otrzymany w wyniku detekcji krawędzi obraz binarny porównano z obrazem zawierającym informacje o rzeczywistych krawędziach obiektu. Wyniki zestawiono i na ich podstawie wytypowano optymalny algorytm detekcji krawędzi (Canny) oraz określono w procentach ilość uzyskanych automatycznie wektorów, które mogą być wykorzystane w dalszych etapach opracowań fotogrametrycznych.
This paper presents the results of research work that compares methods of edge detection on digital images, as well as verification of their use in the automatic vectorization process. Within the experiment framework, known algorithms of edge detection that are based on the analysis of image brightness function derivatives (Sobel, Kirch, Canny, Marr-Hildreth) were implemented, as well as new solutions (the SUSAN algorithm) were considered. The original software, developed in the Matlab environment, obtained the point description of edges, the approximation of their routes by means of straight lines, as well as a quality analysis of the obtained results. Tests were performed on 22 objects, which were divided into two groups: typical and atypical ones. The objects were derived from projects in the historical monument inventory scheme. Images were acquired both by means of a direct method (Canon EOS 300D digital camera, provided with Canon EF 14 mm L USM and Canon EF 50 mm L USM lenses), and by means of an indirect method (analogue Rolleiflex 6006 metric camera and PHOTOSCAN-TD scanner). In order to check the accuracy of the evaluated edges, they were subjected to manual vectorization. Coefficients determining the quantitative and qualitative accuracy of edge detection algorithms at set parameters were calculated. This made it possible to single out optimum detection settings. The calculated coefficients included completeness, correctness, and quality. The binary image received as a result of the edge detection was compared with the image containing information about actual object edges. The results were put together and, based on them, the optimum edge detection algorithm was selected (Canny). In addition, the percentage amount of automatically gained vectors which may be used in further steps in the photogrammetric process was determined.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 135-146
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generowanie syntetycznych obrazów cyfrowych z punktami sygnalizowanymi
Synthetic digital images with artificial targets generating
Autorzy:
Sawicki, P.
Ostrowski, B.
Powiązania:
https://bibliotekanauki.pl/articles/130945.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz cyfrowy
sztuczny znak
szum
rozmycie
błędy systematyczne obrazu
dystorsja
dopasowanie obrazu
digital image
artifical targets
noise
blurs
image systematic errors
distortion
matching
Opis:
W celu tworzenia syntetycznych obrazów cyfrowych bliskiego zasięgu, do badania dokładności i niezawodności zaawansowanych operatorów dopasowania (matching), opracowany został autorski program o nazwie Image Generator. Program Image Generator może generować okrągłe, ciemne sygnały (target) na jasnym tle lub jasne sygnały na ciemnym tle. Wygenerowanie testowych obrazów cyfrowych w formacie BMP, ze sztucznymi punktami sygnalizowanymi, wymaga w programie zdefiniowania następujących parametrów: rozdzielczość obrazu, wielkość piksela, promień znaku (target), odległość między znakami, jasność znaku i jego tła, szum tła, rozmycie krawędzi znaku, poziom ostrości, parametry kalibracji kamery cyfrowej oraz wielkość obszaru zainteresowań (interest area). Parametry radiometryczne obrazu definiuje się za pomocą składowych R, G, B, i dodatkowo przez wprowadzenie szumu gaussowskiego, o dowolnej wielkości i sile zakłócenia, oraz dwóch rodzajów filtrów uśredniających (boxfilter). Zmianę jasności znaków otrzymuje się przez wprowadzenie gradientu. Zniekształcenia geometryczne obrazu modelowane są błędami systematycznymi wg modelu Brown’a i El-Hakim’a oraz Beyer’a, które zawierają dystorsję radialną symetryczną, dystorsję radialną asymetryczną i tangencjalną, afinizm oraz nieortogonalność osi (shear) matrycy sensora. Zdjęcia dowolnie zorientowane tworzone są za pomocą transformacji rzutowej 2D. Aplikacja umożliwia dodatkowo tworzenie obszarów poszukiwań dla programu Matching, generowanie fragmentu obrazu z sygnałem, tworzenie protokołów zawierających współrzędne pikselowe z poziomami jasności. Program Image Generator został napisany w języku programowania Delphi 7. Testowanie wygenerowanych w programie Image Generator obrazów cyfrowych z sygnalizowanymi punktami różnej wielkości przeprowadzono wykonując automatyczny pomiar współrzędnych w autorskim programie Matching (zastosowano metodę ważonego środka ciężkości CWM – Center Weighted Metod i metodę dopasowania najmniejszych kwadratów LSM – Least Squares Matching) oraz komercyjnym programie Pictran DE (metoda LSM). Pomierzone współrzędne pikselowe środka znaków porównano z teoretycznymi współrzędnymi, które obliczono metodą Newtona. Średnia odchyłka kwadratowa RMS różnic współrzędnych pikselowych dla obrazów zniekształconych dystorsjami geometrycznymi i radiometrycznymi wyniosła RMSΔx'y' ≤ 0.3 piksela.
In order to generate synthetic digital close range images for testing the accuracy and reliability of the advanced matching operators especially dedicated application Image Generator was developed. Image Generator can generate circular dark targets on bright background and the other way bright targets on dark background. Generating test digital images (*.bmp) with artificial targets in Image Generator requires defining the following parameters: image resolution, pixel size, target radius, distance between targets, brightness of the target and its background, background noise, target edge blur, sharpness level, calibration parameters of digital camera and interest area.. Radiometric parameters of the image are being defined by R, G, B color components and additionally by Gaussian noise with any size and noise strength and two boxfilters (9 and 25 elements mask). Brightness change of targets requires gradient introduction. Geometric image distortions are being modeled by systematic errors by Brown’s and El-Hakim’s and Beyer’s model which includes symmetric radial distortion, asymmetric and tangential radial distortion affinity and a shear of the sensor matrix. The free oriented images are processed with 2D projective transformation. The application additionally allows for creation of interest area for Matching software, image fragment (crop) generation, listing with pixel coordinates and brightness level. The Image Generator application was developed in Delphi 7 programming language. Tests of digital images with artificial targets of various sizes were conducted by automatic coordinates measurement in authors application Matching (CWM – center weighted method and LSM – least square method were applied), as well as in commercial software Pictran DE (LSM method). Measured pixel coordinates of targets centers were compared with theoretical coordinates, which were calculated using Newton method. Pixel coordinates discrepancies on radiometric and geometric distorted images amounted to RMS Δx'y' ≤ 0.3.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 377-386
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Human centric approach to inhomogeneous geospatial data fusion and actualization
Symbioza mózgu człowieka z komputerem przy sprawdzaniu aktualności heterogenicznych danych geoprzestrzennych
Autorzy:
Żarnowski, A.
Levin, E.
Skubiev, S.
Powiązania:
https://bibliotekanauki.pl/articles/129931.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
computer
actualization
geospatial data
digital image
3D model
human eye-movements
stero measurements
komputer
aktualizacja
dane geoprzestrzenne
obraz cyfrowy
model stereoskopowy
oko ludzkie
Opis:
This paper describes a research which attempts to combine the advantages of human analysts and computer automated processing for efficient human-computer symbiosis in geospatial data fusion. Specifically, the experiments performed were related to the analysis of the potential use of inhomogeneous (composed of different sources) stereo pairs for mapping dataset actualization. Inhomogeneous stereo pairs were combined with images of the map to be updated along with actual aerial images of the same territory. The anaglyphic product obtained after image processing of such stereo pairs was demonstrated to human analysts (subjects) and stereo perception of such stereo pairs was achieved. The most interesting finding of this experiment is the fact that some objects existing only on the aerial photo appeared in the inhomogeneous stereo pairs as 3D. This effect is caused by phenomena within the human eye-brain system known as human stereopsis, which is widely deployed in photogrammetry. For the quantitative measurements of the effect obtained an eye-tracking system was deployed. Analysis of human eye-movements (driven by conscious and subconscious brain processes), while perceiving an inhomogeneous stereo dataset, provides a unique opportunity for the human computer symbiosed geospatial systems. There are two potential outcomes of such approach: a) interpretative – analysts’ gaze-fixation zones can help to localize the areas where mapping dataset should be updated b) quantitative processing of eye fixations geometry during stereo model perception allows to transform the virtual 3D model to a geometrical one based on binocular summation measurements deploying eye-tracking.
W artykule opisano badania, które mają na celu zintegrowanie możliwości ludzkiego umysłu oraz automatyzowanych procesów opracowania dużych zbiorów danych na komputerze do projektowania skutecznego systemu symbiozy człowieka z komputerem przy opracowaniu danych geoprzestrzennych. Eksperymenty w szczególności były związane z analizą możliwości wykorzystywania heterogenicznych (uzyskanych z różnych źródeł) stereogramów dla aktualizacji map i baz danych SIP. Heterogeniczne stereogramy stworzono z mapy rastrowej i aktualnych obrazów cyfrowych. Anaglif uzyskuje się po standardowemu opracowaniu obrazów i wykorzystuje się do stereoskopowego oglądania terenu (model 3D). Najbardziej interesującym fenomenem tego eksperymentu jest fakt, że niektóre obiekty, zarejestrowane tylko na aktualnym obrazie cyfrowym, pojawiły się na heterogenicznych stereogramach w postaci 3D. Ten efekt leży w granicach wzrokowo-mózgowego systemu, znanego jako widzenie stereoskopowe, który szeroko wykorzystuje się w fotogrametrii. Dla oceny parametrów uzyskanego stereomodelu wykorzystano eye-tracking system. Analiza ruchów ludzkiego oka, którymi rządzą świadome oraz podświadome procesy mózgowe, w procesie obserwacji obiektów na heterogenicznym stereogramie – jest źródłem unikalnej informacji dla systemów analizowania danych geoprzestrzennych, zbudowanych na symbiozie ludzkiego umysłu z komputerem.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2010, 21; 523-533
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena wybranych programów typu freeware do modelowania 3D obiektów bliskiego zasięgu
Assessment of chosen freeware applications for 3D modeling of close range objects
Autorzy:
Sawicki, P.
Tomaszewski, T.
Powiązania:
https://bibliotekanauki.pl/articles/129607.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz cyfrowy
model szkieletowy
tekstura
modeler
modelowanie 3D
renderowanie
wizualizacja 3D
digital image
wire frame model
texture
3D modeling
rendering
3D visualization
Opis:
W pracy przedstawiono wyniki testów oraz ocenę narzędzi, interfejsu użytkownika i funkcjonalności 4. darmowych programów do modelowania 3D (Freeware Modelers). Analizowano programy 32-bit pracujące w środowisku Windows: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 oraz Google SketchUp v7.1.6860, które w dn. 1.12.2009 r. w rankingu strony internetowej www.dobreprogramy.pl uzyskały najwyższą oceną użytkowników. Zaawansowane modelowanie obiektu o wymiarach 42.5 × 30.5 × 10.5 m wykonano na podstawie 16. zdjęć, które zarejestrowano niemetrycznym aparatem cyfrowym Olympus E510 (10 MP). Dokładne dane do modelowania pozyskano w wyniku bezpośredniego pomiaru terenowego oraz z dokumentacji projektowej obiektu. W pracy przedstawiono etapy modelowania, porównano czas oraz efektywność budowy modelu 3D w testowanych programach. Program Blender 2.49b okazał się najbardziej zaawansowanym darmowym narzędziem o rozbudowanej funkcjonalności do realistycznego tworzenia modelu 3D obiektu. Modeler Google SketchUp v7.1.6860 sklasyfikowano na drugim miejscu wśród testowanych aplikacji, przede wszystkim ze względu na krótki czas przetwarzania informacji obrazowych oraz najlepsze środowisko do nauki modelowania 3D. Aplikacja TrueSpace v7.6 charakteryzuje się najlepszymi właściwościami do tworzenia oraz wizualizowania fotorealistycznych scen 3D, dzięki rozbudowanej bibliotece gotowych obiektów oraz łatwym manipulowaniem źródłami światła i położeniem kamery. Program 3D Canvas 8.1.7 Build 1418 w wersji darmowej, ze względu na ograniczony dostęp do niektórych narzędzi i funkcji, uznano za najmniej skuteczny i funkcjonalny. Testowane darmowe programy: Blender 2.49b, Google SketchUp v7.1.6860, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 należy polecić użytkownikom zaczynającym pracę w środowisku modelowania 3D. Rozbudowane zestawy narzędzi do modelowania pozwalają tworzyć fotorealistyczne modele 3D obiektów bliskiego zasięgu o dowolnej wielkości i strukturze przestrzennej.
The paper presents the results of tests and assessment of tools, user interface and functionality of 3D modeling freeware applications (modelers). The following four 32-bit applications, which on 1.12.2009 received the highest rating on www.dobreprogramy.pl website, were chosen for testing: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7, Build 1418 and Google SketchUp v7.1.6860. Advanced modeling of an object with dimensions of 42.5 × 30.5 × 10.5 m was performed based on 16 photos, recorded with a non-metric Olympus E510 digital camera (10 MP). Precise data for modeling was obtained by direct field measurement and project documentation of the object. The paper describes the various stages of modeling, an assessment of efficiency and time needed to create a 3D model in the applications tested. Theapplication Blender 2.49b proved to be the most advanced freeware tool with expanded functionality for creating a realistic 3D model of the object. Among tested applications the modeler Google SketchUp v7.1.6860 was classified at the second position, first of all thanks to short image data processing time and the best 3D modeling learning opportunities. The extensive library and easy adjusting light and camera positions make TrueSpace v7.6 the best application for creating and visualization of photorealistic 3D scenes. Freeware version of 3D Canvas 8.1.7 Build 1418 is considered to be the least effective and functional application due to limited access to certain tools and features. The tested freeware 3D modelers: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 and Google SketchUp v7.1.6860 are recommended for users starting work in 3D modeling environment. The expanded sets of modeling tools allow creating photorealistic 3D models of close-range objects of any size and spatial structure.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2010, 21; 363-374
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie cyfrowych obrazów wizyjnych i termalnych w autorskim programie Vision Plus V. 2006
Processing of video and thermal images in the Vision Plus V. 2006 authors’ software
Autorzy:
Sawicki, P.
Zwolenik, S.
Powiązania:
https://bibliotekanauki.pl/articles/130310.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz wizyjny
obraz termalny
przetwarzanie
system cyfrowy
video image
thermal image
digital processing
digital system
Opis:
W pracy przedstawiono możliwości zaawansowanego przetwarzania, pomiaru oraz analizy cyfrowych obrazów wizyjnych i termalnych w środowisku nowej wersji autorskiego systemu "Vision Plus". Opracowana zewnętrzna biblioteka "Vision" umożliwia integracje obsługi, unifikacje narzędzi do przetwarzania oraz fuzje różnych danych cyfrowych na platformie pakietu "Vision Plus". Bibliotekę "Vision" charakteryzują m.in. następujące cechy: implementacja różnych rodzajów formatów danych, obsługa dowolnych rodzajów piksela, kontenery pozwalające na przechowywanie danych obrazowych, kalibracja metrologiczna obrazu, rozbudowa funkcji importu i eksportu danych, rozbudowana komunikacja z innymi programami, nakładanie obiektów graficznych wyznaczonych metodami fotogrametrycznymi, grupowanie obrazów, narzędzi oraz danych wejściowych, optymalizacja interfejsu u_ytkownika. Dodatkowy moduł "Thermal Analyst", wykorzystujący podejście obiektowe, jest funkcjonalnie zintegrowany z biblioteka "Vision". Przeznaczony jest do zaawansowanych operacji oraz analiz na cyfrowych obrazach termalnych i wizyjnych oraz ekstrakcji informacji. Program "Thermal Analyst" obsługuje maski oraz opracowane wtyczki (plugin): Subtractor, NUC (Non Uniformity Correction dla matryc detektorów termowizyjnych), Fourier Transform, Statistic (statystyka dla wybranych obrazów), Export to AVI (tworzenie sekwencji video), 2D Projective Transformation, Combine Images (działania arytmetyczne na obrazach). Biblioteke "Vision" i program "Thermal Analyst" wykonano głównie w języku Object Pascal przy wykorzystaniu pakietu Borland Developer Studio 2005. W pracy zostały omówione dwa przykłady typowych aplikacji bliskiego zasięgu (diagnostyka medyczna, badanie deformacji żelbetonowej belki stropowej). Opracowanie w środowisku multisensoralnego systemu "Vision Plus" obrazów cyfrowych pozyskanych sensorami wizyjnym i termalnym wykonano stosując specjalizowane procedury przetwarzania, pomiaru i łączenia danych (data fusion).
The paper presents the possibilities of advanced processing, measuring and analyzing visual and thermal digital images in the newest version of the "Vision Plus" authors’ system environment. The "Vision" external library enables service integration, unification of digital processing tools and various digital data fusion on the "Vision Plus" package platform. The "Vision" library is characterised by the following features: various data formats implementation, service of various pixel types, converters enabling image data storage, metrological image calibration, extension of data import and export functions, expanded communication with other applications, overlapping of graphic objects determined by photogrammetric methods, images, tools and input data grouping and user interface optimisation. The new, additional "Thermal Analyst" module created in an object-approach is functionally integrated with the "Vision" library, and is used for advanced processing and analysis of thermal and visual digital images, as well as for information extraction. It additionally operates on masks and on created plugins: Subtractor, NUC (Non Uniformity Correction for thermovision detector matrixes), Fourier Transform, Statistic (statistics of chosen images), Export to AVI (converting into a video sequence), 2D Projective Transformation, Combine Images (arithmetical operations on images). The "Vision" library and "Thermal Analyst" software were created mainly in the Object Pascal programming language using Borland Developer Studio 2005 package. Moreover, the paper describes two typical examples of close range applications: medical diagnostics and measurement of a reinforced concrete tie-beam deformation. In the multisensoral "Vision Plus" system, dedicated processing, measuring and digital data fusion procedures are applied in the process of elaboration of digital and thermal images, which were obtained by video and thermal sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 739-748
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies