Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "tekstura" wg kryterium: Temat


Wyświetlanie 1-7 z 7
Tytuł:
Ocena możliwości wykorzystania tekstury w rozpoznaniu podstawowych klas pokrycia terenu na zdjęciach satelitarnych różnej rozdzielczości
Evaluation of usability of texture in identifying basic land cover classes on the satellite images of different resolutions
Autorzy:
Lewiński, S.
Aleksandrowicz, S.
Powiązania:
https://bibliotekanauki.pl/articles/130790.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
klasyfikacja obiektowa
OBIA
tekstura
object-oriented classification
texture
Opis:
Podjęto próbę prześledzenia możliwości podziału treści zdjęcia, stosowanego w klasyfikacji obiektowej, na dwie podstawowe klasy związane z „niskimi” i „wysokimi” wartościami tekstury w funkcji rożnej rozdzielczości zdjęć. Na podstawie kanału panchromatycznego zdjęcia KOMPSAT-2 o rozdzielczości 1 m przygotowano zestaw danych o rozdzielczości 1, 2, 4, 8, 16, 32 i 64 m. Następnie przetworzono je wybranymi funkcjami tekstury, które wykorzystywane są w toku klasyfikacji obiektowej: filtr Sobel, filtr Laplacian, suma filtrów Sigma, przekształcenie PanBF oraz funkcje Haralick’a: korelacja, homogeniczność i entropia. Na ich podstawie wykonano analizę rozróżnialności czterech podstawowych klas pokrycia terenu: tereny zabudowane, lasy, pola uprawne i woda. Dla każdej rozdzielczości i przekształcenia obliczono odległość Bhattacharya oraz odległość Jeffries-Matusita (J-M). Założono, że dwie klasy są dobrze rozróżnialne jeżeli wartość J-M jest większa od 1.7. Uzyskane wyniki w postaci odległości J-M przedstawione są w tabelach 1-7. W przypadku wszystkich siedmiu przekształceń najlepsze wyniki rozróżnialności klas zaobserwowano na zdjęciach o największej rozdzielczości. Natomiast wyraźne pogorszenie rozróżnialności nastąpiło w przypadku zdjęć o rozdzielczości 8 m i mniejszej. Zdecydowanie najlepsze wyniki uzyskano na podstawie przekształceń wykonanych filtrem Laplacian, a następnie Sobel, Sigma oraz przekształceniem PanBF. W porównaniu z nimi przydatność funkcji Haralick’a do podziału treści zdjęcia na dwie klasy tekstury okazała się zdecydowanie mniejsza. Przedstawione wyniki znajdują praktyczne zastosowanie w pracach nad doborem odpowiednich algorytmów klasyfikacyjnych zdjęć satelitarnych o bardzo wysokiej, wysokiej a także średniej rozdzielczości.
An attempt was made to trace the possibility of division of the content of satellite images into two basic classes associated with the "low" and "high" values of the texture. This classification approach is applied during object-oriented classification and results are dependent on spatial resolution. On the basis of panchromatic channel of KOMPSAT-2 image of 1m resolution a data set with a resolution of 1, 2, 4, 8, 16, 32 and 64 m were prepared. Then images were processed using selected texture functions: Sobel, Laplacian and Sigma filters, transformation PanBF as well as Haralick functions: correlation, homogeneity and entropy. On the basis of texture images an analysis of discrimination of four basic land cover classes has been done: built-up areas, forests, agriculture areas and water. These classes were selected because built-up areas and forest belong to “high” texture and remaining two are usually represented by “low” values of texture. For each texture image form using different functions and spatial resolution, Bhattacharya distance and next Jeffries-Matusita (J-M) distance between land cover classes were calculated. Results are presented in tables 1, 2, 3, 4, 5, 6 and 7. They also include J-M distance between “low” and “high” texture. It was assumed that two classes are well seperated if the value of J-M distance is over 1.7. In the case of all seven texture transformations the best results of class discrimination were observed for images with the highest resolution. Distinct deterioration of discrimination between “low” and “high” texture took place in the case of images with a resolution of 8 m or less. By far the highest J-M values were obtained on the basis of Laplacian filter and next using Sigma filter, PanBF and the Sobel filter. In comparison usefulness of the Haralick function has proved much less. The presented results could be practically applied in the work on classification algorithms of very high, high and medium resolution satellite images.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 229-237
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Integracja obrazów radarowych i optycznych dla potrzeb tworzenia map pokrycia terenu
Integration of radar and optical data for land cover mapping
Autorzy:
Badurska, M.
Powiązania:
https://bibliotekanauki.pl/articles/130708.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
klasyfikacja
integracja danych
SAR
tekstura
classification
data fusion
texture
Opis:
Analizując wady i zalety danych pochodzących z różnych sensorów można stwierdzić, że dostarczane przez nie dane mogą okazać się często niekompletne lub niewystarczające. Dla danych optycznych ograniczeniem może okazać sie rejestracja w trudnych warunkach atmosferycznych, dla danych radarowych niewystarczająca rozdzielczość lub występowanie szumów radarowych. Biorąc pod uwagę te wszystkie czynniki, szczególnie interesujące wydaje sie być łączenie obrazów pochodzących z różnych źródeł i ich wspólne wykorzystanie. Korzyści płynące z integracji obrazów radarowych z optycznymi sprawdzono pod katem możliwości polepszenia wyników klasyfikacji obszarów miejskich. Próbowano odpowiedzieć na pytanie, w jakim stopniu dane radarowe mogą polepszyć wynik klasyfikacji i czy mogą być one alternatywnym źródłem w przypadku braku danych optycznych. Nie skupiono sie na samych technikach klasyfikacji, wykorzystano standardowe klasyfikatory w podejściu nadzorowanym. Zwrócono jednak uwagę na dynamicznie rozwijającą sie w ostatnim czasie klasyfikacje obiektowa i podjęto próbę porównania jej wyników z klasyczna klasyfikacja oparta na pikselach. Ponieważ w przypadku danych radarowych bardzo cennym źródłem informacji jest tekstura, to jej wykorzystaniu poświęcono główna część prac. W rezultacie, zastosowanie odpowiednio dobranych miar teksturalnych z tzw. macierzy zdarzeń (ang. Grey Level Co-occurence Matrix - GLCM) spowodowało wzrost dokładności wspólnej klasyfikacji w porównaniu do klasyfikacji uzyskanej dla poszczególnych sensorów.
While analysing the advantages and drawbacks of data coming from different sensors , it can be observed that acquired data can be often incomplete or insufficient. Registration in difficult atmospheric conditions can be the limitation factor for optical data, whereas for the radar data it can be the insufficient resolution or occurring speckle effect. Taking into consideration all these factors, the integration of images from various sources and using them jointly seem to be very interesting. The benefits resulting from the integration of radar and optical images were checked for possible improvement of the results of classification of urban areas. The question is how radar images can improve the result of classification and whether they can be the alternative source in case of lack of optical images. The analysis of various techniques of classification was not the main concern, but the standard classification in supervised approach was used. The attention was also drawn to the objectbased classification developing very dynamically recently, and attempt was made to compare the results of pixel and object-based classification. Due to the fact that, for the radar data, the most important source of information is the texture, that was the main focus of the work. . Consequently, the use of suitably selected textural features from co-occurrence matrix (Grey Level Co-occurrence Matrix – GLMC) caused the increase of accuracy of joint classification, as compared to classification of images from individual sensors.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17a; 11-21
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wstępna ocena możliwości wykorzystania obrazów satelitarnych aster w monitorowaniu lodowców Svalbardu
Preliminary assessment of aster images applicability in monitoring the Svalbard glaciers
Autorzy:
Błaszczyk, M.
Drzewiecki, W.
Powiązania:
https://bibliotekanauki.pl/articles/129719.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
ASTER
lodowiec
klasyfikacja
eCognition
segmentacja obrazu
tekstura
glacier
classification
segmentation
texture
Opis:
Celem prezentowanej pracy była ocena możliwości wykorzystania obrazów satelitarnych ASTER do określenia stopnia uszczelinienia powierzchni lodowców Svalbardu. Pierwszy etap badań polegał na określeniu granic lodowców. Przetestowano metody stosowane w tym celu w ramach projektu GLIMS (Global Land Ice Measurement from Space) oraz zaproponowano własne podejście oparte o wykorzystanie obrazu nasycenia uzyskanego na drodze transformacji IHS kompozycji barwnej z kanałów 345. Dla oddzielenia lodowców od obszarów kry lodowej zaproponowano wykorzystanie wybranych miar teksturalnych. Próby wyodrębnienia w granicach wydzielonych wcześniej lodowców obszarów uszczelinionych na drodze klasyfikacji nadzorowanej nie dały zadowalających rezultatów. Ostatnia część przeprowadzonych badań miała na celu przygotowanie obrazu satelitarnego do klasyfikacji obiektowej w programie eCognition poprzez opracowanie uniwersalnych parametrów segmentacji. Uzyskanie satysfakcjonujących rezultatów segmentacji w oparciu o kanały spektralne obrazu ASTER wymagało stosowania dla poszczególnych lodowców różnych parametrów skali, kształtu i zwartości, co znacząco utrudniałoby automatyzację procesu klasyfikacji. Poprawę rezultatów osiągnięto przeprowadzając wstępną segmentację w oparciu o 1 kanał obrazu ASTER, a dokładniejszą w oparciu o obraz tekstury uzyskany w programie MaZda. Otrzymane rezultaty segmentacji pozwalają przypuszczać, iż możliwe będzie przeprowadzenie klasyfikacji obiektowej w programie eCognition, której rezultatem będzie wydzielenie jako osobnej klasy obszarów uszczelinionych.
ASTER images applicability to surface crevassing assessment of tidewater glacier in southern Spitsbergen, Svalbard was investigated. In the first phase of research, the glaciers spatial extent determination methods were investigated - spectral bands rationing and Normalized Difference Snow Index (NDSI). A new method based on saturation image obtained by intensity-hue-saturation transformation of 345 colour composite was tested as well. Image texture parameters were applied to separate ice floats from glaciers. The supervised classification of original spectral bands for crevassed areas identification failed. Better results were achieved using chosen texture images, but still too many other glacier areas (e.g. dark moraines or streams on glacier surface) were classified as crevasses. In the last stage of research, object-oriented image analysis software (eCognition) was used. The parameters for ASTER image segmentation, resulting in determination of crevassed glacier areas as separate image segments, were searched. To achieve such a goal, image segmentation performed using ASTER spectral bands required different scale, shape and compactness factors for individual glaciers. This is because glacier dynamics and morphology differ, causing differences in shapes and extent of crevassed areas. Satisfactory results were achieved after the application of a two-level segmentation procedure: ASTER spectral band 1 segmentation using large scale parameter and than MaZda software computed texture image segmentation with a small-scale factor. The research confirmed the applicability of satellite ASTER images for monitoring the Svalbard glaciers. The spatial extent of the glaciers was determined by simple thresholding of transformed spectral bands and texture images. Furthermore, obtained segmentation results should enable successful application of object oriented image classification in eCognition to mapping of crevassed glacier areas. Such a classification is planned as the next stage of the research.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 29-39
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie cech strukturalnych obrazu Landsat ETM+ w klasyfikacji obiektowej kompleksów krajobrazowo-roślinnych
Application of structural features in the Landsat ETM+ image in object classification of landscape-vegetation complexes
Autorzy:
Kosiński, K.
Powiązania:
https://bibliotekanauki.pl/articles/130716.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
kompleks krajobrazowo-roślinny
klasyfikacja obiektowa
struktura
tekstura
filtracja kierunkowa
landscape-vegetation complex
object classification
structure
texture
directional filtering
Opis:
Kompleks krajobrazowo-roślinny zastosowano jako jednostkę podstawowa w rejestracji roślinności na kompozycji danych panchromatycznych LandsatETM+. Zastosowano sześć wskaźników struktury i tekstury: wariancje w oknie 5×5 pikseli (Var5×5), wskaźnik struktury pasowej (SSI) oraz trzy wskaźniki małych obiektów: obiektów wielkości 3×3 piksele (S3×3), jednego piksela (S1×1) i wskaźnik różnicowy (S3×3Dif). W obszarach miejskich możliwa jest identyfikacja kompleksów roślinności z zabudowa i kompleksów bez udziału roślinności.
Landscape vegetation complexes are used as the basic units for vegetation detection on Landsat ETM+ panchromatic data composition. Six structure and texture indexes are used: variance (Var5×5), strip structure index (SSI) and three small structure indexes: of size 3×3 pixels (S3×3), one pixel (S1×1) and differential index (S3×3Dif). Complexes of vegetation and buildings and complexes lack of vegetation may be distinguished in urban areas.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17a; 385-394
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda wizualizacji 3D w standardzie opengl obiektów bliskiego zasięgu
The 3D visualization method of close range objects in the opengl standard
Autorzy:
Janowski, A.
Sawicki, P.
Szulwic, J.
Powiązania:
https://bibliotekanauki.pl/articles/131180.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
bliski zasięg
OpenGL
GLScene
wire frame
tekstura
wizualizacja 3D
baza danych
Internet
close range
wire frame model
texture
3D visualization
database
internet
Opis:
Prezentowana autorska aplikacja "3D Visualization" jest przeznaczona do fotorealistycznej wizualizacji 3D obiektów bliskiego zasięgu. Procedura tworzenia realnych scen 3D oparta jest na bibliotece graficznej w standardzie OpenGL, oprogramowaniu Delphi 2006 Professional wzbogaconym o komponenty GLScene oraz narzędziach internetowych. Interfejs opracowanego programu jest typu MDI. Osnowę informacyjną do tworzenia wizualizacji scen 3D stanowią dane wektorowo-rastrowe i ich wzajemne relacje, otrzymane w wyniku kompleksowego fotogrametrycznego opracowania obiektów bliskiego zasięgu. Opracowany program "3D Visualization" umożliwia konstruowanie dynamicznej wizualizacji, lokalnie na pojedynczym stanowisku lub poprzez internet. W programie możliwa jest interaktywna modyfikacja sceny 3D poprzez zmianę parametrów projekcji, rotacji, translacji, skali, stanowisk kamery fotogrametrycznej, etc. Wszystkie dane związane z projektem wizualizacji zapisane zostają w pliku, w autorskim formacie VCR. Aplikacja "3D Visualization" jest funkcjonalnie zintegrowana z jednocześnie opracowaną internetową bazą danych fotogrametrycznych bliskiego zasięgu. Testowanie programu przeprowadzono na podstawie wyników analityczno-cyfrowego opracowania obiektu architektonicznego.
The main aim of 3D visualization used in close range digital photogrammetry is the reconstruction and virtual presentation of a real object. High accuracy and quality of visualization can be achieved only with 3D scenes generated on the basis of data registered in the measurement of digital images in professional photogrammetric systems or by the use of dedicated applications. The "3D Visualization" application is an example of such a solution, which uses modern methods of digital image processing, computer graphics techniques, a database system and the Internet environment. The application "3D Visualization" proposed in the study enables photorealistic 3D visualization of objects recorded in close range. The process of creating real 3D scenes is based on a graphic library in the OpenGL standard and Delphi 2006 Professional programming tools enriched with GLScene components and Internet tools. The application consists of two basic modules, "Visual Scene Maker" and "Visual Scene Viewer", which are responsible for enabling creating and viewing 3D scenes. An interface of the application is MDI (Multi Document Interface) type. Vector and raster data and their relations, which were achieved in the process of photogrammetric close range evaluation provided the basis for 3D scene visualization. Textures applied on planes defined in the wire frame model must be generated from original digital images and the OpenGl standard must be maintained. Textures must be resampled in order to achieve optimal size for presentation of 1024 × 1024 pixels. The elaborated "3D Visualization" application enables constructing a dynamic visualization on a desktop application and over the Internet. A number of functions provide interactive modification of the visualized 3D scene by changing projection, rotation, translation, scale and camera stations parameters, etc. All data connected with a visualization project are saved as a file, in VCR file format, which was elaborated especially for the application. The software "3D Visualization" is functionally integrated with an internet database for photogrammetric close range applications, which was elaborated at the same time. The application is a technologically advanced and practically tested product dedicated to VR (Virtual Reality) type presentations. The application was tested based on the results of an analytical and digital evaluation of an architectural object.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 239-247
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wirtualna kopia reliktów romańskich z kościoła św. Andrzeja w Krakowie
Virtual copy of romanesque relicts of st. Andrew’s church in Kraków
Autorzy:
Boroń, A.
Dziedzic, A.
Powiązania:
https://bibliotekanauki.pl/articles/130147.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
cyfrowa inwentaryzacja fotogrametryczna
model szkieletowy
model powierzchniowy
fotoplan cyfrowy
tekstura naturalna
wizualizacja
VRML
architectural documentation
digital photoplan
wire frame model
surface modeling
natural texture
visualization
Opis:
Odsłonięte w 2003 roku w kościele św. Andrzeja w Krakowie relikty romańskiej absydioli wraz z przyległym do niej fragmentem nawy, pokryte w dużej części malowidłami stanowią jedno z największych odkryć ostatnich lat w Krakowie. Ujawniona dekoracja malarska jest unikatem ze względu na czas jej powstania (XII w.) i prawdopodobnie stanowi najstarszy zachowany zespół romańskich fresków w Polsce. W roku 2001 i 2003 zespół Zakładu Fotogrametrii i Informatyki Teledetekcyjnej WGGiIŚ AGH wykonał dwie fotogrametryczne dokumentacje cyfrowe w postaci fotoplanów obiektu. Fotoplany przedstawiały stan przed i po zakończeniu prac konserwatorskich. Ze względu na niedostępność obiektu związaną z jego lokalizacją na terenie klasztoru o ścisłej klauzurze, autorzy podjęli próbę wykonania wirtualnej kopii 3D reliktów romańskich jedynie na podstawie istniejących fotoplanów oraz geodezyjnych i fotogrametrycznych materiałów źródłowych. W artykule opisano wszystkie etapy prowadzące do pozyskania wirtualnej kopii zabytku. Począwszy od dokumentacji fotogrametrycznej, przez model wektorowy 3D, do modelu powierzchniowego pokrytego naturalnymi teksturami. Dodatkowo wykonany został również model zrekonstruowanej absydioli na podstawie analizy geometrycznej jej pozostałości. Ostatecznie wizualizowany model absydioli zapisany został w języku VRML dla potrzeb udostępnienia go poprzez Internet.
One of the biggest archaeological discoveries in Kraków in recent years were relicts of Romanesque architecture – an apse with an adjoining fragment of a nave, which were found in St. Andrew church in 2003. These relics are mostly covered by unique XII century’s frescos -probably the oldest Romanesque wall paintings in Poland. Photogrammetry and Remote Sensing Information Department team made two digital documentations of the object in the form of photoplans, from the years 2001 and 2003 (before and after conservation works). Because of the inaccessible location of the object to visitors (enclosure at a convent) the authors made the virtual 3D copy of the object based only on existing photoplans and source surveying materials. In this paper, the authors describe all stages of this elaboration. The wire frame model was created based on vectors, which were prepared using the VSD photogrammetric station, while elaboration of stereopairs was made with a UMK 10/1318 camera. The edges, which were invisible on stereopairs, were reconstructed based on existing photoplans with the application of the special geometrical constructions. Three versions of the wire frame model were prepared: the nave with the remains of an apse, the nave with an entrance wall and the nave with the geometrical reconstruction of an apse. Based on wire-frame models, all surfaces of the object were defined. Both wire-frame and surface models were prepared with the use of AutoCad. The irregular surface models of Romanesque relicts were covered by natural textures of high resolution photoplans. This rendering process was made using 3Dsmax software. The visualized model of the apse was converted into VRML to make it available in the Internet. The result of the described work shows the possibility of creating detailed, irregular 3D models of objects, which meet accuracy standards of photogrammetric documentation, based only on source survey data collected for photogrammetric documentation (in the form of photoplans) purposes.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 75-85
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena wybranych programów typu freeware do modelowania 3D obiektów bliskiego zasięgu
Assessment of chosen freeware applications for 3D modeling of close range objects
Autorzy:
Sawicki, P.
Tomaszewski, T.
Powiązania:
https://bibliotekanauki.pl/articles/129607.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
obraz cyfrowy
model szkieletowy
tekstura
modeler
modelowanie 3D
renderowanie
wizualizacja 3D
digital image
wire frame model
texture
3D modeling
rendering
3D visualization
Opis:
W pracy przedstawiono wyniki testów oraz ocenę narzędzi, interfejsu użytkownika i funkcjonalności 4. darmowych programów do modelowania 3D (Freeware Modelers). Analizowano programy 32-bit pracujące w środowisku Windows: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 oraz Google SketchUp v7.1.6860, które w dn. 1.12.2009 r. w rankingu strony internetowej www.dobreprogramy.pl uzyskały najwyższą oceną użytkowników. Zaawansowane modelowanie obiektu o wymiarach 42.5 × 30.5 × 10.5 m wykonano na podstawie 16. zdjęć, które zarejestrowano niemetrycznym aparatem cyfrowym Olympus E510 (10 MP). Dokładne dane do modelowania pozyskano w wyniku bezpośredniego pomiaru terenowego oraz z dokumentacji projektowej obiektu. W pracy przedstawiono etapy modelowania, porównano czas oraz efektywność budowy modelu 3D w testowanych programach. Program Blender 2.49b okazał się najbardziej zaawansowanym darmowym narzędziem o rozbudowanej funkcjonalności do realistycznego tworzenia modelu 3D obiektu. Modeler Google SketchUp v7.1.6860 sklasyfikowano na drugim miejscu wśród testowanych aplikacji, przede wszystkim ze względu na krótki czas przetwarzania informacji obrazowych oraz najlepsze środowisko do nauki modelowania 3D. Aplikacja TrueSpace v7.6 charakteryzuje się najlepszymi właściwościami do tworzenia oraz wizualizowania fotorealistycznych scen 3D, dzięki rozbudowanej bibliotece gotowych obiektów oraz łatwym manipulowaniem źródłami światła i położeniem kamery. Program 3D Canvas 8.1.7 Build 1418 w wersji darmowej, ze względu na ograniczony dostęp do niektórych narzędzi i funkcji, uznano za najmniej skuteczny i funkcjonalny. Testowane darmowe programy: Blender 2.49b, Google SketchUp v7.1.6860, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 należy polecić użytkownikom zaczynającym pracę w środowisku modelowania 3D. Rozbudowane zestawy narzędzi do modelowania pozwalają tworzyć fotorealistyczne modele 3D obiektów bliskiego zasięgu o dowolnej wielkości i strukturze przestrzennej.
The paper presents the results of tests and assessment of tools, user interface and functionality of 3D modeling freeware applications (modelers). The following four 32-bit applications, which on 1.12.2009 received the highest rating on www.dobreprogramy.pl website, were chosen for testing: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7, Build 1418 and Google SketchUp v7.1.6860. Advanced modeling of an object with dimensions of 42.5 × 30.5 × 10.5 m was performed based on 16 photos, recorded with a non-metric Olympus E510 digital camera (10 MP). Precise data for modeling was obtained by direct field measurement and project documentation of the object. The paper describes the various stages of modeling, an assessment of efficiency and time needed to create a 3D model in the applications tested. Theapplication Blender 2.49b proved to be the most advanced freeware tool with expanded functionality for creating a realistic 3D model of the object. Among tested applications the modeler Google SketchUp v7.1.6860 was classified at the second position, first of all thanks to short image data processing time and the best 3D modeling learning opportunities. The extensive library and easy adjusting light and camera positions make TrueSpace v7.6 the best application for creating and visualization of photorealistic 3D scenes. Freeware version of 3D Canvas 8.1.7 Build 1418 is considered to be the least effective and functional application due to limited access to certain tools and features. The tested freeware 3D modelers: Blender 2.49b, TrueSpace v7.6, 3D Canvas 8.1.7 Build 1418 and Google SketchUp v7.1.6860 are recommended for users starting work in 3D modeling environment. The expanded sets of modeling tools allow creating photorealistic 3D models of close-range objects of any size and spatial structure.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2010, 21; 363-374
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-7 z 7

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies