Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "images processing" wg kryterium: Temat


Tytuł:
O pewnej metodzie wspomagania identyfikacji wizyjnej obiektów podwodnych
On a method for supporting visual identification of underwater objects
Autorzy:
Żak, Bogdan
Garus, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/1359354.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Medycyny i Techniki Hiperbarycznej
Tematy:
ozpoznanie akwenu podwodnego
przetwarzanie obrazów
identyfikacja obiektów na obrazach wizyjnych
reconnaissance of an underwater area
image processing
identification of objects in video images
Opis:
Poszukiwanie i wykrycie obiektów znajdujących się w toni wodnej realizowane jest przez grupy wyspecjalizowanych nurków i płetwonurków. Jednakże ich czas przebywania pod wodą oraz możliwości penetracji głębin są ograniczone. Z tych względów coraz częściej do tych zadań wykorzystywane są bezzałogowe pojazdy podwodne wyposażone w środki technicznej obserwacji do których należą między innymi kamery TV. Tak więc do rozpoznania i klasyfikacji obiektów podwodnych są wykorzystywane obrazy wizyjne pochodzące z kamer zainstalowanych na pojazdach. Proces rozpoznania i identyfikacji obiektów jest procesem żmudnym i trudnym, wymagającym analizy wielu sekwencji obrazów, dlatego dąży się do jego automatyzacji. Wychodząc na przeciw tym potrzebom w artykule przedstawiono koncepcję identyfikacji podwodnych obiektów na podstawie obrazów wizyjnych akwenu podwodnego przesłanego z bezzałogowego pojazdu podwodnego na okręt bazę. Opisano metody przetwarzania wstępnego obrazów wizyjnych akwenu podwodnego oraz metodę poszukiwania wybranych obiektów na tych obrazach i ich identyfikację przy wykorzystaniu transformaty Hougha. Ponadto w pracy przedstawiono wyniki wstępnego przetwarzania oraz identyfikacji dokonanej na obrazach akwenu podwodnego oraz obrazie po operacji rozplotu.
The search and detection of objects under water is carried out by groups of specialised divers. However, their time underwater and their ability to penetrate the depths are limited. For these reasons, the use of unmanned underwater vehicles equipped with technical observation equipment, including TV cameras, is becoming increasingly popular for these tasks. Video images from cameras installed on vehicles are used to identify and classify underwater objects. The process of recognition and identification of objects is tedious and difficult and requires the analysis of numerous sequences of images, and so it is desirable to automate this process. In response to these needs, this article presents the concept of identification of underwater objects based on visual images from an underwater body of water sent from an unmanned underwater vehicle to a base vessel. The methods of initial processing of the observed images from an underwater area as well as the method of searching for selected objects in these images and their identification with the use of the Hough transform will be described. Furthermore, the paper presents the results of the preliminary processing and identification of the observed images following a deconvolution operation.
Źródło:
Polish Hyperbaric Research; 2019, 1(66); 25-34
1734-7009
2084-0535
Pojawia się w:
Polish Hyperbaric Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of the influence of filtering scanned historical aerial images on the accuracy of digital aerial triangulation
Analiza wpływu filtracji skanowanych historycznych zdjęć lotniczych na dokładność automatycznej aerotriangulacji cyfrowej
Autorzy:
Woroszkiewicz, M.
Ewiak, I.
Powiązania:
https://bibliotekanauki.pl/articles/129591.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
image filtering
historical aerial images
aerial triangulation
digital images processing
filtracja obrazów
historyczne zdjęcia lotnicze
aerotriangulacja
cyfrowe przetwarzanie obrazów
Opis:
Contrary to aerial images obtained by digital cameras, scanned aerial images are characterized by a lower radiometric resolution and reduced contrast. These parameters have a direct relationship with the quality of the image matching using correlation including the number and accuracy of measurement of tie points in the aerial triangulation. Digital images processing, including filtration in the domain of an object, allows for increasing the contrast, removing noises, and intensifying and detecting edges of objects mapped in the images. This article examines the influence of the key processes of digital image processing on the increase of their measuring and information values. Used in the studies was a block of historical aerial images, covering an area of the western part of Warsaw district, acquired in the 1950s and made available by the Main Centre of Geodetic and Cartographic Documentation (CODGIK). The scope of the study covered the analysis of the impact of selected linear filters, together with high-pass and low-pass filters and also non-linear filters, including statistical and adaptive filters, with different mask sizes, on the accuracy of the field coordinate designation of a tie point in the aerial triangulation. Context operations and also the analysis of contrast correction were carried out in ERDAS 2013. Automatic measurement of tie points together with conducting a relative and absolute adjustment for the block of images orientation were carried out in Inpho 6.0. The results of automatic measurement of tie points for the block of aerial images covered by the radiometric correction were compiled with analogical results obtained for unprocessed images. The measure of the effectiveness of the applied filtration and operations on the images was the mean average error of field coordinate designation of the tie point, the average error of the background coordinate measurement on the image and also the number and distribution of automatically measured ties.
W przeciwieństwie do obrazów lotniczych pozyskiwanych przy udziale kamer cyfrowych, skanowane zdjęcia lotnicze charakteryzują się niższą rozdzielczością radiometryczną oraz obniżonym kontrastem. Parametry te mają bezpośredni związek z jakością pomiaru wykorzystującego dopasowanie obrazów, w tym z liczbą i dokładnością pomiaru punktów wiążących w aerotriangulacji. Cyfrowe przetwarzanie obrazów, w tym filtracja w dziedzinie obiektowej umożliwia zwiększenie kontrastu, usunięcie szumów, a także wzmocnienie i detekcję krawędzi obiektów odwzorowanych na zdjęciach. W niniejszym artykule zbadano wpływ kluczowych procesów cyfrowego przetwarzania obrazów na zwiększenie ich walorów pomiarowych i informacyjnych. W badaniach został wykorzystany blok historycznych zdjęć lotniczych, obejmujący obszar powiatu warszawskiego zachodniego, pozyskanych w latach 50. ubiegłego wieku i udostępnionych przez Centralny Ośrodek Dokumentacji Geodezyjnej i Kartograficznej. Zakres badań obejmował analizę wpływu wybranych filtrów liniowych, w tym górnoprzepustowych i dolnoprzepustowych oraz filtrów nieliniowych, w tym statystycznych i adaptacyjnych, dla różnych rozmiarów maski, na dokładność wyznaczenia współrzędnej terenowej punktu wiążącego w aerotriangulacji. Operacje kontekstowe, a także analiza korekcji kontrastu zostały zrealizowane w środowisku oprogramowania ERDAS w wersji 2013. Automatyczny pomiaru punktów wiążących wraz z przeprowadzeniem orientacji wzajemnej i bezwzględnej bloku zdjęć zostały zrealizowane w środowisku oprogramowania Inpho w wersji 6.0. Wyniki automatycznego pomiaru punktów wiążących dla bloku zdjęć lotniczych objętych korekcją radiometryczną zostały zestawione z analogicznymi wynikami uzyskanymi dla zdjęć nieprzetworzonych. Miarą skuteczności działania zastosowanych filtracji i operacji na zdjęciach był przeciętny błąd średni wyznaczenia współrzędnej terenowej punktu wiążącego, przeciętny błąd pomiaru współrzędnej tłowej na zdjęciu, a także liczba i rozmieszczenie pomierzonych automatycznie wiązań.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 157-167
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda znajdowania komórek i zliczania ognisk występowania histonu γ-H2AX w obrazach na potrzeby detekcji dwuniciowych pęknięć DNA
Method for cell finding and histone γ-H2AX foci counting in images for detecting DNA double-strand breaks
Autorzy:
Wojciechowski, P.
Bal, A.
Powiązania:
https://bibliotekanauki.pl/articles/154831.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
γ-H2AX
dwuniciowe pęknięcia DNA
przetwarzanie obrazów
obrazy biomedyczne
segmentacja wododziałowa
double-strand breaks (DSB)
image processing
biomedical images
watershed segmentation
Opis:
Niniejsza praca opisuje algorytm automatyzujący proces zliczania ognisk histonu γ-H2AX w obrazach mikroskopowych. Ogniska te są miejscami, w których doszło do fosforylacji białka histonu H2AX w pozycji seryny 139 wskutek dwuniciowych pęknięć DNA. Propono-wana metoda działa dwuetapowo. Najpierw w obrazie mikroskopowym selekcjonowane są obiekty uznawane za komórki, a następnie na obszarze tych obiektów poszukiwane są miejsca wyznakowane barwnikiem fluorescencyjnym związanym z przeciwciałem anty-γ-H2AX - miejsca te wskazują na lokalizację ognisk γ-H2AX.
This paper describes an algorithm for automating the process of counting foci of histone γ-H2AX in microscope images. Foci are the places where there occurred H2AX protein phosphorylation on Ser139 site in response to DNA double-strand breaks (DSBs). In a γ-H2AX genotoxic test the number of foci per a single cell is counted. The proposed method works in two stages. The first stage is segmentation of a microscopic image (Fig. 1a) for selecting cell regions. For this purpose fusion of binarization methods is used - for the each pixel the result is obtained by comparison of the results from the Otsu method, the triangle method and the method in which the threshold is equal to the image average brightness. The pixel is classified as an object's pixel when at least two methods give such results. For improving segmentation results a morphological filter is used. The results (Fig. 1b) usually comprise regions representing single cells (Fig. 1c) and a set of agglomerated cells (Fig. 1d). A modified watershed segmentation and region classify method is used for separation of agglomerated cells into regions representing only one cell. The final result (Fig.1e) contains only regions representing single cells. In the second stage for each single cell region the foci (which are marked with a fluorescent indicator joined with anti- γ-H2AX antibody) are found (Fig. 3) with use of watershed segmentation on the pseudogradient image (which is obtained by aggregation of the results of cell image binarization with different thresholds; Fig. 2). The final results in form of foci number as a function of time after irradiation (Fig. 4) are similar to the test results of non-lethal DNA damages founded in the literature (e.g. [5]) - this allows stating that the presented method gives good results.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 4, 4; 387-390
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda usuwania duchów na przykładzie akwizycji obrazów HDR z wykorzystaniem wspomagania sprzętowego GPU
Ghosts removal approach for high dynamic range images acquisition based on GPU
Autorzy:
Tomaszewska, A.
Markowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/154035.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
usuwanie duchów
programowalny procesor graficzny
akwizycja obrazów HDR
ghosts removal
graphics processing unit
HDR images acquisition
Opis:
W artykule zaprezentowano szybką i w pełni automatyczną technikę wykrywania i usuwania duchów, powstających w wyniku składania sekwencji zdjęć danej sceny. Prezentowane podejście umożliwia rejestrację sceny bez konieczności wykorzystania specjalistycznego sprzętu. Działanie algorytmu zaprojektowanego pod kątem implementacji sprzętowej z wykorzystaniem procesora GPU oraz zaprezentowano na przykładzie algorytmu akwizycji obrazów o szerokim zakresie dynamiki, weryfikując jego poprawność za pomocą algorytmu HDR VDP.
In the paper we present the method for fast and full automatic approach for ghosts removal on programmable graphics hardware. The technique is based on probability maps that are calculated with comparison function from sequences of hand-held photographs. In practice, several basic problems occur when taking an image sequence. First, the camera is moving which causes images to misalign. This results in a blurry image. Secondly, objects are in movement causing ghost artifacts. In the paper we present a technique for acquisition of non-static scenes. The algorithm we implement as a part of system for acquisition of hand-held high dynamic range (HDR) images. Our application of this technique allows to create correct HDR image based on a simple sequence of the LDR (Low Dynamic Range) photographs with overlapped ghost regions. Additionally, the application aligns photographs and provides image de-noising. Most of computations are efficiently performed on GPU with the use of vertex and pixel shaders. We compare the performance of GPU-based implementation with standard approach and validated our results via HDR VDP (ang. High Dynamic Range Visual Difference Predicator) algorithm. The paper is organized as follows. In section 2 previous works are discussed. In section 3, the application of our HDR acquisition technique and its hardware implementation are presented. Section 4 shows achieved results. Finally we have concluded the paper.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 678-680
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Blob Extraction Algorithm in Detection of Convective Cells for Data Fusion
Autorzy:
Szuster, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/307700.pdf
Data publikacji:
2019
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
big data
blob extraction
data fusion
data integration
image processing
radar images
Opis:
Earth’s atmosphere is monitored by a multitude of sensors. It is the troposphere that is of crucial importance for human activity, as it is there that the weather phenomena take place. Weather observations are performed by surface sensors monitoring, inter alia, humidity, temperature and winds. In order to observe the developments taking place in the atmosphere, especially in the clouds, weather radars are commonly used. They monitor severe weather that is associated with storm clouds, cumulonimbuses, which create precipitation visible on radar screens. Therefore, radar images can be utilized to track storm clouds in a data fusion system. In this paper an algorithm is developed for the extraction of blobs (interesting areas in radar imagery) used within data fusion systems to track storm cells. The algorithm has been tested with the use of real data sourced from a weather radar network. 100% of convection cells were detected, with 90% of them being actual thunderstorms.
Źródło:
Journal of Telecommunications and Information Technology; 2019, 4; 65-73
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykrywanie wad termokompresji w strukturach tyrystorów dużej mocy za pomocą termografii impulsowej
Detection of thermocompression failures in high-power thyristor structures using pulsed thermography
Autorzy:
Suszyński, Z.
Bednarek, M.
Powiązania:
https://bibliotekanauki.pl/articles/154450.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termografia impulsowa
korelacja
struktura warstwowa
obrazy kontrastowe
przetwarzanie obrazów
pulse thermography
correlation
layered structure
contrast images
images processing
Opis:
W artykule przedstawiono możliwość wykorzystania funkcji korelacji do przetwarzaniu sekwencji obrazów kontrastowych uzyskanych metodą termografii impulsowej. Metoda pozwala na wyodrębnienie obszarów powierzchni badanego elementu znajdujących się nad niejednorodnością cieplną występującą w strukturze. Badania wykonano na elementach warstwowych stosowanych do produkcji tyrystorów dużej mocy. Niejednorodność występująca w takich elementach związana jest z występowaniem defektów w obszarze przejściowym pomiędzy krzemem i molibdenem powstałych w trakcie termokompresji.
Active thermography with pulse excitation is a diagnostic method enabling fast visualisation of thermal heterogeneity present in the volume of layered structures of semiconductor components. To improve the results obtained, when simultaneously increasing the detectability of heterogeneities related to structure defects, it is necessary to apply image processing methods. The studies were carried out for components used to manufacture high power thyristors. The test stand is composed of a set of 6 high power flash lamps, spectral filters and high speed infrared camera. The measurements consisted in recording a sequence of thermograms during the excitation of the tested object with an optical impulse derived from six flash lamps. The differences between the maximum temperature contrast on the surface of the tested component and various times of its occurrence for various defects (Fig. 6) are inconvenience in diagnostic process. While determining the location and area of the thermal heterogeneities in such structures as the tested components, it is of minor importance to determine thermal and geometrical properties of the defect precisely. The proposed method (Fig. 7) helps to generate an image depicting adjustment of contrast changing curve in time to the assumed reference function. Use of the linear correlation function to generate correlation images helps to increase the detectability of heterogeneous of thermal properties (Fig. 12).
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 10, 10; 1202-1205
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorytm automatycznej detekcji kącików oczu w obrazach termowizyjnych
Algorithm of automatic eye canthis detection in thermographic images
Autorzy:
Strąkowska, M.
Strzelecki, M.
Powiązania:
https://bibliotekanauki.pl/articles/154636.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
detekcja kącików oczu
termografia w podczerwieni
przetwarzanie obrazów
eye canthis detection
thermal images
image processing
Opis:
W artykule przedstawiono algorytm automatycznej detekcji kącików oczu na obrazie termowizyjnym, w celu bezkontaktowego pomiaru wewnętrznej temperatury ciała człowieka. Wykazano bowiem, że temperatura mierzona w kącikach oczu dobrze odzwierciedla temperaturę ciała człowieka i jest niezależna od czynników zewnętrznych [1, 2]. Algorytm bazuje głównie na przekształceniach morfologicznych obrazu oraz na geometrii twarzy człowieka. Ze względu na prostotę, stosunkowo niewielką złożoność obliczeniową nadaje się do zaimplementowania w kamerze termowizyjnej pozwalając tym samym stworzyć zupełnie autonomiczny system, który mógłby być wykorzystany np. na lotniskach jako sprzęt to automatycznej detekcji gorączki.
The paper presents the algorithm of automatic eye canthis detection in thermal images. It is very important nowadays because it is proved that the temperature measured in eye canthis is the most reliable and stable temperature on human body considering thermovision measurements [1]. Former such measurements were taken manually. Our approach is to make it automatically, that is to create a completely autonomic system measuring the inner human body temperature in crowded places where it is impossible to do this another way (for example at airports, railway stations). Such a system could halt spread of the epidemic. The presented algorithm is mainly based on morphological operation and geometrical face features. First, we find the human face, use morphological operations such as opening, closing, reconstruction. Then, we extract local maxima, label the region of interest and, finally, surround the face with ellipses and basing on the length of the minor and major axis find the eye canthis. The algorithm was tested on 25 thermodiagrams, acquired for different face positions and distances. The paper shows the results of this experiment. Because the algorithm is very simple and fast, it could be very easily imple-mented inside a thermovision camera.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 10, 10; 1165-1168
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stereoscopic video chroma key processing using NVIDIA CUDA
Autorzy:
Sagan, J.
Powiązania:
https://bibliotekanauki.pl/articles/106272.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
NVIDIA CUDA
chroma key processing
GPU
CPU
stereoscopic images
Opis:
In this paper, I use the NVIDIA CUDA technology to perform the chroma key algorithm on stereoscopic images. NVIDIA CUDA allows to process parallel algorithms on GPU. Input data are stereoscopic images with the monochromatic background and the destination background image. Output data is the combination of inputs by using the chroma key. I compare the algorithm efficiency between the GPU and CPU execution.
Źródło:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica; 2013, 13, 1; 81-87
1732-1360
2083-3628
Pojawia się w:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of computer vision and image analysis technics
Autorzy:
Rybchak, Z.
Basystiuk, O.
Powiązania:
https://bibliotekanauki.pl/articles/411187.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
computer vision
image recognition
object recognition
machine learning
computer with high-level understanding
digital images processing
scene reconstruction
wizja komputerowa
rozpoznawanie obrazów
rozpoznawanie obiektów
systemy uczące się
cyfrowe przetwarzanie obrazów
Opis:
Computer vision and image recognition are one of the most popular theme nowadays. Moreover, this technology developing really fast, so filed of usage increased. The main aims of this article are explain basic principles of this field and overview some interesting technologies that nowadays are widely used in computer vision and image recognition.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2017, 6, 2; 79-84
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of digital image processing methods for obtaining contours of objects on ultrasound images of the hip joint
Zastosowanie metod cyfrowego przetwarzania obrazu do uzyskiwania konturów obiektów na obrazach ultrasonograficznych stawu biodrowego
Autorzy:
Ratushnyi, Pavlo
Bilynsky, Yosyp
Zhyvotivskyi, Stepan
Powiązania:
https://bibliotekanauki.pl/articles/2033338.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
ultrasound images
diagnostics
hip joint
digital processing
sharpening
contour
zdjęcie ultrasonograficzne
diagnostyka
staw biodrowy
obróbka cyfrowa
ostrzenie
kontur
Opis:
In this work, the problems of research of ultrasonic images of joints are formulated. It is that for early diagnosis of developmental disorders of the hip joints needs to take frequent pictures, and the least harmful to health is ultrasound. But the quality of such images is not sufficient for highquality automated measurement of geometric parameters and diagnosis of deviations. The ultrasound image of the hip joint is evaluated by quantifying the exact values of the acetabular angle, the angle of inclination of the cartilaginous lip, and the location of the center of the femoral head. To get these geometric parameters, you need to have clear images of objects. And for the operation of automated computer measurement systems, it is necessary to use such methods of pre-digital image processing, which would give clear contours of objects. Known and available image processing algorithms, in particular contour selection, face problems in processing specific medical images. It is proposed to use the developed method of sharpening to further obtain high-quality contour lines of objects. A mathematical model of the method is presented, which is a formula for converting the intensity values of each pixel of a digital image. As a result of this method, the noise component of the image is reduced, and the intensity differences between the background and the objects are increased, and the width of these differences is one pixel. The algorithm of a sequence of processing of ultrasonic images and features of its application have resulted. The results of the developed set of methods are given. The paper presents the results of processing the real image of the hip joint, which visually confirms the quality of the selection of objects on view.
W pracy sformułowano problematykę badań ultradźwiękowych obrazów stawów. Polega ona na tym, że do wczesnej diagnostyki zaburzeń rozwojowych stawów biodrowych konieczne jest częste wykonywanie zdjęć, a najmniej szkodliwe dla zdrowia są badania USG. Jednak jakość uzyskanych obrazów nie jest wystarczająca do tego, by z wysoką jakością przeprowadzić automatyczne pomiary parametrów geometrycznych i diagnostykę odchyleń. Obraz ultrasonograficzny stawu biodrowego ocenia się poprzez ilościowe określenie dokładnych wartości kąta panewki, kąta nachylenia warstwy chrzęstnej i położenia środka głowy kości udowej. Aby uzyskać te parametry geometryczne, musisz konieczne są wyraźne obrazy obiektów. Do obsługi zautomatyzowanych komputerowych systemów pomiarowych konieczne jest stosowanie takich metod przedcyfrowego przetwarzania obrazu, które dawałyby wyraźne kontury obiektów. Znane i dostępne algorytmy przetwarzania obrazu, w szczególności wybór konturu, napotykają problemy w przetwarzaniu określonych obrazów medycznych. Proponuje się wykorzystanie opracowanej metody wyostrzenia w celu dalszego uzyskania wysokiej jakości konturów obiektów. Przedstawiono model matematyczny metody będący formułą do przeliczania wartości natężenia każdego piksela obrazu cyfrowego. W wyniku tej metody zmniejsza się składowa szumu obrazu, a różnice intensywności między tłem a obiektami są zwiększane, a szerokość tych różnic wynosi jeden piksel. Opracowano algorytm kolejności przetwarzania obrazów ultradźwiękowych i cechy jego zastosowania. Podano wyniki opracowanego zestawu metod. W pracy przedstawiono wyniki przetwarzania rzeczywistego obrazu stawu biodrowego, co wizualnie potwierdza jakość doboru obiektów widzenia.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2021, 11, 2; 22-25
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fast reduction of large dataset for nearest neighbor classifier
Autorzy:
Raniszewski, M.
Powiązania:
https://bibliotekanauki.pl/articles/333106.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
metody podziału
metody redukcji
przetwarzanie obrazów
reguła najbliższego sąsiada
pomiar reprezentatywny
division methods
reduction methods
images processing
nearest neighbour rule
representative measure
Opis:
Accurate and fast classification of large data obtained from medical images is very important. Proper images (data) processing results to construct a classifier, which supports the work of doctors and can solve many medical problems. Unfortunately, Nearest Neighbor classifiers become inefficient and slow for large datasets. A dataset reduction is one of the most popular solution to this problem, but the large size of a dataset causes long time of a reduction phase for reduction algorithms. A simple method to overcome the large dataset reduction problem is a dataset division into smaller subsets. In this paper five different methods of large dataset division are considered. The received subsets are reduced by using an algorithm based on representative measure. The reduced subsets are combined to form the reduced dataset. The experiments were performed on a large (almost 82 000 samples) two–class dataset dating from ultrasound images of certain 3D objects found in a human body.
Źródło:
Journal of Medical Informatics & Technologies; 2010, 16; 111-116
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Selekcja i przetwarzanie wzmocnionych przestrzennie obrazów wielospektralnych Landsat TM – porównanie wyników opartych o dane scalone i dane źródłowe
Selection and processing of the spatial enhanced multispectral Landsat TM images – comparison between the results from merged and source data
Autorzy:
Pirowski, T
Szczasiuk, G.
Powiązania:
https://bibliotekanauki.pl/articles/130848.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
integracja danych teledetekcyjnych
LANDSAT
IRS
przetwarzanie obrazowe
kompozycje barwne RGB
fusion of remotely-sensed images
image data processing
RGB image composites
Opis:
The paper presents results of merging lower-resolution spectral data (Landsat, 30m) with panchromatic images of higher spatial resolution (IRS 5.8m). During the first stage of the research, thirty methods of merging satellite data (including their variants) have been tested. The first assessment was based on statistical measures covering spectral distortion and spatial enhancement of pansharpened images. The second assessment was based on the color composite factors essential for photo interpretation. Comparing both obtained ranks of methods revealed substantial differences in their assessed spectral distortion. On the other hand, there appeared similarities in the obtained values for the spatial enhancement of pansharpened images. The reasons of such discrepancies were defined. The research allowed appointing the HPF (High Pass Filter) and LCM (Local Correlation Modeling) methods as the best according to the tested factors. In the second part of the research, the applicability of the selected methods was tested. Information content of color composites was analyzed as well as tresholding and band ratioing. In the tests there were used images fused through five merging methods: HPF, LCM, IHS (Intensity, Hue, Saturation), PCA (Principal Components Analysis) and WMK (based on band ratioing and having specific photo interpretation features). The findings of the research suggest that none of the merging algorithms provide universal solution. Depending on the data processing technique used, the best results are based on images obtained from various integration methods. It means that the method ranks do not correspond with method applicability. Methods appointed as the best ones obtain poor results in some tests and methods which came low in the rank received high rank in some tests. If this conclusion becomes confirmed, it might be necessary to revise the assessment methods of merged images.
W publikacji przedstawiono wyniki badań związanych z integracją danych spektralnych (Landsat) z obrazami panchromatycznymi o wyższej rozdzielczości przestrzennej (IRS). W pierwszym etapie porównano zgodność - przedstawionych we wcześniejszych publikacjach rankingów metod integracji: formalnej (Pirowski, 2009) i wizualnej (Pirowski, 2010). Zestawienie wykazało duże różnice w ocenie stopnia zniekształcenia informacji spektralnej generowanej przez poszczególne metody integracji. Natomiast potwierdziła się zgodność rankingów w aspektach związanych z oceną stopnia wzmocnienia przestrzennego syntetycznych obrazów. Za najlepsze metody, uzyskujące w obu rankingach wysokie noty, uznano HPF i LCM.. Wybranych pięć metod integracji - HPF, LCM, IHS, PCA i WMK - poddano testom praktycznym: analizie potencjału informacyjnego kompozycji barwnych, progowaniu oraz wagowaniu międzykanałowemu. Wstępne badania wskazują, iż żaden z algorytmów scalania nie daje produktu uniwersalnego. W zależności od zastosowanej techniki przetwarzania danych optymalne wyniki uzyskuje się bazując na obrazach pochodzących z różnych metod integracji. Pośrednio oznacza to, że opracowane rankingi nie przekładają się na aspekty praktyczne – metody, wskazane w nich jako najlepsze, wypadają w niektórych testach relatywnie słabo, i odwrotnie. Jeśli ta wstępna konkluzja się potwierdzi, oznaczać to będzie konieczność zrewidowania metod oceny scalonych obrazów.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2013, 25; 155-167
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie procesorów graficznych do szybkiego przetwarzania obrazów HDR
Fast Processing of HDR Images Based on GPU acceleration
Autorzy:
Mantiuk, R.
Tomaszewska, A.
Pająk, D.
Powiązania:
https://bibliotekanauki.pl/articles/155654.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
obrazy HDR
GPU
przetwarzanie obrazów
analiza obrazów
grafika komputerowa
HDR images
image processing
image analysis
computer graphics
Opis:
Zdjęcia HDR umożliwiają rejestrację jasności sceny, w zakresie widzia-nym przez człowieka. W celu poprawnego odwzorowania luminancji, obrazy HDR zapisywane są za pomocą 4-bajtowych liczb zmiennoprzecinkowych. Pomimo dużej wydajności obecne procesory CPU nie są w stanie przetworzyć w sposób interaktywny tak dużej liczby danych. W artykule zaprezentowano architekturę oraz implementację autorskiej biblioteki do przetwarzania i analizy obrazów HDR, wykorzystując procesor graficzny w charakterze jednostki wspomagającej obliczenia. Poprawność działania biblioteki przetestowano na przykładzie algorytmu kompresji tonów obrazów HDR.
High Dynamic Range imaging technology allows to capture a full range of luminance visible by a human. To achieve accurate reproduction of a luminance, HDR images are stored based on 4-bytes floating-point representation of pixel. Despite growing efficiency current CPU processors are not able to interactively process so huge amount of data. In the paper we present architecture and implementation of a novel library for processing and analysis of HDR images. The architecture of the HDR library is based on a programmable GPU (Graphics Processor Unit) hardware acceleration. We tested accuracy and efficiently of the library for the implementation of HDR tone compression algorithm.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 7, 7; 106-108
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of the Adaptive Center-Weighted Vector Median Framework for the Enhancement of cdna Microarray Images
Autorzy:
Lukac, R.
Smołka, B.
Powiązania:
https://bibliotekanauki.pl/articles/908149.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
informatyka
DNA microarray images
multichannel image processing
order-statistic theory
vector filters
impulsive noise
Opis:
In this paper a novel method of noise reduction in color images is presented. The new technique is capable of attenuating both impulsive and Gaussian noise, while preserving and even enhancing the sharpness of the image edges. Extensive simulations reveal that the new method outperforms significantly the standard techniques widely used in multivariate signal processing. In this work we apply the new noise reduction method for the enhancement of the images of the so called gene chips. We demonstrate that the new technique is capable of reducing the impulsive noise present in microarray images and that it facilitates efficient spot location and the estimation of the gene expression levels due to the smoothing effect and preservation of the spot edges. This paper contains a comparison of the new technique of impulsive noise reduction with the standard procedures used for the processing of vector valued images, as well as examples of the efficiency of the new algorithm when applied to typical microarray images.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2003, 13, 3; 369-383
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wybranych metod poprawiania treści obrazów sonarowych
Analysis of selected methods for enhancing the content of sonar images
Autorzy:
Łubczonek, J.
Zaniewicz, G.
Powiązania:
https://bibliotekanauki.pl/articles/346848.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
interpretacja obrazów sonarowych
przetwarzanie obrazów
hydrografia
sonar
interpretation of sonar images
image processing
hydrography
Opis:
Opracowanie obrazów sonarowych, podobnie jak lotniczych czy satelitarnych, wymaga przeprowadzenia złożonego procesu obróbki danych. Związane jest to zarówno z korekcją geometryczną jak również poprawianiem wartości zapisanych w pojedynczych pikselach. Zastosowanie danych sonarowych związane jest głównie z analizą informacji obrazowej. Stanowią one cenne źródło informacji o obiektach znajdujących się na dnie akwenu oraz jego ukształtowaniu. Obecne sensory sonarowe umożliwiają zapisanie danych w rozdzielczości wynoszącej kilka centymetrów, co teoretycznie powinno wpłynąć na poprawę potencjału interpretacyjnego obrazów. W istocie, mniejszy wymiar komórki rastra zwiększa szczegółowość obrazu, ale rejestracja jednokanałowa zmniejsza efektywność wykrycia i późniejszej identyfikacji obiektów. W związku z tym ważnym elementem w procesie interpretacji informacji sonarowej jest poprawianie jakości jego treści. Można to zrealizować za pomocą dedykowanych funkcji, które również stosuje się do poprawiania jakości zdjęć lotniczych czy obrazów satelitarnych. Obecne oprogramowanie daje szerokie możliwości poprawiania obrazów. Można tu wymienić programy dedykowane do obróbki cyfrowych fotografii, oprogramowanie GIS czy dedykowane programy do obróbki danych fotogrametryczno – teledetekcyjnych. Programy te są zazwyczaj zróżnicowane w zakresie funkcjonalności i dostępnych narzędzi. Ich obecne możliwości stały się motywacją do przeprowadzenia analizy wybranych metod poprawiania treści obrazów sonarowych. W niniejszej pracy analizę ukierunkowano na wyłonienie metod, które zwiększają efektywność wykrycia oraz późniejszej identyfikacji obiektów. W badaniach uwzględniono dedykowane oprogramowanie do obróbki danych sonarowych oraz stosowane w opracowaniu innych danych obrazowych. Praca realizowana w ramach projektu rozwojowego finansowany ze środków na naukę w latach 2011-2012 „Rozwinięcie metod przetwarzania geodanych w pomiarach hydrograficznych na akwenach morskich i śródlądowych”.
Working with side scan sonar images is similar to aerial photographs or satellite images and it requires a complex process of data processing. This is due to the geometric correction and values correction stored in the individual pixels. The use of sonar data is mainly related to the analysis of visual information. They are a valuable source of information about objects on the sea bottom and their shape. The present sonar sensors allow the operator to record data at a resolution of a few centimetres, which in theory should improve potential interpretation of images. In fact, a smaller raster cell size increases the detail, but single-channel recording reduces the effectiveness of detection and later identification of objects. Therefore, an important element in the interpretation of the sonar information is to improve the quality of its content. This can be done by dedicated functions, which are also used to enhance the quality of aerial photographs or satellite images. The present software provides wide possibilities to correct images, including software dedicated to processing digital photos, GIS software or software dedicated for photogrammetry and remote sensing data processing. These programs are usually different in terms of functionality and tools available. Their present capabilities provide motivation to analyse selected methods to improve the content of sonar images. In this paper, analyses were directed at the identification of methods to increase the efficiency of detection and later identification of objects. In the studies, dedicated software for sonar data processing and software used in processing other imaging data were included. Research work is financed from the fund for science in years 2011 – 2012.
Źródło:
Roczniki Geomatyki; 2013, 11, 2(59); 59-68
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies