Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "procesor graficzny" wg kryterium: Temat


Wyświetlanie 1-10 z 10
Tytuł:
Efekt rozpraszania podpowierzchniowego z wykorzystaniem programowalnego procesora graficznego
GPU based subsurface scattering effect
Autorzy:
Tomaszewska, A.
Stefanowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/155016.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
podpowierzchniowe rozpraszanie światła
percepcja
programowalny procesor graficzny
grafika komputerowa
subsurface scattering
perception
graphics processing unit
computer graphics
Opis:
W artykule zaprezentowano sposób obliczania w czasie rzeczywistym efektu podpowierzchniowego rozpraszania światła w obiektach częściowo przeźroczystych przy zwróceniu szczególnej uwagi na wydajność obliczeniową algorytmu. Algorytm zaprojektowanego pod kątem implementacji sprzętowej realizowanej na programowalnym procesorze graficznym. Dane przekazywane są do GPU w postaci zmiennych (uniform i attribute), gdzie wykorzystywane są do dalszych obliczeń. Porównanie wydajności prezentowanego podejścia z innymi algorytmami przedstawiono w podsumowaniu artykułu.
In the paper there is presented the spherical harmonics (SH) based method for subsurface scattering and its GPU-based implementation. The described approach is modification of the Green's algorithm [1]. The 3D model thickness was encoded for each vertex in every possible direction. The algorithm is divided into two parts: the preprocessing executed on CPU and the visualization stage designed for GPU. The tests were carried out and described. They revealed the effectiveness of the obtained results. To verify the results, they were compared with those obtained from other algorithms. The results show efficiency benefits of the authors' algorithm in comparison with the comparable quality approaches. Moreover, the modification of the Green`s algorithm improves the quality of the subsurface scattering effect, as the unnatural effect of sharp curves visible on the final images is reduced. It is possible because in this approach the way the light goes through an object depends on the model thickness. The paper is organized as follows. In Section 2 the previous works are discussed. In Section 3 the application of subsurface scattering based on the spherical harmonics and its hardware implementation are presented. Section 5 shows the obtained results. At the end of the paper there are given some concluding remarks.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 930-932
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Effective real-time computer graphics processing based on depth-of-field effect
Wspomaganie sprzętowe do efektywnego przetwarzania grafiki w czasie rzeczywistym na przykładzie efektu głębi ostrości
Autorzy:
Tomaszewska, A.
Bazyluk, B.
Powiązania:
https://bibliotekanauki.pl/articles/154559.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
efekt głębi widzenia
zakres widzenia
programowalny procesor graficzny
przetwarzanie grafiki 3D
depth of field effect
circle of confusion
graphics processing unit
3D computer graphics processing
Opis:
In this paper we present a GPU-based effect of an artificial depth of field, which varies with the distance from camera of the point that the user is looking at. Depth of field greatly enhances the scene's realism. The goal of our technique is the 3D approach with the user interaction that relies on the simulation of gaze point. Most of the computations are efficiently performed on the GPU with the use of vertex and pixel shaders.
W artykule zaprezentowano sprzętową implementację efektu głębi widzenia. Opracowane podejście zoptymalizowano wykorzystując informację o punkcie skupienia wzroku użytkownika. W artykule główną uwagę skoncentrowano na efekcie zachowania ostrości wyłącznie dla tego fragmentu sceny, na którym w danym momencie skupiony jest wzrok obserwatora. Działanie algorytmu zaprojektowano pod kątem implementacji sprzętowej z wykorzystaniem programowalnych jednostek cieniowania wierzchołków oraz fragmentów. Do synchronizacji shaderów (programów uruchamanych na karcie) oraz transferu danych pomiędzy pamięcią główną a GPU wykorzystano procesor CPU, a wszystkie dane przechowano w postaci 32-bitowych tekstur. W implementacji, moduły algorytmu wykonujące operacje macierzowe korzystały z obiektu bufora ramki umożliwiającego generowanie wyniku do tekstury zamiast do standardowego bufora okna. W celu prezentacji efektu głębi widzenia stworzono aplikację umożliwiającą przetestowanie wydajności algorytmu wykorzystującego informację o punkcie skupienia wzroku uzyskując wzrost wydajności nawet do 40% w porównaniu z podejściem bez optymalizacji [2]. W rozdziale 2 artykułu zaprezentowano przegląd istniejących algorytmów symulujących efekt głębi widzenia. Prezentowane podejście oraz jego implementację sprzętową przedstawiono w rozdziale 3. Rezultaty działania metody zaprezentowano w rozdziale 4 a podsumowanie w rozdziale 5.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 675-677
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda usuwania duchów na przykładzie akwizycji obrazów HDR z wykorzystaniem wspomagania sprzętowego GPU
Ghosts removal approach for high dynamic range images acquisition based on GPU
Autorzy:
Tomaszewska, A.
Markowski, M.
Powiązania:
https://bibliotekanauki.pl/articles/154035.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
usuwanie duchów
programowalny procesor graficzny
akwizycja obrazów HDR
ghosts removal
graphics processing unit
HDR images acquisition
Opis:
W artykule zaprezentowano szybką i w pełni automatyczną technikę wykrywania i usuwania duchów, powstających w wyniku składania sekwencji zdjęć danej sceny. Prezentowane podejście umożliwia rejestrację sceny bez konieczności wykorzystania specjalistycznego sprzętu. Działanie algorytmu zaprojektowanego pod kątem implementacji sprzętowej z wykorzystaniem procesora GPU oraz zaprezentowano na przykładzie algorytmu akwizycji obrazów o szerokim zakresie dynamiki, weryfikując jego poprawność za pomocą algorytmu HDR VDP.
In the paper we present the method for fast and full automatic approach for ghosts removal on programmable graphics hardware. The technique is based on probability maps that are calculated with comparison function from sequences of hand-held photographs. In practice, several basic problems occur when taking an image sequence. First, the camera is moving which causes images to misalign. This results in a blurry image. Secondly, objects are in movement causing ghost artifacts. In the paper we present a technique for acquisition of non-static scenes. The algorithm we implement as a part of system for acquisition of hand-held high dynamic range (HDR) images. Our application of this technique allows to create correct HDR image based on a simple sequence of the LDR (Low Dynamic Range) photographs with overlapped ghost regions. Additionally, the application aligns photographs and provides image de-noising. Most of computations are efficiently performed on GPU with the use of vertex and pixel shaders. We compare the performance of GPU-based implementation with standard approach and validated our results via HDR VDP (ang. High Dynamic Range Visual Difference Predicator) algorithm. The paper is organized as follows. In section 2 previous works are discussed. In section 3, the application of our HDR acquisition technique and its hardware implementation are presented. Section 4 shows achieved results. Finally we have concluded the paper.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 678-680
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wspomaganie sprzętowe do wyznaczenia statystyk obrazów naturalnych wyższego rzędu
GPU-based natural images statistics calculation
Autorzy:
Tomaszewska, A.
Powiązania:
https://bibliotekanauki.pl/articles/155066.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
statystyki obrazów naturalnych
system wizualny człowieka
programowalny procesor graficzny
GPGPU
natural image statistics
human visual system
graphics processing unit
Opis:
Statystyki obrazów naturalnych, definiowanych jako nieprzetworzone obrazy rejestrowane przez człowieka, charakteryzują się dużą regularnością. Ich cechy wykorzystywane są w wielu aplikacjach grafiki komputerowej takich jak usuwanie szumu, czy kompresja. W artykule przedstawiono algorytm do szybkiego obliczenia statystyk wyższego rzędu na podstawie współczynników falek z wykorzystaniem programowalnego procsora graficznego. W rezultatach przedstawiono wyniki przyspieszenia uzyskanego przy wykorzystaniu GPU w porównaniu z implementacją na CPU.
A natural image is unprocessed reproduction of a natural scene observed by a human. The Human Visual System (HVS), during its evolution, has been adjusted to the information encoded in natural images. Computer images are interpreted best by a human when they fit natural image statistics that can model the information in natural images. The main requirement of such statistics is their striking regularity. It hepls separate the information from noise, reconstruct information which is not avaiable in an image, or only partially avaiable. Other applications of statistics is compression, texture synthesis or finding distortion model in image like blur kernel. The statistics are translation and scale invariant, therefore a distribution of statistics does not depend on the object position in the image and on its size. In this paper there are presented higher order natural image statistics calculations based on GPU. The characteristic of the statistics is that they are independent of the scale and rotation transformations. Therefore, they are suitable for many graphic applications. To analyze images there is used statistics computed in the wavelet domain and there is considered the image contrast. The computation speedup is presented in the results. The paper is organized as follows: the overview of natural images sta-tistics is introduced in Section 2. In Section 3 the GPU-based implementation is described. The obtained results are given in Section 4. Finally, there are presented the concluding remarks.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 899-901
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie procesorów graficznych do szybkiego renderingu krajobrazu sferycznego
Efficient GPU-based approach to a spherical terrain rendering
Autorzy:
Tomaszewska, A.
Osobniak, O.
Powiązania:
https://bibliotekanauki.pl/articles/154799.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
generowanie terenu
programowalny procesor graficzny
technologia CUDA
geometry clipmaps
terrain generation
graphics processing unit
CUDA technology
Opis:
W artykule zaprezentowano sposób generowania w czasie rzeczywistym planety o dużej powierzchni oraz wysokim poziomie szczegółowości. Algorytm opracowano na podstawie techniki wykorzystującej mapy obcięcia geometrii, umożliwiając generowanie na bieżąco dowolnego wycinka terenu na podstawie parametrów ustawienia kamery. Algorytm zaprojektowano pod kątem implementacji sprzętowej z wykorzystaniem programowalnego procesora graficznego oraz technologii CUDA.
In the paper there is presented a fast method for large and detailed spherical terrain rendering. Rendering terrain with a high degree of realism is an ongoing need in real-time computer graphics applications. To render scenes of increased sizes and complexity, several terrain rendering algorithms have been proposed in the literature. One of the recent techniques called geometry clipmaps relies on the position of the viewpoint to create multi-resolution representation of the terrain, using nested meshes. In [1] there is proposed very efficient, GPU based approach of this technique for large terrain models. In the paper there are presented techniques which combine procedural approach and geometry clipmaps together. It enables rendering an arbitrary piece of terrain on fly based on the camera parameters. To improve the algorithm efficience most computations were performed on GPU with use of vertex and pixel shaders and CUDA technology. The paper is organized as follows: Section 2 discusses the previous works, Section 3 presents the application of procedural terrein generetion based on the clipmaps and its hardware implementation, whereas the results obtained are given in Section 4. Thge conclusions are presented at the end of the paper.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 790-792
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Execution time prediction model for parallel GPU realizations of discrete transforms computation algorithms
Autorzy:
Puchala, Dariusz
Stokfiszewski, Kamil
Wieloch, Kamil
Powiązania:
https://bibliotekanauki.pl/articles/2173537.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
graphics processing unit
GPU
execution time prediction model
discrete wavelet transform
DWT
lattice structure
convolution-based approach
orthogonal transform
orthogonal filter banks
time effectiveness
prediction accuracy
procesor graficzny
model przewidywania czasu wykonania
dyskretna transformata falkowa
struktura sieciowa
podejście oparte na splotach
przekształcenia ortogonalne
ortogonalne banki filtrów
efektywność czasowa
dokładność przewidywania
Opis:
Parallel realizations of discrete transforms (DTs) computation algorithms (DTCAs) performed on graphics processing units (GPUs) play a significant role in many modern data processing methods utilized in numerous areas of human activity. In this paper the authors propose a novel execution time prediction model, which allows for accurate and rapid estimation of execution times of various kinds of structurally different DTCAs performed on GPUs of distinct architectures, without the necessity of conducting the actual experiments on physical hardware. The model can serve as a guide for the system analyst in making the optimal choice of the GPU hardware solution for a given computational task involving particular DT calculation, or can help in choosing the best appropriate parallel implementation of the selected DT, given the limitations imposed by available hardware. Restricting the model to exhaustively adhere only to the key common features of DTCAs enables the authors to significantly simplify its structure, leading consequently to its design as a hybrid, analytically–simulational method, exploiting jointly the main advantages of both of the mentioned techniques, namely: time-effectiveness and high prediction accuracy, while, at the same time, causing mutual elimination of the major weaknesses of both of the specified approaches within the proposed solution. The model is validated experimentally on two structurally different parallel methods of discrete wavelet transform (DWT) computation, i.e. the direct convolutionbased and lattice structure-based schemes, by comparing its prediction results with the actual measurements taken for 6 different graphics cards, representing a fairly broad spectrum of GPUs compute architectures. Experimental results reveal the overall average execution time and prediction accuracy of the model to be at a level of 97.2%, with global maximum prediction error of 14.5%, recorded throughout all the conducted experiments, maintaining at the same time high average evaluation speed of 3.5 ms for single simulation duration. The results facilitate inferring the model generality and possibility of extrapolation to other DTCAs and different GPU architectures, which along with the proposed model straightforwardness, time-effectiveness and ease of practical application, makes it, in the authors’ opinion, a very interesting alternative to the related existing solutions.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 1; e139393, 1--30
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Execution time prediction model for parallel GPU realizations of discrete transforms computation algorithms
Autorzy:
Puchala, Dariusz
Stokfiszewski, Kamil
Wieloch, Kamil
Powiązania:
https://bibliotekanauki.pl/articles/2173635.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
graphics processing unit
GPU
execution time prediction model
discrete wavelet transform
DWT
lattice structure
convolution-based approach
orthogonal transform
orthogonal filter banks
time effectiveness
prediction accuracy
procesor graficzny
model przewidywania czasu wykonania
dyskretna transformata falkowa
struktura sieciowa
podejście oparte na splotach
przekształcenia ortogonalne
ortogonalne banki filtrów
efektywność czasowa
dokładność przewidywania
Opis:
Parallel realizations of discrete transforms (DTs) computation algorithms (DTCAs) performed on graphics processing units (GPUs) play a significant role in many modern data processing methods utilized in numerous areas of human activity. In this paper the authors propose a novel execution time prediction model, which allows for accurate and rapid estimation of execution times of various kinds of structurally different DTCAs performed on GPUs of distinct architectures, without the necessity of conducting the actual experiments on physical hardware. The model can serve as a guide for the system analyst in making the optimal choice of the GPU hardware solution for a given computational task involving particular DT calculation, or can help in choosing the best appropriate parallel implementation of the selected DT, given the limitations imposed by available hardware. Restricting the model to exhaustively adhere only to the key common features of DTCAs enables the authors to significantly simplify its structure, leading consequently to its design as a hybrid, analytically–simulational method, exploiting jointly the main advantages of both of the mentioned techniques, namely: time-effectiveness and high prediction accuracy, while, at the same time, causing mutual elimination of the major weaknesses of both of the specified approaches within the proposed solution. The model is validated experimentally on two structurally different parallel methods of discrete wavelet transform (DWT) computation, i.e. the direct convolutionbased and lattice structure-based schemes, by comparing its prediction results with the actual measurements taken for 6 different graphics cards, representing a fairly broad spectrum of GPUs compute architectures. Experimental results reveal the overall average execution time and prediction accuracy of the model to be at a level of 97.2%, with global maximum prediction error of 14.5%, recorded throughout all the conducted experiments, maintaining at the same time high average evaluation speed of 3.5 ms for single simulation duration. The results facilitate inferring the model generality and possibility of extrapolation to other DTCAs and different GPU architectures, which along with the proposed model straightforwardness, time-effectiveness and ease of practical application, makes it, in the authors’ opinion, a very interesting alternative to the related existing solutions.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 1; art. no. e139393
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Execution time prediction model for parallel GPU realizations of discrete transforms computation algorithms
Autorzy:
Puchala, Dariusz
Stokfiszewski, Kamil
Wieloch, Kamil
Powiązania:
https://bibliotekanauki.pl/articles/2173636.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
graphics processing unit
GPU
execution time prediction model
discrete wavelet transform
DWT
lattice structure
convolution-based approach
orthogonal transform
orthogonal filter banks
time effectiveness
prediction accuracy
procesor graficzny
model przewidywania czasu wykonania
dyskretna transformata falkowa
struktura sieciowa
podejście oparte na splotach
przekształcenia ortogonalne
ortogonalne banki filtrów
efektywność czasowa
dokładność przewidywania
Opis:
Parallel realizations of discrete transforms (DTs) computation algorithms (DTCAs) performed on graphics processing units (GPUs) play a significant role in many modern data processing methods utilized in numerous areas of human activity. In this paper the authors propose a novel execution time prediction model, which allows for accurate and rapid estimation of execution times of various kinds of structurally different DTCAs performed on GPUs of distinct architectures, without the necessity of conducting the actual experiments on physical hardware. The model can serve as a guide for the system analyst in making the optimal choice of the GPU hardware solution for a given computational task involving particular DT calculation, or can help in choosing the best appropriate parallel implementation of the selected DT, given the limitations imposed by available hardware. Restricting the model to exhaustively adhere only to the key common features of DTCAs enables the authors to significantly simplify its structure, leading consequently to its design as a hybrid, analytically–simulational method, exploiting jointly the main advantages of both of the mentioned techniques, namely: time-effectiveness and high prediction accuracy, while, at the same time, causing mutual elimination of the major weaknesses of both of the specified approaches within the proposed solution. The model is validated experimentally on two structurally different parallel methods of discrete wavelet transform (DWT) computation, i.e. the direct convolutionbased and lattice structure-based schemes, by comparing its prediction results with the actual measurements taken for 6 different graphics cards, representing a fairly broad spectrum of GPUs compute architectures. Experimental results reveal the overall average execution time and prediction accuracy of the model to be at a level of 97.2%, with global maximum prediction error of 14.5%, recorded throughout all the conducted experiments, maintaining at the same time high average evaluation speed of 3.5 ms for single simulation duration. The results facilitate inferring the model generality and possibility of extrapolation to other DTCAs and different GPU architectures, which along with the proposed model straightforwardness, time-effectiveness and ease of practical application, makes it, in the authors’ opinion, a very interesting alternative to the related existing solutions.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 1; art. no. e139393
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Graphics processing units in acceleration of bandwidth selection for kernel density estimation
Autorzy:
Andrzejewski, W.
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/330819.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
bandwidth selection
graphics processing unit
probability density function
nonparametric estimation
kernel estimation
szerokość pasmowa
programowalny procesor graficzny
funkcja gęstości prawdopodobieństwa
estymacja nieparametryczna
estymacja jądrowa
Opis:
The Probability Density Function (PDF) is a key concept in statistics. Constructing the most adequate PDF from the observed data is still an important and interesting scientific problem, especially for large datasets. PDFs are often estimated using nonparametric data-driven methods. One of the most popular nonparametric method is the Kernel Density Estimator (KDE). However, a very serious drawback of using KDEs is the large number of calculations required to compute them, especially to find the optimal bandwidth parameter. In this paper we investigate the possibility of utilizing Graphics Processing Units (GPUs) to accelerate the finding of the bandwidth. The contribution of this paper is threefold: (a) we propose algorithmic optimization to one of bandwidth finding algorithms, (b) we propose efficient GPU versions of three bandwidth finding algorithms and (c) we experimentally compare three of our GPU implementations with the ones which utilize only CPUs. Our experiments show orders of magnitude improvements over CPU implementations of classical algorithms.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 4; 869-885
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Akceleracja obliczeń kryptograficznych z wykorzystaniem procesorów GPU
Powiązania:
Studia Bezpieczeństwa Narodowego 2014, nr 6, s. 341-357
Współwytwórcy:
Bęza, Patryk. Autor
Gocławski, Jakub. Autor
Mral, Paweł. Autor
Sapiecha, Piotr. Autor
Buda, Michał. Autor
Data publikacji:
2014
Tematy:
Kryptologia
Szyfry
Procesor graficzny (GPU)
Artykuł z czasopisma naukowego
Opis:
Bibliografia, netografia na stronach 355-357.
Dostawca treści:
Bibliografia CBW
Artykuł
    Wyświetlanie 1-10 z 10

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies