Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "GPU" wg kryterium: Wszystkie pola


Tytuł:
GPU enhanced simulation of angiogenesis
Autorzy:
Worecki, M.
Wcisło, R.
Powiązania:
https://bibliotekanauki.pl/articles/305573.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
GPU
angiogenesis
tumor
Opis:
In the paper we present the use of graphic processor units to accelerate the most time-consuming stages of a simulation of angiogenesis and tumor growth. By the use of advanced CUDA mechanisms such as shared memory, textures and atomic operations, we managed to speed up the CUDA kernels by a factor of 57x. However, in our simulation we used the GPU as a co-processor and data from CPU was copied back and forth in each phase. It decreased the speedup of rewritten stages by 40%. We showed that the performance of the entire simulation can be improved by a factor of 10 up to 20.
Źródło:
Computer Science; 2012, 13 (1); 35-48
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie CPU i GPU do obliczeń w Matlabie
The use of CPU and GPU for calculations in Matlab
Autorzy:
Woźniak, Jarosław
Powiązania:
https://bibliotekanauki.pl/articles/98264.pdf
Data publikacji:
2019
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
CPU
GPU
Matlab
Opis:
W artykule zostały przedstawione wybrane rozwiązania wykorzystujące procesory CPU oraz procesory graficzne GPU do obliczeń w środowisku Matlab. Porównywano różne metody wykonywania obliczeń na CPU, jak i na GPU. Zostały wskazane różnice, wady, zalety oraz skutki stosowania wybranych sposobów obliczeń.
The article presents selected solutions using CPU processors and GPUs for calculations in the Matlab environment. Various methods of performing calculations on the CPU as well as on the GPU were compared. Differences, disadvantages, advantages and effects of using selected calculation methods have been indicated.
Źródło:
Journal of Computer Sciences Institute; 2019, 10; 32-35
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie GPU do określenia obszaru płomienia w wizyjnym systemie diagnostycznym
Використання gpu для визначення області полумя у візуальній діагностичній системі GPU
Using the GPU to determining the area the flame in the vision diagnostic system
Autorzy:
Sawicki, D.
Powiązania:
https://bibliotekanauki.pl/articles/408442.pdf
Data publikacji:
2015
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
wykrywanie brzegu obszaru
płomień
spalanie
GPU
виявлення краю області
полум'я
спалення
edge detection
flame
combustion
Opis:
W pracy przedstawiono możliwości zastosowania jednostki GPU do wyznaczenia krawędzi dla obrazów spalania pyłu węglowego. Porównano czas wykonywania operacji oraz dokładność detekcji brzegu obszaru płomienia. Wykorzystano metodę opartą o model konturu aktywnego Chan-Vese. Wyniki badań pokazują, że nastąpiło znaczne przyśpieszenie wykonywania operacji (ok. 400%).
У статті представлені можливості використання пристрою GPU для визначення країв зображення при спалюванні вугільного пилу. Порівняно час виконання і точність виявлення краю області полум'я. Використовується метод, заснований на моделі активного контуру Chan-Vese. Результати досліджень показують, що відбулося істотне прискорення операцій (прибл. 400%).
This paper presents possibility of using GPU to determine the edge of the image pulverized combustion coal. Compared are the operation time and the accuracy of edge detection area of the flame. Used a method based on the active contour model Chan-Vese. The results show that there was a significant acceleration of the operation (up to 400%).
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2015, 1; 80-85
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GPU implementation of atomic fluid MD simulation.
Autorzy:
Dawid, Aleksander
Powiązania:
https://bibliotekanauki.pl/articles/2197547.pdf
Data publikacji:
2022
Wydawca:
Politechnika Gdańska
Tematy:
MD simulabon
GPU
atomic fluid
MD parallel algorithm
Opis:
A computer simulation of an atomic fluid on a GPU was implemented using the CUDA architecture. It was shown that the programming model for efficient numerical computing applications was changing with the development of the CUDA architecture. The introduction of the L2 cache decreased the latency between the global GPU memory and the registers. The performed MD simulation using the global memory and registers showed that the average acceleration relative to the CPU reached 80 times for single-precision calculations. Usually, the shared block memory gives much better results for this kind of calculation. We have found that using the shared memory gives acceleration over 116 times in comparison to the CPU. It is about 49% faster than using the global memory and registers. It is shown here that the performance of generally available graphics cards for double-precision calculations is significantly lower than for single-precision calculations. The recorded double-precision acceleration relative to the CPU in our experiment averaged 6 and 7 times for the global and shared memory, respectively. We performed these calculations on two different CUDA enable device systems.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2022, 26, 1; 25-37
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accelerating SELECT WHERE and SELECT JOIN queries on a GPU
Autorzy:
Pietroń, M.
Russek, P.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305797.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
SQL
CUDA
relational databases
GPU
Opis:
This paper presents implementations of a few selected SQL operations using the CUDA programming framework on the GPU platform. Nowadays, the GPU’s parallel architectures give a high speed-up on certain problems. Therefore, the number of non-graphical problems that can be run and sped-up on the GPU still increases. Especially, there has been a lot of research in data mining on GPUs. In many cases it proves the advantage of offloading processing from the CPU to the GPU. At the beginning of our project we chose the set of SELECT WHERE and SELECT JOIN instructions as the most common operations used in databases. We parallelized these SQL operations using three main mechanisms in CUDA: thread group hierarchy, shared memories, and barrier synchronization. Our results show that the implemented highly parallel SELECT WHERE and SELECT JOIN operations on the GPU platform can be significantly faster than the sequential one in a database system run on the CPU.
Źródło:
Computer Science; 2013, 14 (2); 243-252
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Równoległa realizacja przykładowego algorytmu genetycznego z wykorzystaniem akceleratorów GPU
Autorzy:
Ratuszniak, P.
Stasiak, A.
Łańcucki, R.
Powiązania:
https://bibliotekanauki.pl/articles/118416.pdf
Data publikacji:
2018
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
algorytm genetyczny
programowanie równoległe
akceleracja obliczeń
akceleratory GPU
CUDA
problem komiwojażera
genetic algorithm
parallel programming
computing acceleration
GPU
travelling salesman problem
Opis:
W artykule zaprezentowano praktyczną implementację aplikacji rozwiązującej przykładowy algorytm genetyczny z wykorzystaniem akceleratorów GPU. W tym przypadku zdecydowano się na rozwiązanie za pomocą algorytmu genetycznego typowego problemu optymalizacyjnego, jakim jest problem komiwojażera. Dodatkowo w celu wykorzystania mocy karty graficznej w tworzonej aplikacji wykorzystano technologię programowania na karcie graficznej – technologię Nvidia CUDA.
The paper presents a practical implementation of a local desktop application that solves exemplary genetic algorithm with the use of GPU accelerators. In this case decided with the use of genetic algorithm to solve typical optimization problem which is travelling salesman problem. Additionally used Nvidia CUDA programming technology in order to use power of GPU in created application.
Źródło:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej; 2018, 13; 63-78
1897-7421
Pojawia się w:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Novel GPU-Enabled Simulator for Large Scale Spiking Neural Networks
Autorzy:
Szynkiewicz, P.
Powiązania:
https://bibliotekanauki.pl/articles/307680.pdf
Data publikacji:
2016
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
GPU computing
OpenCL programming technology
parallel simulation
spiking neural networks
Opis:
The understanding of the structural and dynamic complexity of neural networks is greatly facilitated by computer simulations. An ongoing challenge for simulating realistic models is, however, computational speed. In this paper a framework for modeling and parallel simulation of biological-inspired large scale spiking neural networks on high-performance graphics processors is described. This tool is implemented in the OpenCL programming technology. It enables simulation study with three models: Integrate-andfire, Hodgkin-Huxley and Izhikevich neuron model. The results of extensive simulations are provided to illustrate the operation and performance of the presented software framework. The particular attention is focused on the computational speed-up factor.
Źródło:
Journal of Telecommunications and Information Technology; 2016, 2; 34-42
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modus operandi GPU na przykładzie operacji „Trust” opisanej w Trioch stolicach W.W. Szulgina. Próba analizy
The GPU modus operandi based upon the analysis of the GPU operation codenamed “Trust” described in W.W. Shulgin’s book under the title “Tri stolicy”. The analytical attempt
Autorzy:
Świerczek, Marek
Powiązania:
https://bibliotekanauki.pl/articles/501872.pdf
Data publikacji:
2015
Wydawca:
Agencja Bezpieczeństwa Wewnętrznego
Tematy:
dezinformacja
WCzk/GPU
manipulacja
socjohistoria
MOCR-Trust
disinformation
manipulation
socio-history
Opis:
Artykuł ukazuje metody manipulowania jednostką stosowane przez WCzK/GPU podczas przeprowadzania operacji dezinformacyjnej, zwanej w literaturze aferą MOCR- Trust. Ponieważ archiwa rosyjskie do dnia dzisiejszego nie odtajniły materiałów operacyjnych dotyczących powyższego zagadnienia, w artykule poddano analizie wspomnienia Wasylija Witaljewicza Szulgina – jednej z ofiar manipulacji, autora książki Tri stolicy. Dzięki wsparciu analizy historycznej dorobkiem naukowym psychologii społecznej odtworzono modus operandi stosowany przez sowieckie służby specjalne podczas prowadzenia działań operacyjnych wobec wybranych jednostek.
The article depicts manipulation methods used by the Soviet intelligence organization WCzK/GPU during the disinformation operation known as MOCR-Trust affair. Due to the missing data from the Russian archives, the only possible analytical approach was the analysis of memoires of one of the manipulation objects published in 1927 as a book titled Tri stolicy. By application of the social psychology to the historical analysis, the modus operandi used by the Soviets during the operation named above was reconstructed.
Źródło:
Przegląd Bezpieczeństwa Wewnętrznego; 2015, 7, 12; 211-223
2080-1335
2720-0841
Pojawia się w:
Przegląd Bezpieczeństwa Wewnętrznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GPU-PLWAH: GPU-based implementation of the PLWAH algorithm for compressing bitmaps
Autorzy:
Andrzejewski, W.
Wrembel, R.
Powiązania:
https://bibliotekanauki.pl/articles/206057.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
data warehouse
GPGPU
bitmap index
bitmap index compression
PLWAH
WAH
Opis:
Bitmap indexes are data structures applied to index- ing attributes in databases and data warehouses. A drawback of a bitmap index is that its size increases when the domain of an indexed attribute increases. As a consequence, for wide domains, the size of a bitmap index is too large to be efficiently processed. Hence, various techniques of compressing bitmap indexes have been proposed. A compression technique incurs some system overhead (mainly CPU) for compression and decompression operations. For this reason, we propose to use additional processing power of graphical processing units (GPUs). In this paper, we present the GPU-PLWAH algorithm that is a parallel implementation of the recently developed PLWAH compression algorithm. GPU-PLWAH was experimentally compared to its traditional CPU version as well as to our previously developed parallel GPU implementation of the WAH compression algorithm. The experiments show that applying GPUs significantly reduces compression/decompression time.
Źródło:
Control and Cybernetics; 2011, 40, 3; 627-650
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A new CUDA-based GPU implementation of the two-dimensional Athena code
Autorzy:
Wasilijew, A.
Murawski, K.
Powiązania:
https://bibliotekanauki.pl/articles/201940.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
CUDA-based GPU implementation
two-dimensional Athena code
magnetohydrodynamic equations
Opis:
We present a new version of the Athena code, which solves magnetohydrodynamic equations in two-dimensional space. This new implementation, which we have named Athena-GPU, uses CUDA architecture to allow the code execution on Graphical Processor Unit (GPU). The Athena-GPU code is an unofficial, modified version of the Athena code which was originally designed for Central Processor Unit (CPU) architecture. We perform numerical tests based on the original Athena-CPU code and its GPU counterpart to make a performance analysis, which includes execution time, precision differences and accuracy. We narrowed our tests and analysis only to double precision floating point operations and two-dimensional test cases. Our comparison shows that results are similar for both two versions of the code, which confirms correctness of our CUDA-based implementation. Our tests reveal that the Athena-GPU code can be 2 to 15-times faster than the Athena-CPU code, depending on test cases, the size of a problem and hardware configuration.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2013, 61, 1; 239-250
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Computational aspects of GPU - accelerated sparse matrix - vector multiplication for solving Markov models
Obliczeniowe aspekty mnożenia macierzy rzadkiej przez wektor dla rozwiązywania modeli Markowa przyspieszanego przez karty GPU
Autorzy:
Bylina, B.
Bylina, J.
Karwacki, M.
Powiązania:
https://bibliotekanauki.pl/articles/375696.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
Markovian models
wireless network models
GPU
matrix-vector multiplication
sparse matrices
Opis:
In this article we investigate some computational aspects of GPU-accelerated matrix-vector multiplication where matrix is sparse. Particularly, we deal with sparse matrices appearing in modelling with Markovian queuing models. The model we use for research is a Markovian queuing model of a wireless device. This model describes the device’s behavior during possible channel occupation by other devices. We study the efficiency of multiplication of a sparse matrix by a dense vector with the use of an appropriate, ready-to-use GPU-accelerated mathematical library, namely CUSP. For the CUSP library we discuss data structures and their impact on the CUDA platform for the fine-grained parallel architecture of the GPU. Our aim is to find the best format for storing a sparse matrix for GPU-computation (especially one associated with the Markovian model of a wireless device). We compare the time, the performance and the speed-up for the card NVIDIA Tesla C2050 (with ECC ON). For unstructured matrices (as our Markovian matrices), we observe speed-ups (in respect to CPU-only computations) of over 8 times.
Łańcuchy Markowa są przydatnym narzędziem do modelowania systemów złożonych, takich jak systemy i sieci komputerowe. W ostatnich latach łańcuchy Markowa zostały z powodzeniem wykorzystane do oceny pracy sieci bezprzewodowych. Jednym z problemów jaki się pojawia przy wykorzystywaniu łańcuchów Markowa w modelowaniu sieci są problemy natury obliczeniowej. W artykule zajmiemy się badaniem mnożenia macierzy rzadkiej przez wektor, które jest jedną z głównych operacji podczas numerycznego rozwiązywania modeli Markowowskich. Aby, przyspieszyć czas obliczeń mnożenia macierz rzadkiej przez wektor wykorzystano funkcje z biblioteki CUSP. Biblioteka jest zbiorem funkcji wykonywanych na GPU (ang.Graphics Processing Unit) celem skrócenia czasu obliczeń. Do testowania operacji mnożenia macierzy rzadkiej przez wektor badano macierze z Markowowskiego modelu pracy sieci bezprzewodowej. Model ten opisuje zachowanie urządzenia, gdy kanał transmisyjnych może być zajęty przez inne urządzenia. Macierz przejść wspomnianego modelu jest macierzą rzadką i potrzeba specialnej struktury danych do jej przechowywania, dlatego w artykule dyskutowane są różne struktury danych dla macierzy rzadkich i ich przydatność do obliczen na kartach graficznych. W pracy porównano czas, wydajność i przyspieszenie jakie otrzymano podczas testowania biblioteki CUSP na karcie NVIDIA Tesla C2050 dla niestrukturalnych macierzy rzadkich opisujących model zajętości węzła w sieciach bezprzewodowych przy różnych formatach przechowywania macierzy rzadkich. Dla testowanych macierzy zauważono ośmiokrotne przyspieszenie obliczeń przy wykorzystaniu karty graficznej.
Źródło:
Theoretical and Applied Informatics; 2011, 23, 2; 127-145
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Novel FE/MC-based Mathematical Model of Mushy Steel Deformation with GPU Support
Autorzy:
Hojny, Marcin
Dębiński, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2106557.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
FEM
Monte Carlo
extra-high temperatures
soft-reduction
GPU
Opis:
The paper presents the results of work leading to the construction of a spatial hybrid model based on finite element (FE) and Monte Carlo (MC) methods allowing the computer simulation of physical phenomena accompanying the steel sample testing at temperatures that are characteristic for soft-reduction process. The proposed solution includes local density variations at the level of mechanical solution (the incompressibility condition was replaced with the condition of mass conservation), and at the same time simulates the grain growth in a comprehensive resistance heating process combined with a local remelting followed by free/controlled cooling of the sample tested. Simulation of grain growth in the entire computing domain would not be possible without the support of GPU processors. There was a 59-fold increase in the computing speed on the GPU compared to single-threaded computing on the CPU. The study was complemented by examples of experimental and computer simulation results, showing the correctness of the adopted model assumptions.
Źródło:
Archives of Metallurgy and Materials; 2022, 67, 2; 735--742
1733-3490
Pojawia się w:
Archives of Metallurgy and Materials
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of various GPU acceleration strategies in text categorization processing flow
Autorzy:
Korduła, Ł.
Wielgosz, M.
Karwatowski, M.
Pietroń, M.
Żurek, D.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/114132.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
GPU
NLP
text categorization
OpenCL
Opis:
Automatic text categorization presents many difficulties. Modern algorithms are getting better in extracting meaningful information from human language. However, they often significantly increase complexity of computations. This increased demand for computational capabilities can be facilitated by the usage of hardware accelerators like general purpose graphic cards. In this paper we present a full processing flow for document categorization system. Gram-Schmidt process signatures calculation up to 12 fold decrease in computing time of system components.
Źródło:
Measurement Automation Monitoring; 2017, 63, 6; 203-205
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Heterogeneous GPU&CPU cluster for High Performance Computing in cryptography
Autorzy:
Marks, M.
Jantura, J.
Niewiadomska-Szynkiewicz, E.
Strzelczyk, P.
Góźdź, K.
Powiązania:
https://bibliotekanauki.pl/articles/305288.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
parallel computing
HPC
clusters
GPU computing
OpenCL
cryptography
cryptanalysis
Opis:
This paper addresses issues associated with distributed computing systems and the application of mixed GPU&CPU technology to data encryption and decryption algorithms. We describe a heterogenous cluster HGCC formed by two types of nodes: Intel processor with NVIDIA graphics processing unit and AMD processor with AMD graphics processing unit (formerly ATI), and a novel software framework that hides the heterogeneity of our cluster and provides tools for solving complex scientific and engineering problems. Finally, we present the results of numerical experiments. The considered case study is concerned with parallel implementations of selected cryptanalysis algorithms. The main goal of the paper is to show the wide applicability of the GPU&CPU technology to large scale computation and data processing.
Źródło:
Computer Science; 2012, 13 (2); 63-79
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
G-DNA – a highly efficient multi-GPU/MPI tool for aligning nucleotide reads
Autorzy:
Frohmberg, W.
Kierzynka, M.
Blazewicz, J.
Gawron, P.
Wojciechowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/200827.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
DNA assembly preprocessing
sequence alignment
GPU computing
Opis:
DNA/RNA sequencing has recently become a primary way researchers generate biological data for further analysis. Assembling algorithms are an integral part of this process. However, some of them require pairwise alignment to be applied to a great deal of reads. Although several efficient alignment tools have been released over the past few years, including those taking advantage of GPUs (Graphics Processing Units), none of them directly targets high-throughput sequencing data. As a result, a need arose to create software that could handle such data as effectively as possible. G-DNA (GPU-based DNA aligner) is the first highly parallel solution that has been optimized to process nucleotide reads (DNA/RNA) from modern sequencing machines. Results show that the software reaches up to 89 GCUPS (Giga Cell Updates Per Second) on a single GPU and as a result it is the fastest tool in its class. Moreover, it scales up well on multiple GPUs systems, including MPI-based computational clusters, where its performance is counted in TCUPS (Tera CUPS).
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2013, 61, 4; 989-992
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GPU - Accelerated fluid flow approximation of the Active Queues Management algorithms
Aproksymacja płynna algorytmów AQM - wspomagana przez GPU
Autorzy:
Domański, A.
Domańska, J.
Czachórski, T.
Powiązania:
https://bibliotekanauki.pl/articles/375722.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
computer networks
active queue management
CUDA environment
Opis:
In the article we study a model of TCP connection with Active Queue Management in an intermediate IP router. We use the fluid flow approximation technique to model the interactions between the set of TCP flows and AQM algoithms. Computations for fluid flow approximation model are performed in the CUDA environment.
Artykuł opisuje zastosowanie aproksymacji płynnej do modelowania interakcji pomiędzy zbiorem strumieni TCP, a mechanizmami aktywnego zarządzania buforami (AQM). Obliczenia zostały przeprowadzone w środowisku GPU. Wyniki przedstawione w artykule potwierdzają przewagę algorytmu CHOKe nad standardowym algorytmem AQM: mechanizmem RED.
Źródło:
Theoretical and Applied Informatics; 2013, 25, 2; 93-104
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Akceleracja obliczeń kryptograficznych z wykorzystaniem procesorów GPU
Powiązania:
Studia Bezpieczeństwa Narodowego 2014, nr 6, s. 341-357
Współwytwórcy:
Bęza, Patryk. Autor
Gocławski, Jakub. Autor
Mral, Paweł. Autor
Sapiecha, Piotr. Autor
Buda, Michał. Autor
Data publikacji:
2014
Tematy:
Kryptologia
Szyfry
Procesor graficzny (GPU)
Artykuł z czasopisma naukowego
Opis:
Bibliografia, netografia na stronach 355-357.
Dostawca treści:
Bibliografia CBW
Artykuł
Tytuł:
GPU-based multi-layer perceptron as efficient method for approximation complex light models in per-vertex lighting
Autorzy:
Pietras, K.
Rudnicki, M.
Powiązania:
https://bibliotekanauki.pl/articles/92844.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
sky color
lighting model
GeForce FX
neural network
GPU
graphics processing unit
Opis:
This paper describes a display method of the sky color on GeForce FX hardware. Lighting model used here is taken from “Display of the Earth taking into account atmospheric scattering” by Tomoyuki Nishita et.al., however this model is not the only suitable one in the proposed method.
Źródło:
Studia Informatica : systems and information technology; 2005, 2(6); 53-63
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Szybka metoda estymacji położenia końcówki bronchofiberoskopu – implementacja w GPU
Fast estimation of bronchofiberoskope ego-motion – GPU based implementation
Autorzy:
Socha, M.
Powiązania:
https://bibliotekanauki.pl/articles/153549.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
przetwarzanie obrazów
nawigacja
bronchoskopia
wspomaganie zabiegów
akceleracja obliczeń
GPGPU
image processing
navigation
bronchoscopy
Opis:
W pracy przedstawiono szybką metodę szacowania położenia końcówki bronchofiberoskopu, będącej ważnym fragmentem prototypowego systemu do wspomagania zabiegów bronchoskopowych. Omówiono sposób działania algorytmu śledzenia ruchu endoskopu oraz przedstawiono szczegóły nowej implementacji algorytmu, która wykorzystuje możliwości obliczeniowe procesorów kart graficznych. Zastosowanie wielordzeniowych procesorów graficznych GPU do przetwarzania obrazów z endoskopu zaowocowało ponad 25. krotym przyśpieszeniem algorytmu.
In this work a new implementation of fast approximation of bronchofibero-scopy ego-motion is presented. This algorithm is an important part of a prototype system to support bronchofiberoscopic treatment. Its goal is to help a doctor to take a sample of a pathological lesion (found in computed tomography scan) by means of needle aspiration, performed from a bronchial tree interior [3, 4]. The approach is based on real-time registration of the 2D endoscopic images and virtual ones generated by a virtual camera located inside a 3D CT-based model of the bronchial tree. To speed up ego-motion estimation [5] in bronchial environment there is used a simplified model of geometric relations based on the cylindrical shape accompanied by the fixation on a carina [6], which reduces the number of degrees of freedom of the motion to four. It is achieved by continuous tracking of the carina (stationary point) illuminated by the camera light source, and by analyzing bronchial wall radial moves relative to the fixed point by correlation in the polar coordinates. Fig. 1 shows estimation of rotation steps, Fig. 2 estimation of translation. Use of the multi-core graphics processing unit (GPU) to process the images from the endoscope allowed reducing the computation time more than 25 times.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 3, 3; 216-219
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using GPU acceleration in solving selected kinetic coal gasification models
Użycie akceleracji GPU do rozwiązywania wybranych modeli kinetycznych gazyfikacji węgla
Autorzy:
Iwaszenko, S.
Powiązania:
https://bibliotekanauki.pl/articles/1361009.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
GPGPU
modelowanie gazyfikacji węgla
obliczenia równoległe
coal gasification modeling
parallel calculations
Opis:
Coal gasification is recognized as one of clean coal technologies. Though it has been known for a relatively long time, its complexity still challenges scientists all over the world. One of the tools used in the research is simulation. The presented work investigates the capabilities of using GPGPU in modeling coal gasification. The selected set of models is used (volumetric, non-reactive core and Johnson’s). The models as well as numeric solution methods were implemented as a sequential and parallel code. The execution time for both methods was investigated and the speedup for the parallel code determined. The influence of mathematical function call in the GPU code was also checked. The results show that for all models the parallel code gives significant speedup over the serial counterpart, as long as a reasonably large equation set is used. Therefore, using a dedicated GPU code for coal gasification simulations is highly recommended, whenever big systems of ODE have to be solved.
Gazyfikacja węgla uznawana jest za jedną z tzw. czystych technologii węglowych. Chociaż jest znana już względnie długo, jej złożoność wciąż pozostaje wyzwaniem dla naukowców na całym świecie. Jednym z narzędzi używanych w badaniach jest symulacja. W pracy zbadano możliwości użycia GPGPU w modelowaniu gazyfikacji węgla. Użyto wybranego zbioru modeli (objętościowego, rdzenia bezreaktacyjnego i Johnsona). Modele oraz metody rozwiązań numerycznych zaimplementowano, jako kod szeregowy i równoległy. Zbadano czas realizacji obydwu metod oraz określono przyspieszenie kodu równoległego. Sprawdzono również wpływ wywołania funkcji matematycznej w kodzie GPU. Wyniki wskazują, że dla wszystkich modeli kod równoległy powoduje znaczne przyspieszenie obliczeń w stosunku do odpowiednika szeregowego, pod warunkiem, że użyje się wystarczająco dużego zbioru równań. Dlatego zaleca się użycie dedykowanego kodu GPU do symulacji gazyfikacji węgla w każdym przypadku, gdy wymagane jest rozwiązanie dużych systemów ODE.
Źródło:
Mining – Informatics, Automation and Electrical Engineering; 2016, 54, 2; 14-22
2450-7326
2449-6421
Pojawia się w:
Mining – Informatics, Automation and Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Hybrid CPU/GPU Cluster for Encryption and Decryption of Large Amounts of Data
Autorzy:
Niewiadomska-Szynkiewicz, E.
Marks, M.
Jantura, J.
Podbielski, M.
Powiązania:
https://bibliotekanauki.pl/articles/309363.pdf
Data publikacji:
2012
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
AES
computer clusters
cryptography
DES
GPU computing
parallel calculation
software systems
Opis:
The main advantage of a distributed computing system over standalone computer is an ability to share the workload between cores, processors and computers. In our paper we present a hybrid cluster system - a novel computing architecture with multi-core CPUs working together with many-core GPUs. It integrates two types of CPU, i.e., Intel and AMD processor with advanced graphics processing units, adequately, Nvidia Tesla and AMD FirePro (formerly ATI). Our CPU/GPU cluster is dedicated to perform massive parallel computations which is a common approach in cryptanalysis and cryptography. The efficiency of parallel implementations of selected data encryption and decryption algorithms are presented to illustrate the performance of our system.
Źródło:
Journal of Telecommunications and Information Technology; 2012, 3; 32-39
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Exploiting multi-core and many-core parallelism for subspace clustering
Autorzy:
Datta, Amitava
Kaur, Amardeep
Lauer, Tobias
Chabbouh, Sami
Powiązania:
https://bibliotekanauki.pl/articles/331126.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
data mining
subspace clustering
multicore processor
many core processor
GPU computing
eksploracja danych
procesor wielordzeniowy
obliczenia GPU
Opis:
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset, where a subspace is a subset of dimensions of the data. But the exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, which means that parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation shows linear speedup. Moreover, we develop an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2019, 29, 1; 81-91
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Small Targets Subpixel Position Estimation using GPU
Estymacja położenia obiektów o bardzo małych rozmiarach z rozdzielczością subpikselową z wykorzystaniem GPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154007.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
detekcja
równoległe przetwarzanie obrazów
estimation
motion tracking
detection
parallel image processing
Opis:
Position estimation of small targets occurs in numerous applications and for pixel-size targets subpixel resolution can be obtained using advanced image processing algorithms. Subpixel estimation using Center-of-Gravity (Center-of-Mass) give ability of position estimation with magnitude higher resolution in comparison to the conventional, maxima based search method. Application of COG algorithm [3] needs prior detection of targets using morphological filters. In this article is assumed 3x3 window and up to 2x2 pixels excitation by target. Proposed detection method and COG estimation can be processed in parallel what is important for CPU and GPU (Graphics Processing Unit) implementations due to single-pass image processing. Different implementations are compared (full processing of both algorithms; COG calculation driven by detection; full and prefilled results data storage; two implementations of divide operations in COG) for 1024x1024 input images. For GPU implementation CUDA (Compute Unified Device Architecture) is used.
Konieczność detekcji położenia obiektów o małym rozmiarze, rzędu rozmiaru piksela występuje w wielu praktycznych zastosowaniach cyfrowego przetwarzania obrazów. Dla obiektów o tych rozmiarach występują pobudzenia zwykle większej liczby pikseli, co pozwala na estymację położenia z rozdzielczością subpikselową (podpikselową). Możliwe jest wyznaczanie położenia obiektu w takim przypadku z precyzją kilka, kilkanaście razy większą niż w przypadku estymacji opartej na poszukiwaniu położenia maksymalnej wartości sygnału. W tym celu konieczne jest zastosowanie algorytmu estymacji, takiego jak algorytm środka ciężkości wyliczającego estymaty wokół maksymalnej wartości wykrytej za pomocą filtru morfologicznego. Dla obiektów o rozmiarze rzędu piksela (na przetworniku) pobudzenie dotyczy od jednego do czterech pikseli, jednak konieczne jest uwzględnienie niezbędnej separacji pomiędzy potencjalnymi sąsiednimi obiektami. Jeśli nie występuje nałożenie lub stykanie się obiektów, to za pomocą zaproponowanego detektora morfologicznego dla obrazów w odcieniach szarości możliwe jest wykrycie obiektu. Do precyzyjnego wyznaczania położenia wykorzystano zoptymalizowany algorytm środka ciężkości, w którym zmieniono sposób indeksacji wartości pikseli, tak by zmniejszyć ilość operacji arytmetycznych, zarówno mnożeń jak i dodawań. Ponieważ istotna jest efektywna obliczeniowo realizacja algorytmu porównano dwie zasadnicze implementacje w oparciu o CPU i GPU (Graphical Processing Unit). Kluczowym zagadnieniem jest minimalizacja ilości przesyłanych danych w obu implementacjach, między jednostką przetwarzającą a pamięcią przechowującą obraz wejściowy i wyniki (położenia obiektów). Rozwiązanie bazujące na zoptymalizowanym algorytmie detekcji i estymacji położenia pozwala na jednoprzebiegowe przetwarzanie obrazu, bez konieczności magazynowania wyników pośrednich w stosunkowo wolnej pamięci. Zbadano i porównano różne warianty implementacji, wykorzystujące pełne przetwarzanie wszystkich danych za pomocą obu algorytmów, warunkowe przetwarzanie algorytmu środka ciężkości sterowane detekcją, wstępne wypełnianie pamięci wyników oraz dwa warianty implementacji operacji dzielenia wymaganej przez algorytm środka ciężkości. Uzyskane wyniki pokazują, że implementacja z wykorzystaniem GPU była co najmniej o rząd wielkości szybsza w stosunku do CPU. W badaniach wykorzystano pojedynczy rdzeń CPU Q6600 oraz GPU G80 (Geforce 8800 GTS). Zaproponowane rozwiązania pozwalają na implementację w czasie rzeczywistym, gwarantując maksymalny czas przetwarzania. Dla implementacji z warunkowym przetwarzaniem i wstępnym wypełnianiem pamięci wyników uzyskano statystyczne skrócenie czasu przetwarzania. Oba rozwiązania dzielenia dla GPU były tak samo efektywne, ponieważ zasadniczym ograniczeniem systemu jest przepustowość pamięci. Dla obrazów o rozmiarze 1024x1024 pikseli uzyskano przetwarzanie z szybkością ponad 400 klatek na sekundę, a w wariantach bardziej zoptymalizowanych ponad 800 klatek na sekundę, co pozwala to na wykorzystanie GPU także do innych celów, przy systemach pracujących z mniejszą liczbą klatek na sekundę. Abstract: Position estimation of small targets occurs in numerous applications and for pixel-size targets subpixel resolution can be obtained using advanced image processing algorithms. Subpixel estimation using Center-of-Gravity (Center-of-Mass) give ability of position estimation with magnitude higher resolution in comparison to the conventional, maxima based search method. Application of COG algorithm [3] needs prior detection of targets using morphological filters. In this article is assumed 3x3 window and up to 2x2 pixels excitation by target. Proposed detection method and COG estimation can be processed in parallel what is important for CPU and GPU (Graphics Processing Unit) implementations due to single-pass image processing. Different implementations are compared (full processing of both algorithms; COG calculation driven by detection; full and prefilled results data storage; two implementations of divide operations in COG) for 1024x1024 input images. For GPU implementation
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 651-653
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using GPU to improve performance of calculating recurrence plot
Użycie GPU w celu zwiększenia wydajności obliczania recurrence plot
Autorzy:
Rybak, T.
Powiązania:
https://bibliotekanauki.pl/articles/341073.pdf
Data publikacji:
2010
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
recurrence plot
analiza fraktalna
optymalizacja
obliczenia równoległe
GPGPU
CUDA
non-linear analysis
fractal analysis
optimisation
parallel computations
Opis:
Simulation and analysis of sophisticated systems require much computations. Moore’s law, although still allows for increasing number of transistors on the die, does not lead to increase of performance of single chip — instead it leads to increased parallelism of entire system. This allows for improving performance of those algorithms that can be parallelised; recurrence plot is one of such algorithms. Graphical Processing Units (GPU) show the largest increase of parallel computations capabilities. At the same time they do not behave as traditional CPUs and require different style of programming to fully utilise their capabilities. Article shows techniques that can be used to increase performance of computing of recurrence plot on GPGPU.
Analiza skomplikowanych systemów wymaga przeprowadzenia wielu obliczeń. Prawo Moore’a, choć wciąż˙ pozostaje w mocy, nie pozwala na zwiększanie wydajności pojedynczego procesora, ale pomaga w tworzeniu wydajnych równoległych systemów. Pozwala to na zwiększanie wydajności dla algorytmów które można zrównoleglić; recurrence plot należy do takich algorytmów. Procesory graficzne (GPU) oferują największą ilość równoległych jednostek obliczeniowych, jednocześnie jednak ich wydajne wykorzystanie wymaga innego podejścia programistycznego. Artykuł opisuje w jaki sposób wykorzystano technologię CUDA do przyśpieszania obliczania recurrence plot.
Źródło:
Zeszyty Naukowe Politechniki Białostockiej. Informatyka; 2010, 6; 77-94
1644-0331
Pojawia się w:
Zeszyty Naukowe Politechniki Białostockiej. Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies