Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "przetwarzanie równoległe" wg kryterium: Temat


Tytuł:
Wybrane zagadnienia przetwarzania równoległego i rozproszonego oraz klastrów komputerowych
Autorzy:
Chaładyniak, D.
Powiązania:
https://bibliotekanauki.pl/articles/91258.pdf
Data publikacji:
2010
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
klastry komputerowe
przetwarzanie równoległe
przetwarzanie rozproszone
cluster computing
parallel computing
telecommunications networks
Opis:
W artykule przedstawiono wprowadzenie do zagadnień przetwarzania równoległego. Wyjaśniono jego ideę oraz zaprezentowano najpopularniejsze klasyfikacje. Przybliżono pojęcie przetwarzania rozproszonego we współczesnych sieciach teleinformatycznych. Przedstawiono wybrane implementacje klastrów komputerowych.
The article presents the introduction to parallel computing. It explains the idea and presents the most popular classifications. It also explains the concept of distributed processing in today’s telecommunications networks. It presents selected cluster computing implementations.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2010, 4, 4; 41-53
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ewolucja ISA – wierzchołek góry lodowej
ISA evolution – tip of the iceberg
Autorzy:
Komorowski, W.
Powiązania:
https://bibliotekanauki.pl/articles/137202.pdf
Data publikacji:
2012
Wydawca:
Uczelnia Jana Wyżykowskiego
Tematy:
ISA
Instruction-Set Architecture
CISC
RISC
przetwarzanie równoległe
parallel processing
Opis:
Lista rozkazów stanowiąca główny atrybut architektury każdego komputera zmieniała się zależnie od dostępnej technologii i wymagań stawianych przez użytkowników. W artykule opisano kilka rozwiązań ISA (Instruction-Set Architecture) – kluczowych w historii informatyki, wskazując na uwarunkowania istniejące w czasie ich powstawania. Przedstawiono powody zmiany paradygmatu projektowania CISC-RISC w latach osiemdziesiątych. Scharakteryzowano istotę przetwarzania równoległego – od potokowości, przez superskalarność i organizacje VLIW aż do przetwarzania masywnie równoległego w obecnych superkomputerach.
Instruction-set architecture is determined by many factors, such as technology and users’ demand. The ISA evolution is illustrated on several examples – milestones in computing history: EDSAC, VAX, Berkeley RISC. The early 80’ CISC-RISC turning point in architecture paradigm is explained. A short characteristic of parallel processing is given – starting from pipelining, through superscalar and VLIW processors up to petaflops supercomputers using Massively Parallel Processing technique.
Źródło:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych; 2012, 1; 73-94
2299-3355
Pojawia się w:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawy przetwarzania równoległego informacji
Autorzy:
Chaładyniak, D.
Powiązania:
https://bibliotekanauki.pl/articles/91489.pdf
Data publikacji:
2006
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
przetwarzanie równoległe
równoległość homogeniczna
równoległość heterogeniczna
parallel systems
homogenic parallelism
heterogenic parallelism
Opis:
W artykule poruszono wybrane podstawowe zagadnienia związane z przetwarzaniem równoległym. Przedstawiono główne obszary zastosowania przetwarzania równoległego oraz dokonano podziału systemów równoległych za pomocą klasyfikacji zaproponowanej przez M. Flynna. Scharakteryzowano cztery rodzaje przetwarzania: SISD (Single Instruction Stream – Single Data Stream), SIMD (Single Instruction Stream – Multiple Data Stream), MISD (Multiple Instruction Stream – Single Data Stream) oraz MIMD (Multiple Instruction Stream – Multiple Data Stream). Opisano również trzy architektury pamięciowe: MIMD-SM (Shared Memory), MIMD-DM (Distributed Memory) oraz MIMD-HDSM (Hybrid Distributed-Shared Memory). W poniższym opracowaniu przedstawiono ponadto ogólny podział architektury komputerów równoległych. Artykuł kończą informacje na temat rodzajów równoległości przetwarzania danych na przykładzie równoległości homogenicznej i heterogenicznej.
The paper considers selected basic issues related with parallel computing. Main areas of parallel computing application and parallel systems classification according to M. Flynn are presented. Four types of processing are characterized: SISD (Single Instruction Stream – Single Data Stream), SIMD (Single Instruction Stream – Multiple Data Stream), MISD (Multiple Instruction Stream – Single Data Stream) and MIMD (Multiple Instruction Stream – Multiple Data Stream). Three memory architectures are described: MIMD-SM (Shared Memory), MIMD-DM (Distributed Memory) and MIMD-HDSM (Hybrid Distributed-Shared Memory). A general classification of parallel computers architecture is additionally presented. The paper is completed by information concerning types of parallelism of data processing with the example of homogenic and heterogenic parallelism.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2006, 1, 1; 105-114
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mean Squared Load Criteria for Scheduling Independent Tasks
Autorzy:
Dzemyda, G.
Powiązania:
https://bibliotekanauki.pl/articles/908277.pdf
Data publikacji:
1999
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
przetwarzanie równoległe
szeregowanie
zadanie kombinatoryczne
parallel processing
scheduling
combinatorial problems
minimum makespan problem
mean squared load
Opis:
Results of this paper extend the set of criteria which characterize the scheduling quality as well as the set of possible scheduling strategies. A new view on the minimum makespan criterion is presented in terms of the mean squared load of processing units. This leads in turn to the development of new scheduling algorithms. The interaction between processes of minimizing the new criteria and the maximum finishing time (makespan of the schedule) was discovered. We show the possibility of minimizing the maximum finishing time by minimizing the new criteria that characterize the mean squared load of processing units. Moreover, the optimal workload of processing units determined with the use of the proposed criteria is usually smoother (more balanced) than that found for traditional ones.
Źródło:
International Journal of Applied Mathematics and Computer Science; 1999, 9, 4; 939-954
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An experimental study on recognizing classes of dependence relations
Techniki identyfikacji klas relacji zależności w pętlach programowych
Autorzy:
Bielecki, W.
Klimek, T.
Pietrasik, M.
Powiązania:
https://bibliotekanauki.pl/articles/156048.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
pętle afiniczne
relacja zależności
transformacje pętli
przetwarzanie równoległe
affine loops
dependence relations
program transformation
parallelization
Opis:
A classification of dependence relations representing exact dependences in program loops is presented. The class of a relation causes the choice of techniques for program loop parallelization. Techniques to recognize the class of a relation are presented. The implementation of these techniques by means of the Omega library is discussed. Results of an experimental study aimed at recognizing classes of dependence relations extracted for popular benchmarks (Livermore Loops, NAS, and UTDSP) are outlined.
W artykule dokonano podziału relacji zależności występujących w pętlach programowych. Na podstawie przeprowadzonych obserwacji wyodrębniono sześć podstawowych klas takich relacji. Trafne rozpoznanie danej klasy relacji opisującej zależności, determinuje dobór odpowiedniej techniki transformacji pętli programowej i tym samym pozwala na uzyskanie znacznie większego jej stopnia równoległości w porównaniu z metodami bazującymi na rozwiązaniach przybliżonych. Rozwiązania takie, zawierają zdecydowanie większą liczbę zależności, aniżeli ich faktyczna liczba wystąpień. W celu ułatwienia procesu identyfikacji poszczególnych klas relacji zależności, przedstawiono szereg formalnych metod ich rozpoznania wykorzystujących szeroki wachlarz mechanizmów zawartych w bibliotece Omega. Na potrzeby przeprowadzonych badań zaimplementowano narzędzie, w ramach którego przeanalizowano zestawy pętli trzech popularnych benchmarków : Livermoore, NAS i UTDSP. Uzyskane wyniki pozwoliły wyciągnąć wnioski odnośnie procentowego udziału relacji zależności w zaproponowanych przez autorów klasach.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 799-802
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance evaluation of MapReduce using full virtualisation on a departmental cloud
Autorzy:
González-Vélez, H.
Kontagora, M.
Powiązania:
https://bibliotekanauki.pl/articles/907802.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
przetwarzanie w chmurze
przetwarzanie równoległe
szkielet algorytmiczny
MapReduce
server virtualization
cloud computing
algorithmic skeletons
structured parallelism
parallel computing
Opis:
This work analyses the performance of Hadoop, an implementation of the MapReduce programming model for distributed parallel computing, executing on a virtualisation environment comprised of 1+16 nodes running the VMWare workstation software. A set of experiments using the standard Hadoop benchmarks has been designed in order to determine whether or not significant reductions in the execution time of computations are experienced when using Hadoop on this virtualisation platform on a departmental cloud. Our findings indicate that a significant decrease in computing times is observed under these conditions. They also highlight how overheads and virtualisation in a distributed environment hinder the possibility of achieving the maximum (peak) performance.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2011, 21, 2; 275-284
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
K3M: A universal algorithm for image skeletonization and a review of thinning techniques
Autorzy:
Saeed, K.
Tabędzki, M.
Rybnik, M.
Adamski, M.
Powiązania:
https://bibliotekanauki.pl/articles/907744.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
szkieletyzacja
obraz cyfrowy
przetwarzanie obrazu
przetwarzanie równoległe
skeletonization
thinning
digital image processing
parallelization
iteration
thinning methodologies
sequential thinning
parallel thinning
Opis:
This paper aims at three aspects closely related to each other: first, it presents the state of the art in the area of thinning methodologies, by giving descriptions of general ideas of the most significant algorithms with a comparison between them. Secondly, it proposes a new thinning algorithm that presents interesting properties in terms of processing quality and algorithm clarity, enriched with examples. Thirdly, the work considers parallelization issues for intrinsically sequential algorithms of thinning. The main advantage of the suggested algorithm is its universality, which makes it useful and versatile for a variety of applications.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2010, 20, 2; 317-335
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of Spatio-Temporal Track-Before-Detect Algorithm using GPU
Implementacja przestrzenno-czasowego algorytmu śledzenia przed detekcją z wykorzystaniem GPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154011.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie przed detekcją
cyfrowe przetwarzanie obrazów
przetwarzanie równoległe obrazów
estimation
Track-Before-Detect
digital image processing
parallel image processing
Opis:
Track-Before-Detect (TBD) Algorithms are especially suitable for tracking low-observable targets. For low signal-to-noise ratio (SNR <1) cases tracking of such target is possible using TBD approach. Using accumulative approach and more than single measurements a noise level can be reduced in algorithm way, and gives SNR value enhancement. Due to the target's dynamic the possible motion vectors should be considered. In this article in parallel processing approach based on GPU (Graphics Processing Unit) and CUDA (a software platform for GPU programming) is discussed. GPU gives ability of using high number of stream processors and high clocking frequency for parallel algorithms. Because TBD algorithms have abilities of processing in parallel way they are well suited for GPU implementations and real-time processing. Using sparse characteristic of Markov's matrix the Spatio-Temporal TBD algorithm is considered and different implementations schemes (texture, global memory, global with shared memory) for state space access are compared and real-time processing for typical image sizes are obtained.
Algorytmy śledzenia przed detekcją (TBD - Track-Before-Detect) umożliwiają realizacje systemów estymacji parametrów kinematycznych obiektów także przy warunku SNR<1 (Signal-to-Noise Ratio), co pozwala na śledzenie obiektów, których sygnał jest poniżej wartości szumów. Wykorzystując podejście akumulacyjne oraz więcej niż jeden pomiar możliwe jest zmniejszenie poziomu szumów, a przez to zwiększenie wartości SNR. Z uwagi na dynamikę obiektu konieczne jest uwzględnienie możliwych wektorów ruchu obiektu. Wymagania te powodują, że algorytmy te mają olbrzymi koszt obliczeniowy niezależny od ilości śledzonych obiektów. W artykule zaproponowano rozwiązanie przetwarzania równoległego w czasie rzeczywistym dla obrazów, z wykorzystaniem GPU (Graphical Processing Unit) i platformy programowej CUDA. Zaletą wykorzystania GPU jest możliwość użycia bardzo dużej liczby procesorów strumieniowych, charakteryzujących się prostą budową i wysoką częstotliwością taktowania, co pozwala na efektywną czasowo realizację algorytmów przetwarzania równoległego. Ponieważ algorytmy śledzenia przed detekcją mają cechy predysponujące je do przetwarzania równoległego, więc wykorzystanie GPU jest rozwiązaniem pozwalającym na przetwarzanie w czasie rzeczywistym. W artykule rozpatrywane jest zastosowanie algorytmu rekurencyjnego: przestrzenno-czasowego śledzenia przed detekcją, ze szczególnym uwzględnieniem możliwości redukcji ilości obliczeń dla rzadkich macierzy Markowa. Porównano różne warianty implementacji dla dostępu do wielowymiarowej przestrzeni stanów, która jest przechowywana w pamięci karty graficznej. Dane wejściowe także przechowywane są w pamięci karty graficznej, a dostęp realizowany za pomocą odczytu tekstury, co pozwala na realizację także ułamkowych wektorów ruchu, dzięki wbudowanej interpolacji dwuliniowej. Przestrzeń stanów jest czterowymiarowa i dostęp do niej obciąża znacząco magistralę pamięci. Przetestowano warianty: odczytu z wykorzystaniem tekstur oraz zwykłego dostępu do pamięci, oraz zapisu bezpośredniego i z synchronizowanym buforowaniem w pamięci współdzielonej, uzyskując zbliżone wyniki czasu przetwarzania. Ponieważ w architekturze CUDA nie jest możliwy zapis do tekstury, dlatego konieczne jest dodatkowe kopiowanie wyników przestrzeni stanów do obszaru tekstury, co jednak nie powoduje znaczącego obciążenia w systemie. Wykazano, że możliwa jest realizacja systemów śledzenie przed detekcją z wykorzystaniem GPU pracującym w czasie rzeczywistym. Dla obrazów o rozmiarze 256x256 pikseli osiągnięto ponad 200 klatek na sekundę przy 13 wektorach ruchu, a dla 1024x1024 osiągnięto 15 klatek na sekundę, przy wykorzystaniu procesora G80 (GeForce 8800 GTS).
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 657-659
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Systemy wieloprocesorowe w automatyce i pomiarach
Multiprocesor systems in automatic control and measurements
Autorzy:
Jordan, A.
Bycul, R.
Forenc, J.
Myszkowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/158209.pdf
Data publikacji:
2004
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
klaster
przetwarzanie równoległe
metoda gradientu sprzężonego
metoda spekulacyjna
cluster
parallel processing
conjugate gradient method
speculative method
Opis:
Artykuł przedstawia konstrukcję homogenicznego systemu klaster - KETIM2, oraz dwa przykłady jego wykorzystania do rozwiązywania wybranych zagadnień z teorii sterowania i przybliżonych metod elektrotechniki. Pierwszym z nich jest równoległa implementacja algorytmu gradientu sprzężonego wykorzystywanego w teorii optymalizacji i metodzie elementów skończonych. Drugi przykład dotyczy równoległej analizy stanów nieustalonych w układach opisanych nieliniowym równaniem stanu. W tym drugim przypadku analizowano dynamikę silnika asynchronicznego pierścieniowego stosując metodę spekulacyjną. Przedstawiono również perspektywy zastosowań systemów wieloprocesorowych w technice pomiarowej.
The paper presents the construction of a homogenous cluster system - KETIM2 and two examples of its application for solving selected problems of control theory and approximate methods of electrical engineering. First of them is a parallel implementation of the conjugate gradient algorithm applied in the optimization theory and in the method of finite elements. The second example concerns parallel analysis of transient states in a dynamic system described by a nonlinear state equation. In the second case dynamics of asynchronous slip-ring motor was analysed appluing a speculative method. The perspectives of applications of multiprocessor systems in measurement technique were also presented.
Źródło:
Pomiary Automatyka Kontrola; 2004, R. 50, nr 10, 10; 16-20
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of parallelisation of 3D-CEMBS model using technologies like OpenACC and OpenMP
Analiza możliwości zrównoleglenia modelu 3D-CEMBS z wykorzystaniem technologii typu OpenACC i OpenMP
Autorzy:
Piotrowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/111546.pdf
Data publikacji:
2015
Wydawca:
Instytut Morski w Gdańsku
Tematy:
3D-CEMBS
parallel computing
MPI
OpenMP
OpenACC
distributed memory
shared memory
przetwarzanie równoległe
pamięć rozproszona
pamięć dzielona
Opis:
Oceanographic models utilise parallel computing techniques to increase their performance. Computer hardware constantly evolves and software should follow to better utilise modern hardware potential. The number of CPU cores with access to shared memory increases with hardware evolution. To fully utilise the possibilities new hardware presents, parallelisation techniques employed in oceanographic models, which were designed with distributed memory systems in mind, have to be revised. This research focuses on analysing the 3D-CEMBS model to assess the feasibility of using OpenMP and OpenACC technologies to increase performance. This was done through static code analysis and profiling. The findings show that the main performance problems are attributed to task decomposition that was designed with distributed memory systems in mind. To fully utilise modern shared memory systems, other task decomposition strategies need to be employed. The presented 3D-CEMBS model analysis is a first stage in wider research of oceanographic models as a specific class of parallel applications. In the long term the research will result in proposing design patterns tailored for oceanographic models that would exploit their characteristics to achieve better hardware utilisation on evolving hardware architectures.
Modele oceanograficzne wykorzystują przetwarzanie równoległe dla zwiększenia wydajności. Sprzęt komputerowy ciągle ewoluuje, więc oprogramowanie powinno zmieniać się razem z nim, aby w pełni wykorzystać potencjał współczesnego sprzętu. Wraz z rozwojem sprzętu komputerowego zwiększa się liczba rdzeni procesorów, które mają dostęp do pamięci współdzielonej. Aby w pełni wykorzystać możliwości nowego sprzętu, techniki zrównoleglania wykorzystywane w modelach oceanograficznych muszą zostać zrewidowane. Modele oceanograficzne były często projektowane z myślą o systemach z pamięcią rozproszoną. Niniejsze badania skupiają się na analizie modelu 3D-CEMBS pod kątem możliwości wykorzystania technologii OpenMP i OpenACC w celu podniesienia wydajności modelu. W tym celu została przeprowadzona statyczna analiza kodu modelu oraz profilowanie. Wyniki badań pokazują, że główny problem wydajnościowy modelu jest wynikiem zastosowania dekompozycji zadań przewidzianej dla systemów z pamięcią rozproszoną. Aby w pełni wykorzystać współczesne komputery z pamięcią współdzieloną należy wprowadzić inne strategie dekompozycji zadań.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2015, 30, 1; 10-15
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie obliczeń równoległych do klasyfikacji punktów overlap
Application of parallel computing for classification of overlapping points
Autorzy:
Bratuś, R.
Musialik, P.
Pióro, P.
Prochaska, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131194.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
punkty typu overlap
przetwarzanie równoległe
klasyfikacja punktów
kąt skanowania
overlapping points
parallel computing
points classification
scan angle
Opis:
Publikacja omawia nowatorskie metody rozwiązania ważnego technologicznie zagadnienia, jakim jest klasyfikacji punktów overlap, czyli punktów w pasie podwójnego pokrycia pomiędzy sąsiednimi szeregami skanowania. Prezentowane podejście oparte jest na wydajnej metodzie obliczeń równoległych na procesorach graficznych GPU, pozwalającej na zastosowanie bardziej zaawansowanego algorytmu podczas analizy i przetwarzania danych. Celem sprawdzenia wydajności przeprowadzono testy badanego narzędzia do klasyfikacji punktów overlap, a wyniki odniesiono do możliwości powszechnie stosowanego programu Terrascan firmy Terrasolid. Proponowane innowacje obliczeniowe mają na celu poprawę jakości danych skaningowych pozyskiwanych przy pomocy latających platform takich jak lekkie samoloty czy wiatrakowce. Podniesienie jakości procesu klasyfikacji punktów typu overlap, wymaga dwóch wstępnych etapów przetwarzania. Pierwszy polega na obcięciu brzegów szeregu ściśle według zadanego kąta od pionu. Zastosowane podejście daje bardziej regularne wyniki niż inne metody. Z kolei drugi, oparty o algorytm rozgęszczenia punktów, prowadzi do usuwania nadmiarowych profili skanowania. Proponowane rozwiązanie to klasyfikacja punktów overlap według kąta padania promienia skanera na teren i obiekty terenowe. Reasumując, w ramach opisanych badań dotychczas stosowane metody klasyfikacji punktów overlap zostały poddane rewizji. Korzystając z praktycznych uwag oraz sugestii ze strony wykonawców, wprowadzono szereg udoskonaleń, których prezentacja i dyskusja jest przedmiotem niniejszej publikacji.
The paper presents innovative methods of solving important technological problem: the classification of LiDAR points located in the overlapping area between two parallel scan strips. The presented approach is based on an efficient method of parallel computation using graphic processors, allowing to apply more sophisticated algorithms for data analysis and processing. The tests of the algorithms were executed in order to verify correctness of the assumption that the innovative solutions presented in the paper might increase the efficiency and correctness of the data, referred to well known and popular technological solutions. The suggested computational innovations are applied to increase the quality of the LiDAR data acquired by light airplanes and gyrocopters. Two approaches to increase the quality of classification of overlapping points have bee, proposed. The first process is cutting-off the points of the strip borders strictly according to defined angle measured from vertical direction. The second process is dissolving of the points to get the regular density of the result point cloud. The title issue is the classification of overlapping points according to the angle of incidence to the terrain and other objects. The normal vectors calculation for each of the scan points is necessary for the analysis. Such solution increases the quality of overlaps classification and guarantees its high efficiency thanks to the parallel computation. In conclusion, during the research three innovative approaches were tested and reviewed against commonly used methods. Parallel computation can improve quality and reduce time of processing for overlap classification problem was confirmed.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2017, 29; 11-26
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Scalability evaluation of Matlab routines for parallel image processing environment
Autorzy:
Saif, J. A. M.
Sumionka, P.
Powiązania:
https://bibliotekanauki.pl/articles/1940231.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
scalability
parallel image processing
Matlab
skalowalność
równoległe przetwarzanie obrazu
Opis:
Image edge detection plays a crucial role in image analysis and computer vision, it is defined as the process of finding the boundaries between objects within the considered image. The recognized edges may further be used in object recognition or image matching. In this paper a Canny image edge detector is used which gives acceptable results that can be utilized in many disciplines, but this technique is time-consuming especially when a big collection of images is analyzed. For that reason, to enhance the performance of the algorithms, a parallel platform allowing speeding up the computation is used. The scalability of a multicore supercomputer node, which is exploited to run the same routines for a collection of color images (from 2100 to 42000 images) is investigated.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 423-433
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efektywna implementacja algorytmu wyszukiwania wzorców genetycznych
On efficient implementation of the search algorithm for genome patterns
Autorzy:
Milik, A.
Pułka, A.
Powiązania:
https://bibliotekanauki.pl/articles/156619.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
programowanie dynamiczne
identyfikacja wzorców
rozpoznawanie wzorców
przetwarzanie równoległe
przetwarzanie potokowe
dynamic programming
computational methods
pattern identification
pattern recognition
parallel processing
pipeline processing
Opis:
W artykule zaprezentowano implementację algorytmu obliczającego stopień podobieństwa sekwencji znaków (genów) do zadanego wzorca. Algorytm wywodzi się z biologii obliczeniowej. Rozwiązania programowe wymagają znacznych zasobów sprzętowych oraz czasu. W badaniach nad algorytmem główny nacisk położono na poznanie jego własności i ich wykorzystanie przy implementacji. Pozwoliło to stworzyć bardzo oryginalna implementację zapewniającą niezwykle oszczędne gospodarowanie zasobami w układzie programowalnym jak i uzyskanie bardzo wysokich częstotliwości pracy.
The paper describes implementation of the computation algorithm in modern, complex programmable hardware devices. The presented algorithm originates from computation biology and works on very long chains of symbols which come from reference patterns of the genome. The software solutions in this field are very limited and need large time and space resources. The main research efforts were aimed at investigating the properties of the searching algorithm. Especially, the influence of the penalty values assigned to the mismatch, insertion and deletion on the algorithm was analysed. This allowed obtaining a completely new algorithm offering extremely efficient implementation and exhibiting the outstanding performance. The Virtex 5 FPGA family was considered to be a target family for the searching algorithm based on the dynamic programming idea. The obtained results are very promising and show the dominance of the dedicated platform over the general purpose PC-based systems.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 1, 1; 15-18
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zwiększenie lokalności programów równoległych wykonywanych w systemach osadzonych
Increasing data locality of parallel programs executed in embedded systems
Autorzy:
Bielecki, W.
Kraska, K.
Powiązania:
https://bibliotekanauki.pl/articles/156188.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
lokalność danych
kompilatory
systemy osadzone
przetwarzanie równoległe
transformacje pętli programowych
data locality
compilers
embedded systems
parallel processing
loop transformations
Opis:
Zwiększenie lokalności danych w programie jest niezbędnym elementem zwiększenia wydajności części programowych systemu osadzonego, zmniejszenia zużycia energii oraz redukcji rozmiaru pamięci w układzie. Przedstawiono komplementarne wykorzystanie metody szacowania lokalności danych wobec nowej metody ekstrakcji wątków, ich aglomeracji w celu dostosowania do możliwości docelowej architektury przy zastosowaniu różnych typów podziału iteracji pętli (mapowanie czasowo-przestrzenne) i z uwzględnieniem wpływu zastosowania znanych technik poprawy lokalności danych. Wybór najlepszej kombinacji transformacji kodu pod kątem lokalności danych umożliwia zwiększenie wydajności programu względem wskazanych czynników. Zaprezentowano podejście do analizy lokalności danych dla wybranych pętli, przedstawiono i omówiono wyniki badań eksperymentalnych a także wskazano kierunki dalszych prac.
Increasing data locality in a program is a necessary factor to improve performance of software parts of embedded systems, to decrease power consumption and reduce memory on chip size. A possibility of applying a method of quantifying data locality to a novel method of extracting synchronization-free threads is introduced. It can be used to agglomerate extracted synchronization-free threads for adopting a parallel program to a target architecture of an embedded system under various loop schedule options (space-time mapping) and the influence of well known techniques to improve data locality. The choice of the best combination of loop transformation techniques regarding to data locality makes possible improving program performance. A way of an analysis of data locality is presented. Experimental results are depicted and discussed. Conclusion and future research are outlined.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 8, 8; 464-468
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallel approaches to parametric optimization and the convergence of interactive decision support
Autorzy:
Wierzbicki, A.
Powiązania:
https://bibliotekanauki.pl/articles/205708.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
matematyka obliczeniowa
optymalizacja
optymalizacja parametryczna
programowanie liniowe
programowanie nieliniowe
przetwarzanie równoległe
teoria algorytmów
interactive decision support
optimization
parallel computations
Opis:
In the perspective of parallel processing, a new sense of parametric optimization might be promoted. The paper shows that it, is possible to propose new parallel versions of basic optimization algorithms, as well as an advanced method of securing convergence in interactive mnltiobjective optimization and decision support, all based on a modified concept of parametric embedding. This general idea is exemplified for the case of the simplex algorithm of linear programming by a parameterized and coarse-grain parallel augmented simplex algorithm, where a linear optimization problem can be embedded into a multiple-ohjective family which introduces diversified directions of search cutting through the interior of the original admissible set. For the case of nonlinear programming, a parameterized and coarse-grain parallel variable metric pulsar algorithm is shortly presented, where parallel directional searches are combined with a parametrized variable metric to produce a pulsating, robust nonliear programming algorithm. These two examples concern very basic optimization tools ; at the other end of the spectrmn of optimization-related methods, a general method called outranking trials of securing convergence of interactive multiobjective optimization and decision suport is obtained through parameterizing an outranking relation and using basic properties of order-consistent achievement functions in reference point methodology for testing the existence of outranking points by parallel optimization runs. Thus, the paper presents the use of parallel processing to solve a wide range of modified parametric embedding problems related to optimization and decision support.
Źródło:
Control and Cybernetics; 2000, 29, 1; 427-444
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ekstrakcja równoległości w programach ANSI C dla systemów osadzonych
Extracting parallelism in ANSI C programs for embedded computer systems
Autorzy:
Bielecki, W.
Siedlecki, K.
Kraska, K.
Powiązania:
https://bibliotekanauki.pl/articles/154605.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompilatory
osadzone systemy komputerowe
ANSI C
przetwarzanie równoległe
transformacje pętli programowych
compilers
embedded computer systems
parallel processing
loop transformations
Opis:
W artykule zaprezentowano nowe podejście do ekstrakcji równole-głości w programach ANSI C dla architektur wieloprocesorowych polega-jące na wyznaczaniu niezależnych fragmentów obliczeń w pętlach programowych dowolnie zagnieżdżonych. Przedstawione podejście pozwala na ekstrakcję równoległości dla szerszego spektrum pętli programowych w porównaniu z transformacjami afinicznymi, uznawanymi dotychczas za najbardziej efektywne. Przedstawiono analizę zastosowania proponowanego podejścia dla wybranych źródeł języka ANSI C. Omówiono wyniki badań eksperymentalnych oraz wskazano kierunki dalszych prac.
The application of embedded computer systems extends from small consumer products to complex industrial solutions. Performance critical solutions require application of more efficient controllers using parallel architectures such as VLIW or multiprocessor (multi cores) architectures. The interest in using the parallelism in embedded systems puts up new challenges for science and engineering and requires new methods and tools. The paper presents a new approach to the extraction of parallelism in ANSI C programs for multiprocessor architectures, consisting of synchronization free threads of computations (slices). The presented approach allows the extraction of parallelism on a wider range of program loops than that extracted by the affine transformation framework identified as the most efficient. Scientific results achieved are implemented as an academic source to source parallelizing compiler. The analysis of applying the approach to selected ANSI C sources is presented. Experimental results are depicted and discussed. Conclusions and future research are discussed.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 697-700
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realizacja urządzeń automatyki elektroenergetycznej na bazie układów FPGA
Realization of automatic power system devices based on FPGA chip
Autorzy:
Niklas, P.
Powiązania:
https://bibliotekanauki.pl/articles/156389.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
układ FPGA
przetwarzanie równoległe
sprzętowa realizacja
układ automatycznej synchronizacji prądnic
FPGA chip
parallel realization
hardware realization
automatic synchronizer of power units
Opis:
W artykule opisano wykorzystanie układu FPGA do realizacji układu automatycznej synchronizacji prądnic. Zastosowanie układu FPGA zapewnia w pełni sprzętową realizację procesu synchronizacji. Gwarantuje to deterministyczną i niezawodną realizację procesu synchronizacji. Układ FPGA pozwala również na równoległą realizację poszczególnych zadań procesu synchronizacji.
In the paper there is described implementation of a power object automatic synchronizer with use of the FPGA chip. The FPGA unit is a programmable chip. It is equipped with a specific set of logic elements, among which you can define the network of connections (Fig. 1). In this way, a hardware implementation of the desired functionality of the system is obtained [3]. The task of the automatic synchronizer is to connect a synchronized power object to parallel work, according to the amplitude, frequency and phase conditions. Given the very serious consequences of erroneous execution of the synchronization process [1], automatic synchronizers belong to the group of devices which puts very high demands for reliability. Application of FPGA provides fully hardware realization of the synchronization process. The advantage is high reliability, resulting from elimination of layers of software, which can be a potential source of errors. Another advantage is the true parallel realization of each task of the synchronization process. Each task is carried out in parallel by separate blocks of logic elements, as shown in Fig. 3. This solution also provides fully deterministic execution of the program code. The developed synchronizer enables full registration of parameters of the synchronization process, which is realized by application operating on a PC. Communication between the synchronization process and the application takes place via the Internet and the mechanism of direct memory access DMA. The communication diagram is shown in Fig. 5.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 1, 1; 84-87
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of Track-Before-Detect Systems with Decimation for GPGPU
Optymalizacja systemów śledzenia przed detekcją z decymacją dla GPGPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/153570.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
równoległe przetwarzanie obrazów
GPGPU
estimation
tracking
Track-Before-Detect
Opis:
Tracking systems based on Track-Before-Detect (TBD) scheme support tracking of low-SNR objects even if object signal is hidden in a noise. In this paper proposed method [1] is tested using Spatio-Temporal TBD algorithm with an additional code profiling using Nvidia CUDA computational platform. Different implementations are possible and the best solution for downsampled approach is based on the separate, register based state-space (without Shared Memory) and texture cache for input measurements.
Algorytmy śledzenia przed detekcją umożliwiają śledzenie obiektów w warunkach niskiej wartości SNR (Signal-to-Noise Ratio) jednak są one bardzo złożone obliczeniowo. Wykorzystując GPGPU (programowalny procesor graficzny) możliwa jest implementacja czasu rzeczywistego. Dla zaproponowanego w [1] rozwiązania optymalizacji implementacji algorytmu z decymacją sygnału wyjściowego możliwe jest kilkukrotne skrócenie czasu obliczeń. W artykule przedstawiono i porównano dalsze możliwe rozwiązania optymalizacji z wykorzystaniem platformy programowej Nvidia CUDA dla rekurencyjnego algorytmu Spatio-Temporal Track-Before-Detect. Przestrzeń stanów może być decymowana w celu lepszego wykorzystania szybkiej pamięci współdzielonej dostępnej w GPGPU, podczas gdy dane wejściowe oraz wyjściowe przechowywane są w wolnej pamięci globalnej. Wykorzystując testy numeryczne z wykorzystaniem opracowanego oprogramowania do profilowania kodu źródłowego stwierdzono, że najbardziej wydajnym rozwiązaniem spośród analizowanych jest implementacja z oddzielnymi kernelami przetwarzania dla poszczególnych wektorów ruchu, wykorzystania rejestrów do przechowywania danych przestrzeni stanów w miejsce pamięci współdzielonej oraz pamięci texture cache do buforowania danych wejściowych. W przypadku niewykorzystywania metody decymacji optymalnym jest wykorzystanie oddzielnych kerneli, rejestrów dla przestrzeni stanów i bezpośredniego dostępu do pamięci globalnej dla danych wejściowych.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 12, 12; 1523-1525
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Redukcja czasu wykonania algorytmu Cannego dzięki zastosowaniu połączenia OpenMP z technologią NVIDIA CUDA
Autorzy:
Sychel, D.
Powiązania:
https://bibliotekanauki.pl/articles/118376.pdf
Data publikacji:
2013
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
przetwarzanie równoległe
programowanie kart graficznych
CUDA
wykrywanie krawędzi
filtry splotowe
algorytm Canny'ego
parallel processing
programming
graphic cards
edge detection filters
Canny algorithm
Opis:
Artykuł prezentuje alternatywne podejście do programowania równoległego poprzez wykorzystanie programowalnych kart graficznych w celu wsparcia obliczeń, oraz połączenie tego podejścia z klasycznym zrównolegleniem opartym o wielordzeniowe procesory. Przeprowadzone testy przedstawiają zysk czasu jaki można uzyskać dzięki odpowiedniemu połączeniu OpenMP z technologią CUDA w obliczeniach związanych z wykrywaniem krawędzi na obrazie rastrowym przy użyciu algorytmu Cannego. Badania przeprowadzone zostały na sprzęcie różnej jakości. Napisane algorytmy są zgodne z CC 1,0 (zdolność obliczeniowa karty graficznej).
This paper presents an alternative approach to parallel programming by using programmable graphics card to support calculations and combines this approach with a classical parallelization based on multi-core processors. The tests show the gain time that can be achieved through a combination of OpenMP with CUDA technology in the calculation of the edge detection on the raster image using the Canny’s algorithm. Tests were carried out on the equipment of varying quality. The algorithms are compatible with CC 1.0 (compute capability graphics card).
Źródło:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej; 2013, 5; 103-113
1897-7421
Pojawia się w:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Small Targets Subpixel Position Estimation using GPU
Estymacja położenia obiektów o bardzo małych rozmiarach z rozdzielczością subpikselową z wykorzystaniem GPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154007.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
detekcja
równoległe przetwarzanie obrazów
estimation
motion tracking
detection
parallel image processing
Opis:
Position estimation of small targets occurs in numerous applications and for pixel-size targets subpixel resolution can be obtained using advanced image processing algorithms. Subpixel estimation using Center-of-Gravity (Center-of-Mass) give ability of position estimation with magnitude higher resolution in comparison to the conventional, maxima based search method. Application of COG algorithm [3] needs prior detection of targets using morphological filters. In this article is assumed 3x3 window and up to 2x2 pixels excitation by target. Proposed detection method and COG estimation can be processed in parallel what is important for CPU and GPU (Graphics Processing Unit) implementations due to single-pass image processing. Different implementations are compared (full processing of both algorithms; COG calculation driven by detection; full and prefilled results data storage; two implementations of divide operations in COG) for 1024x1024 input images. For GPU implementation CUDA (Compute Unified Device Architecture) is used.
Konieczność detekcji położenia obiektów o małym rozmiarze, rzędu rozmiaru piksela występuje w wielu praktycznych zastosowaniach cyfrowego przetwarzania obrazów. Dla obiektów o tych rozmiarach występują pobudzenia zwykle większej liczby pikseli, co pozwala na estymację położenia z rozdzielczością subpikselową (podpikselową). Możliwe jest wyznaczanie położenia obiektu w takim przypadku z precyzją kilka, kilkanaście razy większą niż w przypadku estymacji opartej na poszukiwaniu położenia maksymalnej wartości sygnału. W tym celu konieczne jest zastosowanie algorytmu estymacji, takiego jak algorytm środka ciężkości wyliczającego estymaty wokół maksymalnej wartości wykrytej za pomocą filtru morfologicznego. Dla obiektów o rozmiarze rzędu piksela (na przetworniku) pobudzenie dotyczy od jednego do czterech pikseli, jednak konieczne jest uwzględnienie niezbędnej separacji pomiędzy potencjalnymi sąsiednimi obiektami. Jeśli nie występuje nałożenie lub stykanie się obiektów, to za pomocą zaproponowanego detektora morfologicznego dla obrazów w odcieniach szarości możliwe jest wykrycie obiektu. Do precyzyjnego wyznaczania położenia wykorzystano zoptymalizowany algorytm środka ciężkości, w którym zmieniono sposób indeksacji wartości pikseli, tak by zmniejszyć ilość operacji arytmetycznych, zarówno mnożeń jak i dodawań. Ponieważ istotna jest efektywna obliczeniowo realizacja algorytmu porównano dwie zasadnicze implementacje w oparciu o CPU i GPU (Graphical Processing Unit). Kluczowym zagadnieniem jest minimalizacja ilości przesyłanych danych w obu implementacjach, między jednostką przetwarzającą a pamięcią przechowującą obraz wejściowy i wyniki (położenia obiektów). Rozwiązanie bazujące na zoptymalizowanym algorytmie detekcji i estymacji położenia pozwala na jednoprzebiegowe przetwarzanie obrazu, bez konieczności magazynowania wyników pośrednich w stosunkowo wolnej pamięci. Zbadano i porównano różne warianty implementacji, wykorzystujące pełne przetwarzanie wszystkich danych za pomocą obu algorytmów, warunkowe przetwarzanie algorytmu środka ciężkości sterowane detekcją, wstępne wypełnianie pamięci wyników oraz dwa warianty implementacji operacji dzielenia wymaganej przez algorytm środka ciężkości. Uzyskane wyniki pokazują, że implementacja z wykorzystaniem GPU była co najmniej o rząd wielkości szybsza w stosunku do CPU. W badaniach wykorzystano pojedynczy rdzeń CPU Q6600 oraz GPU G80 (Geforce 8800 GTS). Zaproponowane rozwiązania pozwalają na implementację w czasie rzeczywistym, gwarantując maksymalny czas przetwarzania. Dla implementacji z warunkowym przetwarzaniem i wstępnym wypełnianiem pamięci wyników uzyskano statystyczne skrócenie czasu przetwarzania. Oba rozwiązania dzielenia dla GPU były tak samo efektywne, ponieważ zasadniczym ograniczeniem systemu jest przepustowość pamięci. Dla obrazów o rozmiarze 1024x1024 pikseli uzyskano przetwarzanie z szybkością ponad 400 klatek na sekundę, a w wariantach bardziej zoptymalizowanych ponad 800 klatek na sekundę, co pozwala to na wykorzystanie GPU także do innych celów, przy systemach pracujących z mniejszą liczbą klatek na sekundę. Abstract: Position estimation of small targets occurs in numerous applications and for pixel-size targets subpixel resolution can be obtained using advanced image processing algorithms. Subpixel estimation using Center-of-Gravity (Center-of-Mass) give ability of position estimation with magnitude higher resolution in comparison to the conventional, maxima based search method. Application of COG algorithm [3] needs prior detection of targets using morphological filters. In this article is assumed 3x3 window and up to 2x2 pixels excitation by target. Proposed detection method and COG estimation can be processed in parallel what is important for CPU and GPU (Graphics Processing Unit) implementations due to single-pass image processing. Different implementations are compared (full processing of both algorithms; COG calculation driven by detection; full and prefilled results data storage; two implementations of divide operations in COG) for 1024x1024 input images. For GPU implementation
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 651-653
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using CUDA architecture for computer simulations of thermomechanical phenomena
Autorzy:
Michalski, G.
Sczygiol, N.
Leonov, S.
Powiązania:
https://bibliotekanauki.pl/articles/973633.pdf
Data publikacji:
2014
Wydawca:
Politechnika Częstochowska. Wydawnictwo Politechniki Częstochowskiej
Tematy:
numerical modeling
solidification
distributed and parallel processing
CUDA
modelowanie numeryczne
krzepnięcie
przetwarzanie rozproszone i równoległe
Opis:
This paper presents a simulation of the casting solidification process performed on graphics processors compatible with nVidia CUDA architecture. Indispensable for the parallel implementation of a computer simulation of the solidification process, it was necessary to modify the numerical model. The new approach shown in this paper allows the process of matrix building to be divided into two independent phases. The first is independent from the nodal temperature values computed in successive time-steps. The second is performed on the basis of nodal temperature values, but does not require a description of the finite element mesh. This phase is performed in each time step of the simulation of the casting solidification process. The separation of these two phases permits an effective implementation of the simulation software of the casting solidification process on the nVidia CUDA architecture or any other multi-/manycore architecture. The use of GPUs nVidia for the implementation of a computer simulation of the solidification process significantly reduced the waiting time for results. In the course of computer simulations important speedup of the computations was observed.
Źródło:
Journal of Applied Mathematics and Computational Mechanics; 2014, 13, 3; 167-174
2299-9965
Pojawia się w:
Journal of Applied Mathematics and Computational Mechanics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PaX-DBSCAN: a proposed algorithm for improved clustering
PaX-DBSCAN: propozycja algorytmu dla doskonalonego grupowania
Autorzy:
Samson, Grace L.
Lu, Joan
Powiązania:
https://bibliotekanauki.pl/articles/592926.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Bulk-loading
Clustering
Parallel computing
Partition
Spatial database
Spatial index
X-tree
Algorytm bulk loading
Grupowanie
Indeks przestrzenny
Przestrzenne bazy danych
Przetwarzanie równoległe
Rozdzielanie
Struktura drzewiasta X-tree
Opis:
We focused on applying parallel computing technique to the bulk loading of X-tree in other to improve the performance of DBSCAN clustering algorithm. We have given a full description of how the system can be archived. We proposed a new parallel algorithm for DBSCAN and another algorithm to extend the X-tree spatial indexing structure. Spatial database systems incorporate space in database systems, they support nontraditional data types and more complex queries, therefore in order to optimise such systems for efficient information processing and retrieval, appropriate techniques must be adopted to facilitate the construction of suitable index structures.
W artykule autorzy skupiają swoją uwagę na zastosowaniu techniki przetwarzania równoległego przy wykorzystaniu struktur drzewiastych X-tree i algorytmu bulk loading. Zaproponowano nowy algorytm przetwarzania równoległego DBSCAN i drugi algorytm dla rozszerzania struktur indeksowania przestrzennego. Algorytm grupowania DBSCAN jest efektywnym algorytmem grupowania dla Systemów Przestrzennych Baz Danych, który ma możliwość wykrywania zakłóceń i nie wymaga znacznej liczby skupień wcześniej ustalonych, jednakże działanie algorytmu zmienia się, gdy rozmiar danych jest duży. Ten algorytm może nie działać optymalnie, jeśli niewłaściwe wartości są wybrane dla minpts i eps. Dlatego nowy zaproponowany algorytm powinien eliminować te ograniczenia.
Źródło:
Studia Ekonomiczne; 2016, 296; 86-121
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Weryfikacja reguł bezpieczeństwa wspomagana mechanizmami pamięci podręcznej w sprzętowej implementacji systemu bezpieczeństwa typu firewall
Security rules verification mechanism supported by local cache memory for the hardware Firewall security system
Autorzy:
Sułkowski, G.
Twardy, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/156198.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
systemy bezpieczeństwa informatycznego
układy programowalne
języki opisu sprzętu
firewall
pamięci podręczne
potokowość
przetwarzanie równoległe
information security systems
programmable logic
hardware description language
firewal
packet classification algorithms
cache memory
pipelining
parallel processing
Opis:
W niniejszym artykule autorzy dokonują przeglądu istniejących algorytmów klasyfikacji pakietów celem adaptacji najodpowiedniejszego spośród nich dla potrzeb budowanego systemu zabezpieczeń sieciowych klasy Firewall. Równocześnie prezentują koncepcje zwiększenia całkowitej wydajności proponowanego rozwiązania poprzez zastosowanie dodatkowych mechanizmów wykorzystujących m.in. pamięci podręczne, potokowość oraz zrównoleglenie przetwarzania danych.
In this paper authors present their research into the actual state of the hardware implemented packet classification algorithms for the adaptation into their implementation of the hardware Firewall security system. The paper also describes the idea of enhancing the overall processing efficiency by using additional mechanisms like local cache memory, pipelining and parallel processing.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 8, 8; 511-513
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of Track-Before-Detect Systems for GPGPU
Optymalizacja systemów śledzenia przed detekcją dla GPGPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154551.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
równoległe przetwarzanie obrazów
GPGPU
śledzenie przed detekcją
Tracking
Parallel Image Processing
estimation
parallel image processing
Track-Before-Detect
Opis:
A computation speed of Track-Before-Detect algorithm with GPGPU implementations are compared in the paper. The conventional and subpixel variants for different thread processing block sizes are compared. Decimation of the state space for reduction of the external memory accesses is assumed. The GPGPU code profiling technique by the source code synthesis is applied for finding of the best parameters and code variants for particular GPGPU.
Systemy śledzenia oparte na schemacie śledzenia przed detekcją (TBD) umożliwiają śledzenia obiektów o niskim stosunku sygnału do szumu (SRN<1), co jest ważne dla zastosowań cywilnych i wojskowych. Konwencjonalne systemy śledzenia oparte na detekcji i śledzeniu nie są odpowiednie z uwagi na dużą ilość fałszywych lub utraconych detekcji. Najważniejszą wadą algorytmów TBD jest skala obliczeń, ponieważ wszystkie hipotezy (trajektorie) powinny być testowane, nawet jeśli nie ma obiektu w zasięgu. Proponowana metoda [8] oparta o decymację daje istotną (kilka razy) redukcję czasu przetwarzania na GPGPU. Programowalne karty graficzne (GPGPU) zawierają dużą ilość jednostek przetwarzania (procesorów strumieniowych) z bardzo małą, ale szybką pamięcią współdzieloną oraz dużą, ale bardzo wolną pamięcią globalną. Proponowana metoda [8] została w artykule przetestowana z wykorzystaniem algorytmu Spatio-Temporal TBD z dodatkowym profilowaniem kodu z wykorzystaniem platformy przetwarzania Nvidia CUDA. Kompilator CUDA jest dodatkowo używany do optymalizacji czasu przetwarzania z różnymi rozmiarami bloku przetwarzania. Przestrzeń stanów jest przetwarzana wewnętrznie z wykorzystaniem pamięci współdzielonej i przechowywana w pamięci globalnej po pewnej określonej liczbie kroków czasowych. Podejście z okienkowaniem jest używane do przetwarzania wejściowych danych pomiarowych 2D przechowywanych w pamięci globalnej.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 655-667
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The modular principles of parallel pipeline information processing
Modularne zasady równoległe potokowego przetwarzania informacji
Autorzy:
Selianinau, M.
Powiązania:
https://bibliotekanauki.pl/articles/103613.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
modular number system
modular arithmetic
modular computing structures
parallel data processing
pipeline mode
modularne systemy liczbowe
arytmetyka modularna
modularne struktury obliczeniowe
równoległe przetwarzanie informacji
tryb potokowy
Opis:
In the present paper, we deal with the methodology of implementation of the modular arithmetic algorithms using the parallel-pipeline residues summation blocks with respect to the bases of modular number system. These summation blocks are the main structural elements of high-speed modular operating devices, they provide high throughput performance of input data sets and are oriented to the wide application of VLSI chips.
W niniejszym artykule omówiono metodologię implementacji algorytmów arytmetyki modularnej przy wykorzystaniu równolegle potokowych bloków sumowania reszt w odniesieniu do podstaw modularnego systemu liczbowego. Te bloki sumujące są głównymi elementami strukturalnymi wysokowydajnych modularnych urządzeń obliczeniowych, one również zapewniają wysoką wydajność przepustowości zestawów danych wejściowych i są zorientowane na szerokie zastosowanie układów scalonych VLSI.
Źródło:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa; 2017, T. 5; 147-153
2300-5343
Pojawia się w:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies