Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Przetwarzanie równoległe" wg kryterium: Temat


Tytuł:
Scalability evaluation of Matlab routines for parallel image processing environment
Autorzy:
Saif, J. A. M.
Sumionka, P.
Powiązania:
https://bibliotekanauki.pl/articles/1940231.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
scalability
parallel image processing
Matlab
skalowalność
równoległe przetwarzanie obrazu
Opis:
Image edge detection plays a crucial role in image analysis and computer vision, it is defined as the process of finding the boundaries between objects within the considered image. The recognized edges may further be used in object recognition or image matching. In this paper a Canny image edge detector is used which gives acceptable results that can be utilized in many disciplines, but this technique is time-consuming especially when a big collection of images is analyzed. For that reason, to enhance the performance of the algorithms, a parallel platform allowing speeding up the computation is used. The scalability of a multicore supercomputer node, which is exploited to run the same routines for a collection of color images (from 2100 to 42000 images) is investigated.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 423-433
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The modular principles of parallel pipeline information processing
Modularne zasady równoległe potokowego przetwarzania informacji
Autorzy:
Selianinau, M.
Powiązania:
https://bibliotekanauki.pl/articles/103613.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
modular number system
modular arithmetic
modular computing structures
parallel data processing
pipeline mode
modularne systemy liczbowe
arytmetyka modularna
modularne struktury obliczeniowe
równoległe przetwarzanie informacji
tryb potokowy
Opis:
In the present paper, we deal with the methodology of implementation of the modular arithmetic algorithms using the parallel-pipeline residues summation blocks with respect to the bases of modular number system. These summation blocks are the main structural elements of high-speed modular operating devices, they provide high throughput performance of input data sets and are oriented to the wide application of VLSI chips.
W niniejszym artykule omówiono metodologię implementacji algorytmów arytmetyki modularnej przy wykorzystaniu równolegle potokowych bloków sumowania reszt w odniesieniu do podstaw modularnego systemu liczbowego. Te bloki sumujące są głównymi elementami strukturalnymi wysokowydajnych modularnych urządzeń obliczeniowych, one również zapewniają wysoką wydajność przepustowości zestawów danych wejściowych i są zorientowane na szerokie zastosowanie układów scalonych VLSI.
Źródło:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa; 2017, T. 5; 147-153
2300-5343
Pojawia się w:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie obliczeń równoległych do klasyfikacji punktów overlap
Application of parallel computing for classification of overlapping points
Autorzy:
Bratuś, R.
Musialik, P.
Pióro, P.
Prochaska, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131194.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
punkty typu overlap
przetwarzanie równoległe
klasyfikacja punktów
kąt skanowania
overlapping points
parallel computing
points classification
scan angle
Opis:
Publikacja omawia nowatorskie metody rozwiązania ważnego technologicznie zagadnienia, jakim jest klasyfikacji punktów overlap, czyli punktów w pasie podwójnego pokrycia pomiędzy sąsiednimi szeregami skanowania. Prezentowane podejście oparte jest na wydajnej metodzie obliczeń równoległych na procesorach graficznych GPU, pozwalającej na zastosowanie bardziej zaawansowanego algorytmu podczas analizy i przetwarzania danych. Celem sprawdzenia wydajności przeprowadzono testy badanego narzędzia do klasyfikacji punktów overlap, a wyniki odniesiono do możliwości powszechnie stosowanego programu Terrascan firmy Terrasolid. Proponowane innowacje obliczeniowe mają na celu poprawę jakości danych skaningowych pozyskiwanych przy pomocy latających platform takich jak lekkie samoloty czy wiatrakowce. Podniesienie jakości procesu klasyfikacji punktów typu overlap, wymaga dwóch wstępnych etapów przetwarzania. Pierwszy polega na obcięciu brzegów szeregu ściśle według zadanego kąta od pionu. Zastosowane podejście daje bardziej regularne wyniki niż inne metody. Z kolei drugi, oparty o algorytm rozgęszczenia punktów, prowadzi do usuwania nadmiarowych profili skanowania. Proponowane rozwiązanie to klasyfikacja punktów overlap według kąta padania promienia skanera na teren i obiekty terenowe. Reasumując, w ramach opisanych badań dotychczas stosowane metody klasyfikacji punktów overlap zostały poddane rewizji. Korzystając z praktycznych uwag oraz sugestii ze strony wykonawców, wprowadzono szereg udoskonaleń, których prezentacja i dyskusja jest przedmiotem niniejszej publikacji.
The paper presents innovative methods of solving important technological problem: the classification of LiDAR points located in the overlapping area between two parallel scan strips. The presented approach is based on an efficient method of parallel computation using graphic processors, allowing to apply more sophisticated algorithms for data analysis and processing. The tests of the algorithms were executed in order to verify correctness of the assumption that the innovative solutions presented in the paper might increase the efficiency and correctness of the data, referred to well known and popular technological solutions. The suggested computational innovations are applied to increase the quality of the LiDAR data acquired by light airplanes and gyrocopters. Two approaches to increase the quality of classification of overlapping points have bee, proposed. The first process is cutting-off the points of the strip borders strictly according to defined angle measured from vertical direction. The second process is dissolving of the points to get the regular density of the result point cloud. The title issue is the classification of overlapping points according to the angle of incidence to the terrain and other objects. The normal vectors calculation for each of the scan points is necessary for the analysis. Such solution increases the quality of overlaps classification and guarantees its high efficiency thanks to the parallel computation. In conclusion, during the research three innovative approaches were tested and reviewed against commonly used methods. Parallel computation can improve quality and reduce time of processing for overlap classification problem was confirmed.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2017, 29; 11-26
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PaX-DBSCAN: a proposed algorithm for improved clustering
PaX-DBSCAN: propozycja algorytmu dla doskonalonego grupowania
Autorzy:
Samson, Grace L.
Lu, Joan
Powiązania:
https://bibliotekanauki.pl/articles/592926.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Bulk-loading
Clustering
Parallel computing
Partition
Spatial database
Spatial index
X-tree
Algorytm bulk loading
Grupowanie
Indeks przestrzenny
Przestrzenne bazy danych
Przetwarzanie równoległe
Rozdzielanie
Struktura drzewiasta X-tree
Opis:
We focused on applying parallel computing technique to the bulk loading of X-tree in other to improve the performance of DBSCAN clustering algorithm. We have given a full description of how the system can be archived. We proposed a new parallel algorithm for DBSCAN and another algorithm to extend the X-tree spatial indexing structure. Spatial database systems incorporate space in database systems, they support nontraditional data types and more complex queries, therefore in order to optimise such systems for efficient information processing and retrieval, appropriate techniques must be adopted to facilitate the construction of suitable index structures.
W artykule autorzy skupiają swoją uwagę na zastosowaniu techniki przetwarzania równoległego przy wykorzystaniu struktur drzewiastych X-tree i algorytmu bulk loading. Zaproponowano nowy algorytm przetwarzania równoległego DBSCAN i drugi algorytm dla rozszerzania struktur indeksowania przestrzennego. Algorytm grupowania DBSCAN jest efektywnym algorytmem grupowania dla Systemów Przestrzennych Baz Danych, który ma możliwość wykrywania zakłóceń i nie wymaga znacznej liczby skupień wcześniej ustalonych, jednakże działanie algorytmu zmienia się, gdy rozmiar danych jest duży. Ten algorytm może nie działać optymalnie, jeśli niewłaściwe wartości są wybrane dla minpts i eps. Dlatego nowy zaproponowany algorytm powinien eliminować te ograniczenia.
Źródło:
Studia Ekonomiczne; 2016, 296; 86-121
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of parallelisation of 3D-CEMBS model using technologies like OpenACC and OpenMP
Analiza możliwości zrównoleglenia modelu 3D-CEMBS z wykorzystaniem technologii typu OpenACC i OpenMP
Autorzy:
Piotrowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/111546.pdf
Data publikacji:
2015
Wydawca:
Instytut Morski w Gdańsku
Tematy:
3D-CEMBS
parallel computing
MPI
OpenMP
OpenACC
distributed memory
shared memory
przetwarzanie równoległe
pamięć rozproszona
pamięć dzielona
Opis:
Oceanographic models utilise parallel computing techniques to increase their performance. Computer hardware constantly evolves and software should follow to better utilise modern hardware potential. The number of CPU cores with access to shared memory increases with hardware evolution. To fully utilise the possibilities new hardware presents, parallelisation techniques employed in oceanographic models, which were designed with distributed memory systems in mind, have to be revised. This research focuses on analysing the 3D-CEMBS model to assess the feasibility of using OpenMP and OpenACC technologies to increase performance. This was done through static code analysis and profiling. The findings show that the main performance problems are attributed to task decomposition that was designed with distributed memory systems in mind. To fully utilise modern shared memory systems, other task decomposition strategies need to be employed. The presented 3D-CEMBS model analysis is a first stage in wider research of oceanographic models as a specific class of parallel applications. In the long term the research will result in proposing design patterns tailored for oceanographic models that would exploit their characteristics to achieve better hardware utilisation on evolving hardware architectures.
Modele oceanograficzne wykorzystują przetwarzanie równoległe dla zwiększenia wydajności. Sprzęt komputerowy ciągle ewoluuje, więc oprogramowanie powinno zmieniać się razem z nim, aby w pełni wykorzystać potencjał współczesnego sprzętu. Wraz z rozwojem sprzętu komputerowego zwiększa się liczba rdzeni procesorów, które mają dostęp do pamięci współdzielonej. Aby w pełni wykorzystać możliwości nowego sprzętu, techniki zrównoleglania wykorzystywane w modelach oceanograficznych muszą zostać zrewidowane. Modele oceanograficzne były często projektowane z myślą o systemach z pamięcią rozproszoną. Niniejsze badania skupiają się na analizie modelu 3D-CEMBS pod kątem możliwości wykorzystania technologii OpenMP i OpenACC w celu podniesienia wydajności modelu. W tym celu została przeprowadzona statyczna analiza kodu modelu oraz profilowanie. Wyniki badań pokazują, że główny problem wydajnościowy modelu jest wynikiem zastosowania dekompozycji zadań przewidzianej dla systemów z pamięcią rozproszoną. Aby w pełni wykorzystać współczesne komputery z pamięcią współdzieloną należy wprowadzić inne strategie dekompozycji zadań.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2015, 30, 1; 10-15
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of parallel computing in mass processing of laser data
Zastosowanie obliczeń równoległych do masowego przetwarzania danych laserowych
Autorzy:
Będkowski, J.
Bratuś, R.
Prochaska, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/129799.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
parallel computing
laser scanning
lidar
data processing
obliczenia równoległe
skanowanie laserowe
LiDAR
przetwarzanie danych
Opis:
The first part of the paper includes a description of the rules used to generate the algorithm needed for the purpose of parallel computing and also discusses the origins of the idea of research on the use of graphics processors in large scale processing of laser scanning data. The next part of the paper includes the results of an efficiency assessment performed for an array of different processing options, all of which were substantially accelerated with parallel computing. The processing options were divided into the generation of orthophotos using point clouds, coloring of point clouds, transformations, and the generation of a regular grid, as well as advanced processes such as the detection of planes and edges, point cloud classification, and the analysis of data for the purpose of quality control. Most algorithms had to be formulated from scratch in the context of the requirements of parallel computing. A few of the algorithms were based on existing technology developed by the Dephos Software Company and then adapted to parallel computing in the course of this research study. Processing time was determined for each process employed for a typical quantity of data processed, which helped confirm the high efficiency of the solutions proposed and the applicability of parallel computing to the processing of laser scanning data. The high efficiency of parallel computing yields new opportunities in the creation and organization of processing methods for laser scanning data.
Publikacja ma na celu przedstawienie części wyników badań, jakie zrealizował zespół badawczy firmy Dephos Software w ramach projektu finansowanego przez UE pt. "Badania nad masowym przechowywaniem, udostępnianiem i przetwarzaniem przestrzennych danych laserowych". Na wstępie publikacji autorzy przedstawiają zasady organizacji algorytmu spełniającego wymogi obliczeń równoległych oraz przybliżają genezę pomysłu prowadzenia badań nad zastosowaniem procesorów graficznych do masowego przetwarzania danych skaningowych. Następnie autorzy prezentują wyniki oceny wydajności działania szeregu różnych procesów przetwarzania danych laserowych, które udało się zasadniczo przyspieszyć dzięki obliczeniom równoległym. Procesy te dzielą się na procesy podstawowe (generowanie ortoobrazów z chmur punktów, kolorowanie chmur punktów, transformacja, generowanie siatki regularnej) oraz procesy zaawansowane (wykrywanie płaszczyzn i krawędzi, klasyfikacja chmur punktów, analiza danych w celu kontroli jakości danych). W większości przypadków algorytmy musiały zostać opracowane całkowicie od nowa pod kątem wymogów przetwarzania równoległego, część korzysta z wcześniejszego dorobku technologicznego firmy Dephos Software, będąc dostosowana do równoległej metody obliczeń w ramach przeprowadzonych badań. W każdym z tych procesów określono czas działania dla typowej ilości danych przetwarzanych, co potwierdziło wysoką wydajność rozwiązań i sens zastosowania obliczeń równoległych w odniesieniu do danych skaningowych. Obliczenia równoległe dzięki swojej wysokiej wydajności otwierają nowe możliwości w tworzeniu i organizacji procesów przetwarzania danych pochodzących ze skaningu laserowego.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 45-59
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using CUDA architecture for computer simulations of thermomechanical phenomena
Autorzy:
Michalski, G.
Sczygiol, N.
Leonov, S.
Powiązania:
https://bibliotekanauki.pl/articles/973633.pdf
Data publikacji:
2014
Wydawca:
Politechnika Częstochowska. Wydawnictwo Politechniki Częstochowskiej
Tematy:
numerical modeling
solidification
distributed and parallel processing
CUDA
modelowanie numeryczne
krzepnięcie
przetwarzanie rozproszone i równoległe
Opis:
This paper presents a simulation of the casting solidification process performed on graphics processors compatible with nVidia CUDA architecture. Indispensable for the parallel implementation of a computer simulation of the solidification process, it was necessary to modify the numerical model. The new approach shown in this paper allows the process of matrix building to be divided into two independent phases. The first is independent from the nodal temperature values computed in successive time-steps. The second is performed on the basis of nodal temperature values, but does not require a description of the finite element mesh. This phase is performed in each time step of the simulation of the casting solidification process. The separation of these two phases permits an effective implementation of the simulation software of the casting solidification process on the nVidia CUDA architecture or any other multi-/manycore architecture. The use of GPUs nVidia for the implementation of a computer simulation of the solidification process significantly reduced the waiting time for results. In the course of computer simulations important speedup of the computations was observed.
Źródło:
Journal of Applied Mathematics and Computational Mechanics; 2014, 13, 3; 167-174
2299-9965
Pojawia się w:
Journal of Applied Mathematics and Computational Mechanics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Redukcja czasu wykonania algorytmu Cannego dzięki zastosowaniu połączenia OpenMP z technologią NVIDIA CUDA
Autorzy:
Sychel, D.
Powiązania:
https://bibliotekanauki.pl/articles/118376.pdf
Data publikacji:
2013
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
przetwarzanie równoległe
programowanie kart graficznych
CUDA
wykrywanie krawędzi
filtry splotowe
algorytm Canny'ego
parallel processing
programming
graphic cards
edge detection filters
Canny algorithm
Opis:
Artykuł prezentuje alternatywne podejście do programowania równoległego poprzez wykorzystanie programowalnych kart graficznych w celu wsparcia obliczeń, oraz połączenie tego podejścia z klasycznym zrównolegleniem opartym o wielordzeniowe procesory. Przeprowadzone testy przedstawiają zysk czasu jaki można uzyskać dzięki odpowiedniemu połączeniu OpenMP z technologią CUDA w obliczeniach związanych z wykrywaniem krawędzi na obrazie rastrowym przy użyciu algorytmu Cannego. Badania przeprowadzone zostały na sprzęcie różnej jakości. Napisane algorytmy są zgodne z CC 1,0 (zdolność obliczeniowa karty graficznej).
This paper presents an alternative approach to parallel programming by using programmable graphics card to support calculations and combines this approach with a classical parallelization based on multi-core processors. The tests show the gain time that can be achieved through a combination of OpenMP with CUDA technology in the calculation of the edge detection on the raster image using the Canny’s algorithm. Tests were carried out on the equipment of varying quality. The algorithms are compatible with CC 1.0 (compute capability graphics card).
Źródło:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej; 2013, 5; 103-113
1897-7421
Pojawia się w:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ewolucja ISA – wierzchołek góry lodowej
ISA evolution – tip of the iceberg
Autorzy:
Komorowski, W.
Powiązania:
https://bibliotekanauki.pl/articles/137202.pdf
Data publikacji:
2012
Wydawca:
Uczelnia Jana Wyżykowskiego
Tematy:
ISA
Instruction-Set Architecture
CISC
RISC
przetwarzanie równoległe
parallel processing
Opis:
Lista rozkazów stanowiąca główny atrybut architektury każdego komputera zmieniała się zależnie od dostępnej technologii i wymagań stawianych przez użytkowników. W artykule opisano kilka rozwiązań ISA (Instruction-Set Architecture) – kluczowych w historii informatyki, wskazując na uwarunkowania istniejące w czasie ich powstawania. Przedstawiono powody zmiany paradygmatu projektowania CISC-RISC w latach osiemdziesiątych. Scharakteryzowano istotę przetwarzania równoległego – od potokowości, przez superskalarność i organizacje VLIW aż do przetwarzania masywnie równoległego w obecnych superkomputerach.
Instruction-set architecture is determined by many factors, such as technology and users’ demand. The ISA evolution is illustrated on several examples – milestones in computing history: EDSAC, VAX, Berkeley RISC. The early 80’ CISC-RISC turning point in architecture paradigm is explained. A short characteristic of parallel processing is given – starting from pipelining, through superscalar and VLIW processors up to petaflops supercomputers using Massively Parallel Processing technique.
Źródło:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych; 2012, 1; 73-94
2299-3355
Pojawia się w:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realizacja urządzeń automatyki elektroenergetycznej na bazie układów FPGA
Realization of automatic power system devices based on FPGA chip
Autorzy:
Niklas, P.
Powiązania:
https://bibliotekanauki.pl/articles/156389.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
układ FPGA
przetwarzanie równoległe
sprzętowa realizacja
układ automatycznej synchronizacji prądnic
FPGA chip
parallel realization
hardware realization
automatic synchronizer of power units
Opis:
W artykule opisano wykorzystanie układu FPGA do realizacji układu automatycznej synchronizacji prądnic. Zastosowanie układu FPGA zapewnia w pełni sprzętową realizację procesu synchronizacji. Gwarantuje to deterministyczną i niezawodną realizację procesu synchronizacji. Układ FPGA pozwala również na równoległą realizację poszczególnych zadań procesu synchronizacji.
In the paper there is described implementation of a power object automatic synchronizer with use of the FPGA chip. The FPGA unit is a programmable chip. It is equipped with a specific set of logic elements, among which you can define the network of connections (Fig. 1). In this way, a hardware implementation of the desired functionality of the system is obtained [3]. The task of the automatic synchronizer is to connect a synchronized power object to parallel work, according to the amplitude, frequency and phase conditions. Given the very serious consequences of erroneous execution of the synchronization process [1], automatic synchronizers belong to the group of devices which puts very high demands for reliability. Application of FPGA provides fully hardware realization of the synchronization process. The advantage is high reliability, resulting from elimination of layers of software, which can be a potential source of errors. Another advantage is the true parallel realization of each task of the synchronization process. Each task is carried out in parallel by separate blocks of logic elements, as shown in Fig. 3. This solution also provides fully deterministic execution of the program code. The developed synchronizer enables full registration of parameters of the synchronization process, which is realized by application operating on a PC. Communication between the synchronization process and the application takes place via the Internet and the mechanism of direct memory access DMA. The communication diagram is shown in Fig. 5.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 1, 1; 84-87
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efektywna implementacja algorytmu wyszukiwania wzorców genetycznych
On efficient implementation of the search algorithm for genome patterns
Autorzy:
Milik, A.
Pułka, A.
Powiązania:
https://bibliotekanauki.pl/articles/156619.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
programowanie dynamiczne
identyfikacja wzorców
rozpoznawanie wzorców
przetwarzanie równoległe
przetwarzanie potokowe
dynamic programming
computational methods
pattern identification
pattern recognition
parallel processing
pipeline processing
Opis:
W artykule zaprezentowano implementację algorytmu obliczającego stopień podobieństwa sekwencji znaków (genów) do zadanego wzorca. Algorytm wywodzi się z biologii obliczeniowej. Rozwiązania programowe wymagają znacznych zasobów sprzętowych oraz czasu. W badaniach nad algorytmem główny nacisk położono na poznanie jego własności i ich wykorzystanie przy implementacji. Pozwoliło to stworzyć bardzo oryginalna implementację zapewniającą niezwykle oszczędne gospodarowanie zasobami w układzie programowalnym jak i uzyskanie bardzo wysokich częstotliwości pracy.
The paper describes implementation of the computation algorithm in modern, complex programmable hardware devices. The presented algorithm originates from computation biology and works on very long chains of symbols which come from reference patterns of the genome. The software solutions in this field are very limited and need large time and space resources. The main research efforts were aimed at investigating the properties of the searching algorithm. Especially, the influence of the penalty values assigned to the mismatch, insertion and deletion on the algorithm was analysed. This allowed obtaining a completely new algorithm offering extremely efficient implementation and exhibiting the outstanding performance. The Virtex 5 FPGA family was considered to be a target family for the searching algorithm based on the dynamic programming idea. The obtained results are very promising and show the dominance of the dedicated platform over the general purpose PC-based systems.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 1, 1; 15-18
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance evaluation of MapReduce using full virtualisation on a departmental cloud
Autorzy:
González-Vélez, H.
Kontagora, M.
Powiązania:
https://bibliotekanauki.pl/articles/907802.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
przetwarzanie w chmurze
przetwarzanie równoległe
szkielet algorytmiczny
MapReduce
server virtualization
cloud computing
algorithmic skeletons
structured parallelism
parallel computing
Opis:
This work analyses the performance of Hadoop, an implementation of the MapReduce programming model for distributed parallel computing, executing on a virtualisation environment comprised of 1+16 nodes running the VMWare workstation software. A set of experiments using the standard Hadoop benchmarks has been designed in order to determine whether or not significant reductions in the execution time of computations are experienced when using Hadoop on this virtualisation platform on a departmental cloud. Our findings indicate that a significant decrease in computing times is observed under these conditions. They also highlight how overheads and virtualisation in a distributed environment hinder the possibility of achieving the maximum (peak) performance.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2011, 21, 2; 275-284
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ekstrakcja równoległości w programach ANSI C dla systemów osadzonych
Extracting parallelism in ANSI C programs for embedded computer systems
Autorzy:
Bielecki, W.
Siedlecki, K.
Kraska, K.
Powiązania:
https://bibliotekanauki.pl/articles/154605.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompilatory
osadzone systemy komputerowe
ANSI C
przetwarzanie równoległe
transformacje pętli programowych
compilers
embedded computer systems
parallel processing
loop transformations
Opis:
W artykule zaprezentowano nowe podejście do ekstrakcji równole-głości w programach ANSI C dla architektur wieloprocesorowych polega-jące na wyznaczaniu niezależnych fragmentów obliczeń w pętlach programowych dowolnie zagnieżdżonych. Przedstawione podejście pozwala na ekstrakcję równoległości dla szerszego spektrum pętli programowych w porównaniu z transformacjami afinicznymi, uznawanymi dotychczas za najbardziej efektywne. Przedstawiono analizę zastosowania proponowanego podejścia dla wybranych źródeł języka ANSI C. Omówiono wyniki badań eksperymentalnych oraz wskazano kierunki dalszych prac.
The application of embedded computer systems extends from small consumer products to complex industrial solutions. Performance critical solutions require application of more efficient controllers using parallel architectures such as VLIW or multiprocessor (multi cores) architectures. The interest in using the parallelism in embedded systems puts up new challenges for science and engineering and requires new methods and tools. The paper presents a new approach to the extraction of parallelism in ANSI C programs for multiprocessor architectures, consisting of synchronization free threads of computations (slices). The presented approach allows the extraction of parallelism on a wider range of program loops than that extracted by the affine transformation framework identified as the most efficient. Scientific results achieved are implemented as an academic source to source parallelizing compiler. The analysis of applying the approach to selected ANSI C sources is presented. Experimental results are depicted and discussed. Conclusions and future research are discussed.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 697-700
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
K3M: A universal algorithm for image skeletonization and a review of thinning techniques
Autorzy:
Saeed, K.
Tabędzki, M.
Rybnik, M.
Adamski, M.
Powiązania:
https://bibliotekanauki.pl/articles/907744.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
szkieletyzacja
obraz cyfrowy
przetwarzanie obrazu
przetwarzanie równoległe
skeletonization
thinning
digital image processing
parallelization
iteration
thinning methodologies
sequential thinning
parallel thinning
Opis:
This paper aims at three aspects closely related to each other: first, it presents the state of the art in the area of thinning methodologies, by giving descriptions of general ideas of the most significant algorithms with a comparison between them. Secondly, it proposes a new thinning algorithm that presents interesting properties in terms of processing quality and algorithm clarity, enriched with examples. Thirdly, the work considers parallelization issues for intrinsically sequential algorithms of thinning. The main advantage of the suggested algorithm is its universality, which makes it useful and versatile for a variety of applications.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2010, 20, 2; 317-335
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of Track-Before-Detect Systems for GPGPU
Optymalizacja systemów śledzenia przed detekcją dla GPGPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154551.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie ruchu
równoległe przetwarzanie obrazów
GPGPU
śledzenie przed detekcją
Tracking
Parallel Image Processing
estimation
parallel image processing
Track-Before-Detect
Opis:
A computation speed of Track-Before-Detect algorithm with GPGPU implementations are compared in the paper. The conventional and subpixel variants for different thread processing block sizes are compared. Decimation of the state space for reduction of the external memory accesses is assumed. The GPGPU code profiling technique by the source code synthesis is applied for finding of the best parameters and code variants for particular GPGPU.
Systemy śledzenia oparte na schemacie śledzenia przed detekcją (TBD) umożliwiają śledzenia obiektów o niskim stosunku sygnału do szumu (SRN<1), co jest ważne dla zastosowań cywilnych i wojskowych. Konwencjonalne systemy śledzenia oparte na detekcji i śledzeniu nie są odpowiednie z uwagi na dużą ilość fałszywych lub utraconych detekcji. Najważniejszą wadą algorytmów TBD jest skala obliczeń, ponieważ wszystkie hipotezy (trajektorie) powinny być testowane, nawet jeśli nie ma obiektu w zasięgu. Proponowana metoda [8] oparta o decymację daje istotną (kilka razy) redukcję czasu przetwarzania na GPGPU. Programowalne karty graficzne (GPGPU) zawierają dużą ilość jednostek przetwarzania (procesorów strumieniowych) z bardzo małą, ale szybką pamięcią współdzieloną oraz dużą, ale bardzo wolną pamięcią globalną. Proponowana metoda [8] została w artykule przetestowana z wykorzystaniem algorytmu Spatio-Temporal TBD z dodatkowym profilowaniem kodu z wykorzystaniem platformy przetwarzania Nvidia CUDA. Kompilator CUDA jest dodatkowo używany do optymalizacji czasu przetwarzania z różnymi rozmiarami bloku przetwarzania. Przestrzeń stanów jest przetwarzana wewnętrznie z wykorzystaniem pamięci współdzielonej i przechowywana w pamięci globalnej po pewnej określonej liczbie kroków czasowych. Podejście z okienkowaniem jest używane do przetwarzania wejściowych danych pomiarowych 2D przechowywanych w pamięci globalnej.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 655-667
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies