Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Przetwarzanie równoległe" wg kryterium: Temat


Tytuł:
Wybrane zagadnienia przetwarzania równoległego i rozproszonego oraz klastrów komputerowych
Autorzy:
Chaładyniak, D.
Powiązania:
https://bibliotekanauki.pl/articles/91258.pdf
Data publikacji:
2010
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
klastry komputerowe
przetwarzanie równoległe
przetwarzanie rozproszone
cluster computing
parallel computing
telecommunications networks
Opis:
W artykule przedstawiono wprowadzenie do zagadnień przetwarzania równoległego. Wyjaśniono jego ideę oraz zaprezentowano najpopularniejsze klasyfikacje. Przybliżono pojęcie przetwarzania rozproszonego we współczesnych sieciach teleinformatycznych. Przedstawiono wybrane implementacje klastrów komputerowych.
The article presents the introduction to parallel computing. It explains the idea and presents the most popular classifications. It also explains the concept of distributed processing in today’s telecommunications networks. It presents selected cluster computing implementations.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2010, 4, 4; 41-53
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ewolucja ISA – wierzchołek góry lodowej
ISA evolution – tip of the iceberg
Autorzy:
Komorowski, W.
Powiązania:
https://bibliotekanauki.pl/articles/137202.pdf
Data publikacji:
2012
Wydawca:
Uczelnia Jana Wyżykowskiego
Tematy:
ISA
Instruction-Set Architecture
CISC
RISC
przetwarzanie równoległe
parallel processing
Opis:
Lista rozkazów stanowiąca główny atrybut architektury każdego komputera zmieniała się zależnie od dostępnej technologii i wymagań stawianych przez użytkowników. W artykule opisano kilka rozwiązań ISA (Instruction-Set Architecture) – kluczowych w historii informatyki, wskazując na uwarunkowania istniejące w czasie ich powstawania. Przedstawiono powody zmiany paradygmatu projektowania CISC-RISC w latach osiemdziesiątych. Scharakteryzowano istotę przetwarzania równoległego – od potokowości, przez superskalarność i organizacje VLIW aż do przetwarzania masywnie równoległego w obecnych superkomputerach.
Instruction-set architecture is determined by many factors, such as technology and users’ demand. The ISA evolution is illustrated on several examples – milestones in computing history: EDSAC, VAX, Berkeley RISC. The early 80’ CISC-RISC turning point in architecture paradigm is explained. A short characteristic of parallel processing is given – starting from pipelining, through superscalar and VLIW processors up to petaflops supercomputers using Massively Parallel Processing technique.
Źródło:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych; 2012, 1; 73-94
2299-3355
Pojawia się w:
Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły Przedsiębiorczości i Techniki. Studia z Nauk Technicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawy przetwarzania równoległego informacji
Autorzy:
Chaładyniak, D.
Powiązania:
https://bibliotekanauki.pl/articles/91489.pdf
Data publikacji:
2006
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
przetwarzanie równoległe
równoległość homogeniczna
równoległość heterogeniczna
parallel systems
homogenic parallelism
heterogenic parallelism
Opis:
W artykule poruszono wybrane podstawowe zagadnienia związane z przetwarzaniem równoległym. Przedstawiono główne obszary zastosowania przetwarzania równoległego oraz dokonano podziału systemów równoległych za pomocą klasyfikacji zaproponowanej przez M. Flynna. Scharakteryzowano cztery rodzaje przetwarzania: SISD (Single Instruction Stream – Single Data Stream), SIMD (Single Instruction Stream – Multiple Data Stream), MISD (Multiple Instruction Stream – Single Data Stream) oraz MIMD (Multiple Instruction Stream – Multiple Data Stream). Opisano również trzy architektury pamięciowe: MIMD-SM (Shared Memory), MIMD-DM (Distributed Memory) oraz MIMD-HDSM (Hybrid Distributed-Shared Memory). W poniższym opracowaniu przedstawiono ponadto ogólny podział architektury komputerów równoległych. Artykuł kończą informacje na temat rodzajów równoległości przetwarzania danych na przykładzie równoległości homogenicznej i heterogenicznej.
The paper considers selected basic issues related with parallel computing. Main areas of parallel computing application and parallel systems classification according to M. Flynn are presented. Four types of processing are characterized: SISD (Single Instruction Stream – Single Data Stream), SIMD (Single Instruction Stream – Multiple Data Stream), MISD (Multiple Instruction Stream – Single Data Stream) and MIMD (Multiple Instruction Stream – Multiple Data Stream). Three memory architectures are described: MIMD-SM (Shared Memory), MIMD-DM (Distributed Memory) and MIMD-HDSM (Hybrid Distributed-Shared Memory). A general classification of parallel computers architecture is additionally presented. The paper is completed by information concerning types of parallelism of data processing with the example of homogenic and heterogenic parallelism.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2006, 1, 1; 105-114
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mean Squared Load Criteria for Scheduling Independent Tasks
Autorzy:
Dzemyda, G.
Powiązania:
https://bibliotekanauki.pl/articles/908277.pdf
Data publikacji:
1999
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
przetwarzanie równoległe
szeregowanie
zadanie kombinatoryczne
parallel processing
scheduling
combinatorial problems
minimum makespan problem
mean squared load
Opis:
Results of this paper extend the set of criteria which characterize the scheduling quality as well as the set of possible scheduling strategies. A new view on the minimum makespan criterion is presented in terms of the mean squared load of processing units. This leads in turn to the development of new scheduling algorithms. The interaction between processes of minimizing the new criteria and the maximum finishing time (makespan of the schedule) was discovered. We show the possibility of minimizing the maximum finishing time by minimizing the new criteria that characterize the mean squared load of processing units. Moreover, the optimal workload of processing units determined with the use of the proposed criteria is usually smoother (more balanced) than that found for traditional ones.
Źródło:
International Journal of Applied Mathematics and Computer Science; 1999, 9, 4; 939-954
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An experimental study on recognizing classes of dependence relations
Techniki identyfikacji klas relacji zależności w pętlach programowych
Autorzy:
Bielecki, W.
Klimek, T.
Pietrasik, M.
Powiązania:
https://bibliotekanauki.pl/articles/156048.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
pętle afiniczne
relacja zależności
transformacje pętli
przetwarzanie równoległe
affine loops
dependence relations
program transformation
parallelization
Opis:
A classification of dependence relations representing exact dependences in program loops is presented. The class of a relation causes the choice of techniques for program loop parallelization. Techniques to recognize the class of a relation are presented. The implementation of these techniques by means of the Omega library is discussed. Results of an experimental study aimed at recognizing classes of dependence relations extracted for popular benchmarks (Livermore Loops, NAS, and UTDSP) are outlined.
W artykule dokonano podziału relacji zależności występujących w pętlach programowych. Na podstawie przeprowadzonych obserwacji wyodrębniono sześć podstawowych klas takich relacji. Trafne rozpoznanie danej klasy relacji opisującej zależności, determinuje dobór odpowiedniej techniki transformacji pętli programowej i tym samym pozwala na uzyskanie znacznie większego jej stopnia równoległości w porównaniu z metodami bazującymi na rozwiązaniach przybliżonych. Rozwiązania takie, zawierają zdecydowanie większą liczbę zależności, aniżeli ich faktyczna liczba wystąpień. W celu ułatwienia procesu identyfikacji poszczególnych klas relacji zależności, przedstawiono szereg formalnych metod ich rozpoznania wykorzystujących szeroki wachlarz mechanizmów zawartych w bibliotece Omega. Na potrzeby przeprowadzonych badań zaimplementowano narzędzie, w ramach którego przeanalizowano zestawy pętli trzech popularnych benchmarków : Livermoore, NAS i UTDSP. Uzyskane wyniki pozwoliły wyciągnąć wnioski odnośnie procentowego udziału relacji zależności w zaproponowanych przez autorów klasach.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 799-802
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance evaluation of MapReduce using full virtualisation on a departmental cloud
Autorzy:
González-Vélez, H.
Kontagora, M.
Powiązania:
https://bibliotekanauki.pl/articles/907802.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
przetwarzanie w chmurze
przetwarzanie równoległe
szkielet algorytmiczny
MapReduce
server virtualization
cloud computing
algorithmic skeletons
structured parallelism
parallel computing
Opis:
This work analyses the performance of Hadoop, an implementation of the MapReduce programming model for distributed parallel computing, executing on a virtualisation environment comprised of 1+16 nodes running the VMWare workstation software. A set of experiments using the standard Hadoop benchmarks has been designed in order to determine whether or not significant reductions in the execution time of computations are experienced when using Hadoop on this virtualisation platform on a departmental cloud. Our findings indicate that a significant decrease in computing times is observed under these conditions. They also highlight how overheads and virtualisation in a distributed environment hinder the possibility of achieving the maximum (peak) performance.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2011, 21, 2; 275-284
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
K3M: A universal algorithm for image skeletonization and a review of thinning techniques
Autorzy:
Saeed, K.
Tabędzki, M.
Rybnik, M.
Adamski, M.
Powiązania:
https://bibliotekanauki.pl/articles/907744.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
szkieletyzacja
obraz cyfrowy
przetwarzanie obrazu
przetwarzanie równoległe
skeletonization
thinning
digital image processing
parallelization
iteration
thinning methodologies
sequential thinning
parallel thinning
Opis:
This paper aims at three aspects closely related to each other: first, it presents the state of the art in the area of thinning methodologies, by giving descriptions of general ideas of the most significant algorithms with a comparison between them. Secondly, it proposes a new thinning algorithm that presents interesting properties in terms of processing quality and algorithm clarity, enriched with examples. Thirdly, the work considers parallelization issues for intrinsically sequential algorithms of thinning. The main advantage of the suggested algorithm is its universality, which makes it useful and versatile for a variety of applications.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2010, 20, 2; 317-335
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of Spatio-Temporal Track-Before-Detect Algorithm using GPU
Implementacja przestrzenno-czasowego algorytmu śledzenia przed detekcją z wykorzystaniem GPU
Autorzy:
Mazurek, P.
Powiązania:
https://bibliotekanauki.pl/articles/154011.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja
śledzenie przed detekcją
cyfrowe przetwarzanie obrazów
przetwarzanie równoległe obrazów
estimation
Track-Before-Detect
digital image processing
parallel image processing
Opis:
Track-Before-Detect (TBD) Algorithms are especially suitable for tracking low-observable targets. For low signal-to-noise ratio (SNR <1) cases tracking of such target is possible using TBD approach. Using accumulative approach and more than single measurements a noise level can be reduced in algorithm way, and gives SNR value enhancement. Due to the target's dynamic the possible motion vectors should be considered. In this article in parallel processing approach based on GPU (Graphics Processing Unit) and CUDA (a software platform for GPU programming) is discussed. GPU gives ability of using high number of stream processors and high clocking frequency for parallel algorithms. Because TBD algorithms have abilities of processing in parallel way they are well suited for GPU implementations and real-time processing. Using sparse characteristic of Markov's matrix the Spatio-Temporal TBD algorithm is considered and different implementations schemes (texture, global memory, global with shared memory) for state space access are compared and real-time processing for typical image sizes are obtained.
Algorytmy śledzenia przed detekcją (TBD - Track-Before-Detect) umożliwiają realizacje systemów estymacji parametrów kinematycznych obiektów także przy warunku SNR<1 (Signal-to-Noise Ratio), co pozwala na śledzenie obiektów, których sygnał jest poniżej wartości szumów. Wykorzystując podejście akumulacyjne oraz więcej niż jeden pomiar możliwe jest zmniejszenie poziomu szumów, a przez to zwiększenie wartości SNR. Z uwagi na dynamikę obiektu konieczne jest uwzględnienie możliwych wektorów ruchu obiektu. Wymagania te powodują, że algorytmy te mają olbrzymi koszt obliczeniowy niezależny od ilości śledzonych obiektów. W artykule zaproponowano rozwiązanie przetwarzania równoległego w czasie rzeczywistym dla obrazów, z wykorzystaniem GPU (Graphical Processing Unit) i platformy programowej CUDA. Zaletą wykorzystania GPU jest możliwość użycia bardzo dużej liczby procesorów strumieniowych, charakteryzujących się prostą budową i wysoką częstotliwością taktowania, co pozwala na efektywną czasowo realizację algorytmów przetwarzania równoległego. Ponieważ algorytmy śledzenia przed detekcją mają cechy predysponujące je do przetwarzania równoległego, więc wykorzystanie GPU jest rozwiązaniem pozwalającym na przetwarzanie w czasie rzeczywistym. W artykule rozpatrywane jest zastosowanie algorytmu rekurencyjnego: przestrzenno-czasowego śledzenia przed detekcją, ze szczególnym uwzględnieniem możliwości redukcji ilości obliczeń dla rzadkich macierzy Markowa. Porównano różne warianty implementacji dla dostępu do wielowymiarowej przestrzeni stanów, która jest przechowywana w pamięci karty graficznej. Dane wejściowe także przechowywane są w pamięci karty graficznej, a dostęp realizowany za pomocą odczytu tekstury, co pozwala na realizację także ułamkowych wektorów ruchu, dzięki wbudowanej interpolacji dwuliniowej. Przestrzeń stanów jest czterowymiarowa i dostęp do niej obciąża znacząco magistralę pamięci. Przetestowano warianty: odczytu z wykorzystaniem tekstur oraz zwykłego dostępu do pamięci, oraz zapisu bezpośredniego i z synchronizowanym buforowaniem w pamięci współdzielonej, uzyskując zbliżone wyniki czasu przetwarzania. Ponieważ w architekturze CUDA nie jest możliwy zapis do tekstury, dlatego konieczne jest dodatkowe kopiowanie wyników przestrzeni stanów do obszaru tekstury, co jednak nie powoduje znaczącego obciążenia w systemie. Wykazano, że możliwa jest realizacja systemów śledzenie przed detekcją z wykorzystaniem GPU pracującym w czasie rzeczywistym. Dla obrazów o rozmiarze 256x256 pikseli osiągnięto ponad 200 klatek na sekundę przy 13 wektorach ruchu, a dla 1024x1024 osiągnięto 15 klatek na sekundę, przy wykorzystaniu procesora G80 (GeForce 8800 GTS).
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 8, 8; 657-659
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Systemy wieloprocesorowe w automatyce i pomiarach
Multiprocesor systems in automatic control and measurements
Autorzy:
Jordan, A.
Bycul, R.
Forenc, J.
Myszkowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/158209.pdf
Data publikacji:
2004
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
klaster
przetwarzanie równoległe
metoda gradientu sprzężonego
metoda spekulacyjna
cluster
parallel processing
conjugate gradient method
speculative method
Opis:
Artykuł przedstawia konstrukcję homogenicznego systemu klaster - KETIM2, oraz dwa przykłady jego wykorzystania do rozwiązywania wybranych zagadnień z teorii sterowania i przybliżonych metod elektrotechniki. Pierwszym z nich jest równoległa implementacja algorytmu gradientu sprzężonego wykorzystywanego w teorii optymalizacji i metodzie elementów skończonych. Drugi przykład dotyczy równoległej analizy stanów nieustalonych w układach opisanych nieliniowym równaniem stanu. W tym drugim przypadku analizowano dynamikę silnika asynchronicznego pierścieniowego stosując metodę spekulacyjną. Przedstawiono również perspektywy zastosowań systemów wieloprocesorowych w technice pomiarowej.
The paper presents the construction of a homogenous cluster system - KETIM2 and two examples of its application for solving selected problems of control theory and approximate methods of electrical engineering. First of them is a parallel implementation of the conjugate gradient algorithm applied in the optimization theory and in the method of finite elements. The second example concerns parallel analysis of transient states in a dynamic system described by a nonlinear state equation. In the second case dynamics of asynchronous slip-ring motor was analysed appluing a speculative method. The perspectives of applications of multiprocessor systems in measurement technique were also presented.
Źródło:
Pomiary Automatyka Kontrola; 2004, R. 50, nr 10, 10; 16-20
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of parallelisation of 3D-CEMBS model using technologies like OpenACC and OpenMP
Analiza możliwości zrównoleglenia modelu 3D-CEMBS z wykorzystaniem technologii typu OpenACC i OpenMP
Autorzy:
Piotrowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/111546.pdf
Data publikacji:
2015
Wydawca:
Instytut Morski w Gdańsku
Tematy:
3D-CEMBS
parallel computing
MPI
OpenMP
OpenACC
distributed memory
shared memory
przetwarzanie równoległe
pamięć rozproszona
pamięć dzielona
Opis:
Oceanographic models utilise parallel computing techniques to increase their performance. Computer hardware constantly evolves and software should follow to better utilise modern hardware potential. The number of CPU cores with access to shared memory increases with hardware evolution. To fully utilise the possibilities new hardware presents, parallelisation techniques employed in oceanographic models, which were designed with distributed memory systems in mind, have to be revised. This research focuses on analysing the 3D-CEMBS model to assess the feasibility of using OpenMP and OpenACC technologies to increase performance. This was done through static code analysis and profiling. The findings show that the main performance problems are attributed to task decomposition that was designed with distributed memory systems in mind. To fully utilise modern shared memory systems, other task decomposition strategies need to be employed. The presented 3D-CEMBS model analysis is a first stage in wider research of oceanographic models as a specific class of parallel applications. In the long term the research will result in proposing design patterns tailored for oceanographic models that would exploit their characteristics to achieve better hardware utilisation on evolving hardware architectures.
Modele oceanograficzne wykorzystują przetwarzanie równoległe dla zwiększenia wydajności. Sprzęt komputerowy ciągle ewoluuje, więc oprogramowanie powinno zmieniać się razem z nim, aby w pełni wykorzystać potencjał współczesnego sprzętu. Wraz z rozwojem sprzętu komputerowego zwiększa się liczba rdzeni procesorów, które mają dostęp do pamięci współdzielonej. Aby w pełni wykorzystać możliwości nowego sprzętu, techniki zrównoleglania wykorzystywane w modelach oceanograficznych muszą zostać zrewidowane. Modele oceanograficzne były często projektowane z myślą o systemach z pamięcią rozproszoną. Niniejsze badania skupiają się na analizie modelu 3D-CEMBS pod kątem możliwości wykorzystania technologii OpenMP i OpenACC w celu podniesienia wydajności modelu. W tym celu została przeprowadzona statyczna analiza kodu modelu oraz profilowanie. Wyniki badań pokazują, że główny problem wydajnościowy modelu jest wynikiem zastosowania dekompozycji zadań przewidzianej dla systemów z pamięcią rozproszoną. Aby w pełni wykorzystać współczesne komputery z pamięcią współdzieloną należy wprowadzić inne strategie dekompozycji zadań.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2015, 30, 1; 10-15
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie obliczeń równoległych do klasyfikacji punktów overlap
Application of parallel computing for classification of overlapping points
Autorzy:
Bratuś, R.
Musialik, P.
Pióro, P.
Prochaska, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131194.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
punkty typu overlap
przetwarzanie równoległe
klasyfikacja punktów
kąt skanowania
overlapping points
parallel computing
points classification
scan angle
Opis:
Publikacja omawia nowatorskie metody rozwiązania ważnego technologicznie zagadnienia, jakim jest klasyfikacji punktów overlap, czyli punktów w pasie podwójnego pokrycia pomiędzy sąsiednimi szeregami skanowania. Prezentowane podejście oparte jest na wydajnej metodzie obliczeń równoległych na procesorach graficznych GPU, pozwalającej na zastosowanie bardziej zaawansowanego algorytmu podczas analizy i przetwarzania danych. Celem sprawdzenia wydajności przeprowadzono testy badanego narzędzia do klasyfikacji punktów overlap, a wyniki odniesiono do możliwości powszechnie stosowanego programu Terrascan firmy Terrasolid. Proponowane innowacje obliczeniowe mają na celu poprawę jakości danych skaningowych pozyskiwanych przy pomocy latających platform takich jak lekkie samoloty czy wiatrakowce. Podniesienie jakości procesu klasyfikacji punktów typu overlap, wymaga dwóch wstępnych etapów przetwarzania. Pierwszy polega na obcięciu brzegów szeregu ściśle według zadanego kąta od pionu. Zastosowane podejście daje bardziej regularne wyniki niż inne metody. Z kolei drugi, oparty o algorytm rozgęszczenia punktów, prowadzi do usuwania nadmiarowych profili skanowania. Proponowane rozwiązanie to klasyfikacja punktów overlap według kąta padania promienia skanera na teren i obiekty terenowe. Reasumując, w ramach opisanych badań dotychczas stosowane metody klasyfikacji punktów overlap zostały poddane rewizji. Korzystając z praktycznych uwag oraz sugestii ze strony wykonawców, wprowadzono szereg udoskonaleń, których prezentacja i dyskusja jest przedmiotem niniejszej publikacji.
The paper presents innovative methods of solving important technological problem: the classification of LiDAR points located in the overlapping area between two parallel scan strips. The presented approach is based on an efficient method of parallel computation using graphic processors, allowing to apply more sophisticated algorithms for data analysis and processing. The tests of the algorithms were executed in order to verify correctness of the assumption that the innovative solutions presented in the paper might increase the efficiency and correctness of the data, referred to well known and popular technological solutions. The suggested computational innovations are applied to increase the quality of the LiDAR data acquired by light airplanes and gyrocopters. Two approaches to increase the quality of classification of overlapping points have bee, proposed. The first process is cutting-off the points of the strip borders strictly according to defined angle measured from vertical direction. The second process is dissolving of the points to get the regular density of the result point cloud. The title issue is the classification of overlapping points according to the angle of incidence to the terrain and other objects. The normal vectors calculation for each of the scan points is necessary for the analysis. Such solution increases the quality of overlaps classification and guarantees its high efficiency thanks to the parallel computation. In conclusion, during the research three innovative approaches were tested and reviewed against commonly used methods. Parallel computation can improve quality and reduce time of processing for overlap classification problem was confirmed.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2017, 29; 11-26
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Scalability evaluation of Matlab routines for parallel image processing environment
Autorzy:
Saif, J. A. M.
Sumionka, P.
Powiązania:
https://bibliotekanauki.pl/articles/1940231.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
scalability
parallel image processing
Matlab
skalowalność
równoległe przetwarzanie obrazu
Opis:
Image edge detection plays a crucial role in image analysis and computer vision, it is defined as the process of finding the boundaries between objects within the considered image. The recognized edges may further be used in object recognition or image matching. In this paper a Canny image edge detector is used which gives acceptable results that can be utilized in many disciplines, but this technique is time-consuming especially when a big collection of images is analyzed. For that reason, to enhance the performance of the algorithms, a parallel platform allowing speeding up the computation is used. The scalability of a multicore supercomputer node, which is exploited to run the same routines for a collection of color images (from 2100 to 42000 images) is investigated.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 423-433
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efektywna implementacja algorytmu wyszukiwania wzorców genetycznych
On efficient implementation of the search algorithm for genome patterns
Autorzy:
Milik, A.
Pułka, A.
Powiązania:
https://bibliotekanauki.pl/articles/156619.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
programowanie dynamiczne
identyfikacja wzorców
rozpoznawanie wzorców
przetwarzanie równoległe
przetwarzanie potokowe
dynamic programming
computational methods
pattern identification
pattern recognition
parallel processing
pipeline processing
Opis:
W artykule zaprezentowano implementację algorytmu obliczającego stopień podobieństwa sekwencji znaków (genów) do zadanego wzorca. Algorytm wywodzi się z biologii obliczeniowej. Rozwiązania programowe wymagają znacznych zasobów sprzętowych oraz czasu. W badaniach nad algorytmem główny nacisk położono na poznanie jego własności i ich wykorzystanie przy implementacji. Pozwoliło to stworzyć bardzo oryginalna implementację zapewniającą niezwykle oszczędne gospodarowanie zasobami w układzie programowalnym jak i uzyskanie bardzo wysokich częstotliwości pracy.
The paper describes implementation of the computation algorithm in modern, complex programmable hardware devices. The presented algorithm originates from computation biology and works on very long chains of symbols which come from reference patterns of the genome. The software solutions in this field are very limited and need large time and space resources. The main research efforts were aimed at investigating the properties of the searching algorithm. Especially, the influence of the penalty values assigned to the mismatch, insertion and deletion on the algorithm was analysed. This allowed obtaining a completely new algorithm offering extremely efficient implementation and exhibiting the outstanding performance. The Virtex 5 FPGA family was considered to be a target family for the searching algorithm based on the dynamic programming idea. The obtained results are very promising and show the dominance of the dedicated platform over the general purpose PC-based systems.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 1, 1; 15-18
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zwiększenie lokalności programów równoległych wykonywanych w systemach osadzonych
Increasing data locality of parallel programs executed in embedded systems
Autorzy:
Bielecki, W.
Kraska, K.
Powiązania:
https://bibliotekanauki.pl/articles/156188.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
lokalność danych
kompilatory
systemy osadzone
przetwarzanie równoległe
transformacje pętli programowych
data locality
compilers
embedded systems
parallel processing
loop transformations
Opis:
Zwiększenie lokalności danych w programie jest niezbędnym elementem zwiększenia wydajności części programowych systemu osadzonego, zmniejszenia zużycia energii oraz redukcji rozmiaru pamięci w układzie. Przedstawiono komplementarne wykorzystanie metody szacowania lokalności danych wobec nowej metody ekstrakcji wątków, ich aglomeracji w celu dostosowania do możliwości docelowej architektury przy zastosowaniu różnych typów podziału iteracji pętli (mapowanie czasowo-przestrzenne) i z uwzględnieniem wpływu zastosowania znanych technik poprawy lokalności danych. Wybór najlepszej kombinacji transformacji kodu pod kątem lokalności danych umożliwia zwiększenie wydajności programu względem wskazanych czynników. Zaprezentowano podejście do analizy lokalności danych dla wybranych pętli, przedstawiono i omówiono wyniki badań eksperymentalnych a także wskazano kierunki dalszych prac.
Increasing data locality in a program is a necessary factor to improve performance of software parts of embedded systems, to decrease power consumption and reduce memory on chip size. A possibility of applying a method of quantifying data locality to a novel method of extracting synchronization-free threads is introduced. It can be used to agglomerate extracted synchronization-free threads for adopting a parallel program to a target architecture of an embedded system under various loop schedule options (space-time mapping) and the influence of well known techniques to improve data locality. The choice of the best combination of loop transformation techniques regarding to data locality makes possible improving program performance. A way of an analysis of data locality is presented. Experimental results are depicted and discussed. Conclusion and future research are outlined.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 8, 8; 464-468
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallel approaches to parametric optimization and the convergence of interactive decision support
Autorzy:
Wierzbicki, A.
Powiązania:
https://bibliotekanauki.pl/articles/205708.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
matematyka obliczeniowa
optymalizacja
optymalizacja parametryczna
programowanie liniowe
programowanie nieliniowe
przetwarzanie równoległe
teoria algorytmów
interactive decision support
optimization
parallel computations
Opis:
In the perspective of parallel processing, a new sense of parametric optimization might be promoted. The paper shows that it, is possible to propose new parallel versions of basic optimization algorithms, as well as an advanced method of securing convergence in interactive mnltiobjective optimization and decision support, all based on a modified concept of parametric embedding. This general idea is exemplified for the case of the simplex algorithm of linear programming by a parameterized and coarse-grain parallel augmented simplex algorithm, where a linear optimization problem can be embedded into a multiple-ohjective family which introduces diversified directions of search cutting through the interior of the original admissible set. For the case of nonlinear programming, a parameterized and coarse-grain parallel variable metric pulsar algorithm is shortly presented, where parallel directional searches are combined with a parametrized variable metric to produce a pulsating, robust nonliear programming algorithm. These two examples concern very basic optimization tools ; at the other end of the spectrmn of optimization-related methods, a general method called outranking trials of securing convergence of interactive multiobjective optimization and decision suport is obtained through parameterizing an outranking relation and using basic properties of order-consistent achievement functions in reference point methodology for testing the existence of outranking points by parallel optimization runs. Thus, the paper presents the use of parallel processing to solve a wide range of modified parametric embedding problems related to optimization and decision support.
Źródło:
Control and Cybernetics; 2000, 29, 1; 427-444
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies