Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "high performance computing" wg kryterium: Wszystkie pola


Tytuł:
Akceleracja obliczeń zmiennoprzecinkowych na platformie RASC
Accelerating calculations on the RASC platform
Autorzy:
Wielgosz, M.
Jamro, E.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/154331.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
akceleracja sprzętowa
komputery dużej mocy (HPC)
FPGA
obliczenia zmiennoprzecinkowe
funkcja exp()
HPRC (High Performance Reconfigurable Computing)
elementary functions
exponential function
Opis:
W artykule zostały zaprezentowane wyniki testów przeprowadzonych w celu określenia maksymalnej szybkości wykonywania operacji zmiennoprzecinkowych na platformie rekonfigurowanej RASC. Zaimplementowano różne dostępne tryby konfiguracji jednostki Host oraz RASC w celu wyłonienia najbardziej efektywnego pod względem wydajności trybu pracy jednostki obliczeniowej. Uzyskane wyniki pomiarów ujawniały, że kombinacja Direct I/O oraz DMA zapewnia najwyższą przepustowość pomiędzy węzłami Host i RASC. Niemniej jednak dla niektórych aplikacji tryb multi-buffering może okazać się bardziej odpowiedni, ze względu na możliwość jednoczesnego przesyłania danych i wykonywania operacji. Funkcja exp() w standardzie zmiennoprzecinkowym o podwójnej precyzji została wykorzystana jako przykładowa aplikacja, która pozwoliła oszacowanie możliwej do uzyskania akceleracji obliczeń na platformie RASC.
This paper presents results of the tests performed to determine high speed calculations capabilities of the SGI RASC platform. Different data transfer modes and memory management approaches were examined to choose the most effective combination of the Host and RASC memory adjustments. That work may be regarded as a case study of the contemporary FPGA -based accelerator which, however, can characterize the whole branch of the devices. The paper is strongly focused on the floating point calculations potential of the FPGA accelerator. The RASC algorithm execution procedure, from the processor perspective, is composed of several functions which reserve resources, queue commands and perform other preparation steps. It is noteworthy (Fig. 3) that the time consumed by the functions remains roughly the same, independent of the algorithm being executed. The resource reservation procedure, once conducted, allows many executions of the algorithm -that amounts to huge time savings, since the procedure takes approximately 7.5 ms, which is roughly 99 % of the overall execution time of the algorithm. Rasclib algorithm commit and rasclib algorithm wait calls are considered to be the key (Fig. 3) part of the RASC software execution routine. The first one activates the FPGA between these two commands is the transfer and algorithm execution time. All curves (Fig. 4) reflect overall processing time of the same amount of data, but differ in size of the single data chunk which varies from 1024x64 bit = 8 kB to 1048576x64 bit = 8 MB. It has been observed that for the bigger chunk much better results are achieved in terms of the effective execution time. However, above 1 MB a decrease of the effective execution time seems to indicate saturation, therefore sending data in bigger portions may not improve the performance of the system so much. The most effective execution time of single exp() function for SRAM buffering mode is 12 ns, so 9,5 ns is transport overhead due to bus delays. The theoretical calculation time of single exp() function (data transfer is not taken into account) is 2,5 ns because two exp() are implemented on the RASC and clocked at 200 Mhz. The obtained measurement results show that Direct I/O mode together with DMA transfer provides the highest data throughput between the Host and RASC slice. Nevertheless, for some application multi-buffering can appear to be more suitable in terms of concurrent data transfer capabilities and FPGA algorithm execution. As a hardware acceleration example, there is considered an exponential function which allows estimating maximum achievable data processing speed.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 7, 7; 485-487
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sprzętowa implementacja funkcji orbitalnej na potrzeby obliczeń kwantowo-chemicznych
Hardware implementation of the atom orbital calculation
Autorzy:
Wielgosz, M.
Jamro, E.
Russek, P.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/154619.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
akceleracja sprzętowa
komputery dużej mocy (HPC)
FPGA
obliczenia zmiennoprzecinkowe
funkcja exp()
High Performance Reconfigurable Computing
quantum chemistry
custom computing
HPC
Opis:
W niniejszym artykule przedstawione zostały wyniki implementacji modułu obliczającego wartość orbitalu atomowego w punkcie. Moduł ten stanowił cześć składową jednostki generującej wartość potencjału korelacyjno-wymiennego, wykorzystywaną w obliczeniach kwantowo-chemicznych. Prezentowana jednostka składa się z potokowych bloków zmiennoprzecinkowych. W pracy zaprezentowano również wyniki akceleracji obliczeń względem procesora ogólnego przeznaczenia Itanium2 1.6 GHz.
The paper presents FPGA acceleration and implementation results of the orbital function calculation employed in quantum-chemistry. The orbital function core is composed of the authors' customized floating-point hardware modules. These modules are scalable from single to double precision, capable of working at frequency ranging from 100 to 200 MHz. Besides hardware implementation, the design process also involved reformulation of the algorithm in order to adapt them to the platform profile. The computational procedure presented in this paper is part of the algorithm for generating exchange-correlation potential, and is also recognized as one of the most computationally intensive routines. This feature justifies the effort devoted to develop its hardware implementation. The precision of floating-point operations becomes a primary concern when dealing with low-level quantum chemistry procedures, thus the authors have taken various measures to optimize them, both in terms of resource consumption and processing speed.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 7, 7; 705-707
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Model Order Reduction of Large-Scale Finite Element Systems in an MPI Parallelized Environment for Usage in Multibody Simulation
Redukcja rzędu modelu w układach elementów skończonych wielkiej skali, w środowisku równoległym z intefejsem (MPI), w zastosowaniu do symulacji układów wieloczłonowych
Autorzy:
Volzer, T.
Eberhard, P.
Powiązania:
https://bibliotekanauki.pl/articles/950696.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
model order reduction
elastic multibody system
high performance computing
parallel reduction
Trilinos
Anasazi
iterative solvers
redukcja rzędu modelu
elastyczny system wieloczłonowy
wydajne systemy obliczeniowe
redukcja równoległa
solwery iteracyjne
Opis:
The use of elastic bodies within a multibody simulation became more and more important within the last years. To include the elastic bodies, described as a finite element model in multibody simulations, the dimension of the system of ordinary differential equations must be reduced by projection. For this purpose, in this work, the modal reduction method, a component mode synthesis based method and a moment-matching method are used. Due to the always increasing size of the non-reduced systems, the calculation of the projection matrix leads to a large demand of computational resources and cannot be done on usual serial computers with available memory. In this paper, the model reduction software Morembs++ is presented using a parallelization concept based on the message passing interface to satisfy the need of memory and reduce the runtime of the model reduction process. Additionally, the behaviour of the Block-Krylov-Schur eigensolver, implemented in the Anasazi package of the Trilinos project, is analysed with regard to the choice of the size of the Krylov base, the blocksize and the number of blocks. Besides, an iterative solver is considered within the CMS-based method.
W ostatnich latach w symulacji układów wieloczłonowych coraz ważniejsze staje się uwzględnianie odkształcalności członów. By w symulacji układu wieloczłonowego można było wykorzystać człony odkształcalne, modelowane metodą elementów skończonych, rozmiar układu równań różniczkowych zwyczajnych musi być zredukowany drogą projekcji.W tym celu w prezentowanej pracy zastosowano metodę redukcji modalnej, metodę opartą na syntezie składowych postaciowych (CMS) oraz metodę dopasowania momentów. Wobec wciąż rosnącego rozmiaru układów niezredukowanych, obliczanie macierzy projekcji prowadzi do wielkiego zapotrzebowania na moce obliczeniowe i nie może być wykonane na zwykłych, szeregowych komputerach. W pracy zaprezentowano oprogramowanie do redukcji modelu Morembs++, w którym wykorzystuje się obliczenia równoległe z interfejsem transmisji wiadomości (MPI), co zaspokaja zapotrzebowanie na pamięć i zmniejsza czas wykonania niezbędnych obliczeń. Ponadto działanie blokowego solvera wartości własnych Kryłowa-Schura, zaimplementowanego w pakiecie oprogramowania Anasazi z projektu Trilinos, zostało przeanalizowane pod kątem wyboru rozmiaru bazy Kryłowa, rozmiaru bloku i liczby bloków. Rozważono także użycie solvera iteracyjnego w ramach metody opartej na syntezie składowych postaciowych (CMS).
Źródło:
Archive of Mechanical Engineering; 2016, LXIII, 4; 475-494
0004-0738
Pojawia się w:
Archive of Mechanical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards a grid infrastructure for hydro-meteorological research
Zastosowanie infrastruktury gridowej do badań hydrometeorologicznych
Autorzy:
Schiffers, M.
Kranzlmuller, D.
Clematis, A.
D'Agostino, D.
Galizia, A.
Quarati, A.
Parodi, A.
Morando, M.
Rebora, N.
Trasforini, E.
Molini, L.
Siccardi, F.
Craig, G.
Tafferner, A.
Powiązania:
https://bibliotekanauki.pl/articles/305473.pdf
Data publikacji:
2011
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
obliczenia gridowe
obliczenia wysokiej wydajności
hydrometeorologia
e-science
grid computing
high performance computing
hydrometeorology
Opis:
The Distributed Research Infrastructure for Hydro-Meteorological Study (DRIHMS) is a co-ordinated action co-funded by the European Commission. DRIHMS analyzes the main issues that arise when designing and setting up a pan-European Grid-based e-Infrastructure for research activities in the hydrologic and meteorological fields. The main outcome of the project is represented first by a set of Grid usage patterns to support innovative hydro-meteorological research activities, and second by the implications that such patterns define for a dedicated Grid infrastructure and the respective Grid architecture.
Rozproszona infrastruktura naukowa przeznaczona do badań hydrometeorologicznych (Distributed Research Infrastructure for Hydro-Meteorological Study - DRIHMS) stanowi element skoordynowanej akcji współfinansowanej przez Komisję Europejską. Celem DRIHMS jest analiza głównych problemów spotykanych w dziedzinie hydrologii i meteorologii. Głównym wynikiem projektu będzie zestaw wzorców użytkowania środowisk gridowych w celu wspomagania nowoczesnych badań hydrometeorologicznych oraz wnioski wynikające z powyższego zastosowania, mogące mieć wpływ na dalszy rozwój dedykowanych rozwiązań gridowych.
Źródło:
Computer Science; 2011, 12; 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Robust Multiscale Modelling of Two-Phase Steels on Heterogeneous Hardware Infrastructures by Using Statistically Similar Representative Volume Element
Efektywne modelowanie wieloskalowe stali dwufazowych na heterogenicznych architekturach sprzętowych z wykorzystaniem statystycznie podobnych reprezentatywnych elementów objętościowych
Autorzy:
Rauch, Ł.
Bzowski, K.
Bachniak, D.
Pietrzyk, M.
Powiązania:
https://bibliotekanauki.pl/articles/958192.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
multiscale modelling
high performance computing
AHSS
modelowanie wieloskalowe
High Performance Computing
SSRVE
Opis:
The coupled finite element multiscale simulations (FE2) require costly numerical procedures in both macro and micro scales. Attempts to improve numerical efficiency are focused mainly on two areas of development, i.e. parallelization/distribution of numerical procedures and simplification of virtual material representation. One of the representatives of both mentioned areas is the idea of Statistically Similar Representative Volume Element (SSRVE). It aims at the reduction of the number of finite elements in micro scale as well as at parallelization of the calculations in micro scale which can be performed without barriers. The simplification of computational domain is realized by transformation of sophisticated images of material microstructure into artificially created simple objects being characterized by similar features as their original equivalents. In existing solutions for two-phase steels SSRVE is created on the basis of the analysis of shape coefficients of hard phase in real microstructure and searching for a representative simple structure with similar shape coefficients. Optimization techniques were used to solve this task. In the present paper local strains and stresses are added to the cost function in optimization. Various forms of the objective function composed of different elements were investigated and used in the optimization procedure for the creation of the final SSRVE. The results are compared as far as the efficiency of the procedure and uniqueness of the solution are considered. The best objective function composed of shape coefficients, as well as of strains and stresses, was proposed. Examples of SSRVEs determined for the investigated two-phase steel using that objective function are demonstrated in the paper. Each step of SSRVE creation is investigated from computational efficiency point of view. The proposition of implementation of the whole computational procedure on modern High Performance Computing (HPC) infrastructures is described. It includes software architecture of the solution as well as presentation of the middleware applied for data farming purposes.
Symulacje wieloskalowe z wykorzystaniem sprzężonej metody elementów skończonych wymagają kosztownych numerycznie procedur zarówno w skali makro jak i mikro. Próby poprawy efektywności numerycznej skupione są przede wszystkim na dwóch obszarach rozwoju tj. zrównoleglenie/rozproszenie procedur numerycznych oraz uproszczenie wirtualnej reprezentacji materiału. Jedną z metod reprezentującą obydwa obszary jest podejście Statystycznie Podobnego Reprezentatywnego Elementu Objętościowego. Głównym celem tej metody jest redukcja ilości elementów dyskretyzujących przestrzeń obliczeniową, ale również możliwość zrównoleglenia obliczeń w skali mikro, które mogą być realizowane niezależnie od siebie. Uproszczenie domeny obliczeniowej poprzez tworzenie elementu SSRVE realizowane jest za pomocą metod optymalizacji umożliwiających tworzenie elementu najbardziej podobnego do rzeczywistego materiału na podstawie wybranych cech charakterystycznych. W rozwiązaniu dla stali dwufazowych cechy opisujące podobieństwo są tworzone na podstawie analizy współczynników kształtu ziaren martenzytu na zdjęciu rzeczywistej mikrostruktury. Natomiast podejście przedstawione w niniejszym artykule zostało rozbudowane dodatkowo o lokalne wartości naprężeń i odkształceń tak, aby w pełni odzwierciedlić podobieństwo zarówno wizualne jak i behawioralne. Różne formy funkcji celu zostały poddane analizie w procesie optymalizacji, a uzyskane wyniki zostały porównane pod względem jakości, a także efektywności i unikalności rozwiązania. Ostatecznie zaproponowana została najlepsza funkcja celu obejmująca współczynniki kształtu oraz wartości naprężeń i odkształceń. Przykłady SSRVE wyznaczone dla analizowanych stali dwufazowych zostały przedstawione w artykule. Natomiast każdy krok procedury tworzenia elementu SSRVE został poddany analizie wydajności obliczeniowe, na podstawie której zaproponowane zostało podejście wykorzystujące nowoczesne architektury sprzętowe wysokiej wydajności. Opis podejścia zawiera zarówno architekturę rozwiązania jak i prezentację oprogramowania warstwy pośredniczącej.
Źródło:
Archives of Metallurgy and Materials; 2015, 60, 3A; 1973-1979
1733-3490
Pojawia się w:
Archives of Metallurgy and Materials
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance enhancement of CUDA applications by overlapping data transfer and Kernel execution
Autorzy:
Raju, K.
Chiplunkar, Niranjan N
Powiązania:
https://bibliotekanauki.pl/articles/1956064.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
CPU-GPU
high-performance computing
kernel
data transfer
CUDA streams
obliczenia wysokiej wydajności
jądro
transfer danych
strumienie CUDA
Opis:
The CPU-GPU combination is a widely used heterogeneous computing system in which the CPU and GPU have different address spaces. Since the GPU cannot directly access the CPU memory, prior to invoking the GPU function the input data must be available on the GPU memory. On completion of GPU function, the results of computation are transferred to CPU memory. The CPU-GPU data transfer happens through PCIExpress bus. The PCI-E bandwidth is much lesser than that of GPU memory. The speed at which the data is transferred is limited by the PCI-E bandwidth. Hence, the PCI-E acts as a performance bottleneck. In this paper two approaches are discussed to minimize the overhead of data transfer, namely, performing the data transfer while the GPU function is being executed and reducing the amount of data to be transferred to GPU. The effectiveness of these approaches on the execution time of a set of CUDA applications is realized using CUDA streams. The results of our experiments show that the execution time of applications can be minimized with the proposed approaches.
Źródło:
Applied Computer Science; 2021, 17, 3; 5-18
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design and performance evaluation of a Linux HPC cluster
Autorzy:
Pera, Donato
Powiązania:
https://bibliotekanauki.pl/articles/1955283.pdf
Data publikacji:
2018
Wydawca:
Politechnika Gdańska
Tematy:
high performance computing
parallel computing
cluster design
HPL
Opis:
In this paper after a short theoretical introduction about modern techniques used inparallel computing, we report a case study related to the design and development of the Caliban Linux High Performance Computing cluster, carried out by the author in the High Performance Computing Laboratory of the University of L’Aquila. Finally we report some performance evaluation tests related to the Caliban cluster performed using HPL (High-Performance Linpack) benchmarks.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2018, 22, 2; 113-123
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A High Performance Computing approach to the simulation of Fluid-Solid Interaction problems with rigid and flexible components
Zastosowanie wysokowydajnej techniki obliczeniowej (HPC) do symulacji problemów interakcji między płynem i ciałem stałym z elementami sztywnymi i elastycznymi
Autorzy:
Pazouki, A
Serban, R
Negrut, D
Powiązania:
https://bibliotekanauki.pl/articles/950680.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
fluid-solid interaction
high performance computing
smoothed particle hydrodynamics
rigid
obliczenia wysokiej wydajności
fizyka ciała stałego
dynamika ciepła
Opis:
This work outlines a unified multi-threaded, multi-scale High Performance Computing (HPC) approach for the direct numerical simulation of Fluid-Solid Interaction (FSI) problems. The simulation algorithm relies on the extended Smoothed Particle Hydrodynamics (XSPH) method, which approaches the fluid flow in a La-grangian framework consistent with the Lagrangian tracking of the solid phase. A general 3D rigid body dynamics and an Absolute Nodal Coordinate Formulation (ANCF) are implemented to model rigid and flexible multibody dynamics. The two-way coupling of the fluid and solid phases is supported through use of Boundary Condition Enforcing (BCE) markers that capture the fluid-solid coupling forces by enforcing a no-slip boundary condition. The solid-solid short range interaction, which has a crucial impact on the small-scale behavior of fluid-solid mixtures, is resolved via a lubrication force model. The collective system states are integrated in time using an explicit, multi-rate scheme. To alleviate the heavy computational load, the overall algorithm leverages parallel computing on Graphics Processing Unit (GPU) cards. Performance and scaling analysis are provided for simulations scenarios involving one or multiple phases with up to tens of thousands of solid objects. The software implementation of the approach, called Chrono:Fluid, is part of the Chrono project and available as an open-source software.
W pracy przedstawiono zarys jednolitego podejścia do bezpośredniej numerycznej symulacji problemów interakcji płyn – ciało stałe (FSI) z wykorzystaniem wielowątkowej wysokowydajnej techniki obliczeniowej (HPC) o wielkiej skali. Algorytm symulacji opiera się na rozszerzonej metodzie hydrodynamiki cząstek gładkich (XSPH), która opisuje przepływ płynu w formalizmie Lagrange'a zgodnym z metodą Lagrange'a śledzenia fazy stałej. W celu modelowania sztywnego i elastycznego układu wielu ciał implementowano ogólną, trójwymiarową dynamikę ciała sztywnego i zastosowano sformułowanie bezwzględnych współrzędnych węzłowych (ANCF). Dwukierunkowe sprzężenie między płynem i fazą stałą jest zamodelowane przez użycie znaczników wymuszenia warunków brzegowych (BCE) które oddają działanie sił sprzężenia między płynem a ciałem stałym wymuszając brak poślizgu w warunkach brzegowych. Problem interakcji bliskiego zakresu między płynem i ciałem stałym, która ma decydujący wpływ na zachowanie w małej skali mieszanin płynów i ciał stałych, rozwiązano przy pomocy modelu sił smarowania. Stany systemu zbiorczego są integrowane w czasie przy użyciu jawnego, wieloszybkościowego schematu. By zmniejszyć wielkie obciążenie obliczeniowe, w algorytmie ogólnym położono nacisk na obliczenia równoległe w kartach procesorów graficznych (GPU). W pracy przedstawiono analizę wydajności i skalowania dla scenariuszy symulacji obejmujących jedną lub wiele faz przy liczbie obiektów stałych sięgającej dziesiątek tysięcy. Implementacja oprogramowania przedstawionej metody, o nazwie Chrono: Fluid, jest częścią projektu Chrono i jest udostępniona do użytku nieodpłatnego.
Źródło:
Archive of Mechanical Engineering; 2014, LXI, 2; 227-251
0004-0738
Pojawia się w:
Archive of Mechanical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Heterogeneous GPU&CPU cluster for High Performance Computing in cryptography
Autorzy:
Marks, M.
Jantura, J.
Niewiadomska-Szynkiewicz, E.
Strzelczyk, P.
Góźdź, K.
Powiązania:
https://bibliotekanauki.pl/articles/305288.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
parallel computing
HPC
clusters
GPU computing
OpenCL
cryptography
cryptanalysis
Opis:
This paper addresses issues associated with distributed computing systems and the application of mixed GPU&CPU technology to data encryption and decryption algorithms. We describe a heterogenous cluster HGCC formed by two types of nodes: Intel processor with NVIDIA graphics processing unit and AMD processor with AMD graphics processing unit (formerly ATI), and a novel software framework that hides the heterogeneity of our cluster and provides tools for solving complex scientific and engineering problems. Finally, we present the results of numerical experiments. The considered case study is concerned with parallel implementations of selected cryptanalysis algorithms. The main goal of the paper is to show the wide applicability of the GPU&CPU technology to large scale computation and data processing.
Źródło:
Computer Science; 2012, 13 (2); 63-79
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using Redis supported by NVRAM in HPC applications
Autorzy:
Malinowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/305650.pdf
Data publikacji:
2017
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
high performance computing
storage systems
NoSQL
NVRAM
Opis:
Nowadays, the efficiency of a storage systems is a bottleneck in many moern HPC clusters. High performance in traditional approach – processing using files – is often difficult to obtain because of model complexity and its read/write patterns. Alternative approach is applying a key-value database, which usually has low latency and scales well. On the other hand, many key-value stores suffer from limitation of memory capacity and vulnerability to serious faiures, which is caused by processing in RAM. Moreover, some research suggests, that scientific data models are not applicable to storage structures of key-value databases. In this paper, the author proposes resolving mentioned issues by replacing RAM with NVRAM. Practical example is based on Redis NoSQL. The article contains also a three domain specific APIs, that show the idea bhind transformation from HPC data model to Redis structures, as well as two micro-benchmarks results.
Źródło:
Computer Science; 2017, 18 (3); 287-300
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Feasibility of FPGA to HPC computation migration of plasma impurities diagnostic algorithms
Autorzy:
Linczuk, P.
Krawczyk, R. D.
Zabolotny, W.
Wojenski, A.
Kolasinski, P.
Pozniak, K. T.
Kasprowicz, G.
Chernyshova, M.
Czarski, T.
Powiązania:
https://bibliotekanauki.pl/articles/226512.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
plasma diagnostic
GEM system
feedback loops
Intel Xeon
Intel Xeon Phi
high performance computing HPC
Opis:
We present a feasibility study of fast events parameters estimation algorithms regarding their execution time. It is the first stage of procedure used on data gathered from gas electron multiplier (GEM) detector for diagnostic of plasma impurities. Measured execution times are estimates of achievable times for future and more complex algorithms. The work covers usage of Intel Xeon and Intel Xeon Phi - high-performance computing (HPC) devices as a possible replacement for FPGA with highlighted advantages and disadvantages. Results show that less than 10 ms feedback loop can be obtained with the usage of 25% hardware resources in Intel Xeon or 10% resources in Intel Xeon Phi which leaves space for future increase of algorithms complexity. Moreover, this work contains a simplified overview of basic problems in actual measurement systems for diagnostic of plasma impurities, and emerging trends in developed solutions.
Źródło:
International Journal of Electronics and Telecommunications; 2017, 63, 3; 323-328
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A parallel genetic algorithm for creating virtual portraits of historical figures
Autorzy:
Krawczyk, H.
Proficz, J.
Ziółkowski, T.
Powiązania:
https://bibliotekanauki.pl/articles/1933983.pdf
Data publikacji:
2012
Wydawca:
Politechnika Gdańska
Tematy:
genetic algorithms
fitness function
KASKADA platform
parallel processing
high performance computing
Opis:
In this paper we present a genetic algorithm (GA) for creating hypothetical virtual portraits of historical figures and other individuals whose facial appearance is unknown. Our algorithm uses existing portraits of random people from a specific historical period and social background to evolve a set of face images potentially resembling the person whose image is to be found. We then use portraits of the person’s relatives to judge which of the evolved images are most likely to resemble his/her actual appearance. Unlike typical GAs, our algorithm uses a new supervised form of fitness function which itself is affected by the evolution process. Additional description of requested facial features can be provided to further influence the final solution (i.e. the virtual portrait). We present an example of a virtual portrait created by our algorithm. Finally, the performance of a parallel implementation developed for the KASKADA platform is presented and evaluated.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2012, 16, 1-2; 145-162
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An introduction to high performance computing: technology, tools and applications
Autorzy:
Kowalik, J. S.
Powiązania:
https://bibliotekanauki.pl/articles/1953946.pdf
Data publikacji:
2000
Wydawca:
Politechnika Gdańska
Tematy:
supercomputers
client-server systems
enterprise data processing systems
performance
parallel computing
cluster computing
Opis:
Traditionally high performance was applied to very computationally demanding problems in science and engineering. They were known as the Grand Challenge Problems that required supercomputers equipped with very large computer memories and capable of high rates of computation measured by Megaflops (million floating point operations per second). In the last two decades the world of business and industry has recognized the enormous potential of large distributed computer systems for their business enterprise applications. Today most of the existing high performance computers are employed in the enterprise environments. A typical system has three layers of servers: user interface, applications and database. These client/server architectures are the work horse of large enterprise information processing. This introductory paper describes both areas of high performance computing applications that differ in the nature of workload, performance objectives, design methodology and scientific focus.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2000, 4, 2; 171-178
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Computation acceleration on SGI RASC: FPGA based reconfigurable computing hardware
Akceleracja obliczeń na platformie SGI RASC: module obliczeń za pomocą logiki rekonfigurowalnej
Autorzy:
Jamro, E.
Janiszewski, M.
Machaczek, K.
Russek, P.
Wiatr, K.
Wielgosz, M.
Powiązania:
https://bibliotekanauki.pl/articles/305339.pdf
Data publikacji:
2008
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
sprzętowa akceleracja obliczeń
procesory dedykowane
FPGA
obliczenia wielkiej skali
SGI RASC
custom computing
single-purpose processors
high performance computing
Opis:
In this paper a novel method of computation using FPGA technology is presented. In several cases this method provides a calculations speedup with respcct to the General Purpose Processors (GPP). The main concept of this approach is based on such a design of computing hardware architecture to fit algorithm dataflow and best utilize well known computing techniques as pipelining and parallelism. Configurable hardware is used as a implementation platform for custom designed hardware. Paper will present implementation results of algorithms those are used in such areas as cryptography, data analysis and scientific computation. The other promising areas of new technology utilization will also be mentioned, bioinformatics for instance. Mentioned algorithms were designed, tested and implemented on SGI RASC platform. RASC module is a part of Cyfronet's SGI Altix 4700 SMP system. We will also present RASC modern architecture. In principle it consists of FPGA chips and very fast, 128-bit wide local memory. Design tools avaliable for designers will also be presented.
Autorzy prezentują nową metodę prowadzenia obliczeń wielkiej skali, opartą na układach FPGA. W szczególnych przypadkach jej zastosowanie prowadzi do skrócenia czasu obliczeń. Podstawą metody jest prowadzenie obliczeń za pomocą architektur obliczeniowych projektowanych dla danego algorytmu. Ponieważ architektura stworzona została specjalnie dla zadanego algorytmu, lepiej wykorzystuje możliwości równoległej i potokowej realizacji obliczeń. Jako platformę realizacji architektur dedykowanych zastosowano układy rekonfigurowalne. Artykuł prezentuje także wyniki zastosowania wspomnianej techniki w takich obszarach, jak kryptografia, analiza danych i obliczenia naukowe podwójnej precyzji. Wskazano również na inne dziedziny nauki, gdzie opisywana technika jest z powodzeniem stosowana (np.: bioinformatyka). Zrealizowane algorytmy były uruchomione i przetestowane na zainstalowanym w ACK Cyfronet AGH module SGI RASC, będącym częścią systemu SMP Al-tix 4700. Przedstawiono architekturę zastosowanego modułu RASC oraz narzędzia i metody projektowania dostępne dla programistów.
Źródło:
Computer Science; 2008, 9; 21-34
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of Virtual Reality and High Performance Computing in Designing Rotary Forming Processes
Autorzy:
Hojny, Marcin
Marynowski, Przemysław
Lipski, Grzegorz
Gądek, Tomasz
Nowacki, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/2134109.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
rotary forming
virtual reality
finite element
computer simulation
high performance computing
Opis:
This paper presents an innovative solution in the form of a virtual reality (VR) and high performance computing (HPC) system dedicated to aid designing rotary forming processes with laser beam reheating the material formed. The invented method allowing a virtual machine copy to be coupled with its actual counterpart and a computing engine utilizing GPU processors of graphic NVidia cards to accelerate computing are discussed. The completed experiments and simulations of the 316L stainless steel semi-product spinning process showed that the developed VR-HPC system solution allows the manufacturing process to be effectively engineered and controlled in industrial conditions.
Źródło:
Archives of Metallurgy and Materials; 2022, 67, 3; 1099--1105
1733-3490
Pojawia się w:
Archives of Metallurgy and Materials
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies