Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "analiza zależności danych" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
Parallelization of the Camellia Encryption Algorithm
Zrównoleglenie algorytmu szyfrowania Camellia
Autorzy:
Burak, D.
Błaszyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/156064.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
algorytm szyfrowania Camellia
zrównoleglenie
analiza zależności danych
OpenMP
Camellia encryption algorithm
parallelization
data dependency analysis
Opis:
A parallelization process of the Camellia encryption algorithm along with the description of exploited parallelization tools is presented. The data dependency analysis of loops and the loop transformations were applied in order to parallelize the sequential algorithm. The OpenMP standard was chosen for representing parallelism of the cipher. Speed-up measurements for a parallel program are presented.
W artykule przedstawiono proces zrównoleglenia japońskiego standardu szyfrowania danych - blokowego algorytmu szyfrowania Camellia, bazującego na sieci Feistela, pracującego w trybie pracy ECB. Krótko opisano wykorzystane do tego celu narzędzia programowe: program Petit, który służy do analizy istniejących zależności danych w pętlach programowych oraz OpenMP API. W celu zrównoleglenia algorytmu sekwencyjnego zastosowano analizę zależności danych oraz dokonano przekształceń pętli programowych w celu wyeliminowania istniejących zależności pętli blokujących proces ich zrównoleglenia. Do prezentacji równoległości szyfru wybrano język C oraz standard OpenMP. Załączono również wyniki pomiarów przyspieszenia pracy programu równoległego oraz najbardziej czasochłonnych pętli, które są odpowiedzialne za proces szyfrowania oraz deszyfrowania danych dla dwóch, czterech, ośmiu oraz szesnastu procesorów oraz dla dwóch, czterech, ośmiu oraz szesnastu wątków utworzonych z zastosowaniem kompilatora IntelŽ C++ w wersji.11.0 zawierającego OpenMP API w wersji 3.0. Najbardziej czasochłonne pętle zostały w pełni zrównoleglone, natomiast przyspieszenie pracy całego programu, zgodnie z prawem Amdahla jest zredukowane z uwagi na występowanie w kodzie programu części sekwencyjnej, zawierającej sekwencyjne operacje wejścia- wyjścia służące do odczytu danych z pliku, oraz zapisu danych do pliku. Wyniki zrównoleglenia opisane w artykule mogą być pomocne do implementacji sprzętowych algorytmu Camellia.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 820-822
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallelization of the ARIA Encryption Standard
Zrównoleglenie standardu szyfrowania ARIA
Autorzy:
Burak, D.
Powiązania:
https://bibliotekanauki.pl/articles/157465.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
standard szyfrowania ARIA
zrównoleglenie
analiza zależności danych
OpenMP
ARIA encryption standard
parallelization
data dependency analysis
Opis:
In this paper there are presented the results of ARIA encryption standard parallelizing . The data dependence analysis of loops was applied in order to parallelize this algorithm. The OpenMP standard is chosen for presenting the algorithm parallelism. There is shown that the standard can be divided into parallelizable and unparallelizable parts. As a result of the study, it was stated that the most time-consuming loops of the algorithm are suitable for parallelization. The efficiency measurement for a parallel program is presented.
W artykule zaprezentowano proces zrównoleglenia koreańskiego standardu szyfrowania ARIA. Przeprowadzono analizę zależności danych w pętlach programowych celem redukcji zależności danych blokujących możliwości zrównoleglenia algorytmu. Standard OpenMP w wersji 3.0 został wybrany celem prezentacji równoległości najbardziej czasochłonnych obliczeniowo pętli odpowiedzialnych za procesy szyfrowania oraz deszyfrowania danych w postaci bloków danych. Pokazano, że zrównoleglona wersja algorytmu składa się z części sekwenycjnej zawierającej instrukcje wejścia/wyjścia oraz równoległej, przy czym najbardziej czasochłonne pętle programowe zostały efektywnie zrównoleglone. Dołączono wyniki pomiarów przyspieszenia pracy zrównoleglonego standardu szyfrowania oraz procesów szyfrowania oraz deszyfrowania danych z wykorzystaniem dwóch, czterech, ośmiu, szesnastu oraz trzydziestu dwóch wątków oraz zastosowaniem ośmioprocesorowego serwera opartego na czterordzeniowych procesorach Quad Core Intel Xeon.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 2, 2; 222-225
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On a book Algorithms for data science by Brian Steele, John Chandler and Swarn Reddy
Autorzy:
Szajowski, Krzysztof J.
Powiązania:
https://bibliotekanauki.pl/articles/747695.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Matematyczne
Tematy:
histogram
algorytm centroidów
Algorithms
Associative Statistics
Computation
Computing Similarity
Cluster Analysis
Correlation
Data Reduction
Data Mapping
Data Dictionary
Data Visualization
Forecasting
Hadoop
Histogram
k-Means Algorithm
k-Nearest Neighbor Prediction
Algorytmy
miary zależności
obliczenia
analiza skupień
korelacja
redukcja danych
transformacja danych
wizualizacja danych
prognozowanie
algorytm k-średnich
algorytm k najbliższych sąsiadów
Opis:
Przedstawiona tutaj pozycja wydawnicza jest obszernym wprowadzeniem do najważniejszych podstawowych zasad, algorytmów i danych wraz zestrukturami, do których te zasady i algorytmy się odnoszą. Przedstawione zaganienia są wstępem do rozważań w dziedzinie informatyki. Jednakże, to algorytmy są podstawą analityki danych i punktem skupienia tego podręcznika. Pozyskiwanie wiedzy z danych wymaga wykorzystania metod i rezultatów z co najmniej trzech dziedzin: matematyki, statystyki i informatyki. Książka zawiera jasne i intuicyjne objaśnienia matematyczne i statystyczne poszczególnych zagadnień, przez co algorytmy są naturalne i przejrzyste. Praktyka analizy danych wymaga jednak więcej niż tylko dobrych podstaw naukowych, ścisłości matematycznej i spojrzenia od strony metodologii statystycznej. Zagadnienia generujące dane są ogromnie zmienne, a dopasowanie metod pozyskiwania wiedzy może być przeprowadzone tylko w najbardziej podstawowych algorytmach. Niezbędna jest płynność programowania i doświadczenie z rzeczywistymi problemami. Czytelnik jest prowadzony przez zagadnienia algorytmiczne z wykorzystaniem Pythona i R na bazie rzeczywistych problemów i  analiz danych generowanych przez te zagadnienia. Znaczną część materiału zawartego w książce mogą przyswoić również osoby bez znajomości zaawansowanej metodologii. To powoduje, że książka może być przewodnikiem w jedno lub dwusemestralnym kursie analityki danych dla studentów wyższych lat studiów matematyki, statystyki i informatyki. Ponieważ wymagana wiedza wstępna nie jest zbyt obszerna,  studenci po kursie z probabilistyki lub statystyki, ze znajomością podstaw algebry i analizy matematycznej oraz po kurs programowania nie będą mieć problemów, tekst doskonale nadaje się także do samodzielnego studiowania przez absolwentów kierunków ścisłych. Podstawowy materiał jest dobrze ilustrowany obszernymi zagadnieniami zaczerpniętymi z rzeczywistych problemów. Skojarzona z książką strona internetowa wspiera czytelnika danymi wykorzystanymi w książce, a także prezentacją wybranych fragmentów wykładu. Jestem przekonany, że tematem książki jest nowa dziedzina nauki. 
The book under review gives a comprehensive presentation of data science algorithms, which means on practical data analytics unites fundamental principles, algorithms, and data. Algorithms are the keystone of data analytics and the focal point of this textbook. The data science, as the authors claim, is the discipline since 2001. However, informally it worked before that date (cf. Cleveland(2001)). The crucial role had the graphic presentation of the data as the visualization of the knowledge hidden in the data.  It is the discipline which covers the data mining as the tool or important topic. The escalating demand for insights into big data requires a fundamentally new approach to architecture, tools, and practices. It is why the term data science is useful. It underscores the centrality of data in the investigation because they store of potential value in the field of action. The label science invokes certain very real concepts within it, like the notion of public knowledge and peer review. This point of view makes that the data science is not a new idea. It is part of a continuum of serious thinking dates back hundreds of years. The good example of results of data science is the Benford law (see Arno Berger and Theodore P. Hill(2015, 2017). In an effort to identifying some of the best-known algorithms that have been widely used in the data mining community, the IEEE International Conference on Data Mining (ICDM) has identified the top 10 algorithms in data mining for presentation at ICDM '06 in Hong Kong. This panel will announce the top 10 algorithms and discuss the impact and further research of each of these 10 algorithms in 2006. In the present book, there are clear and intuitive explanations of the mathematical and statistical foundations make the algorithms transparent. Most of the algorithms announced by IEEE in 2006 are included. But practical data analytics requires more than just the foundations. Problems and data are enormously variable and only the most elementary of algorithms can be used without modification. Programming fluency and experience with real and challenging data are indispensable and so the reader is immersed in Python and R and real data analysis. By the end of the book, the reader will have gained the ability to adapt algorithms to new problems and carry out innovative analysis.
Źródło:
Mathematica Applicanda; 2017, 45, 2
1730-2668
2299-4009
Pojawia się w:
Mathematica Applicanda
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on the Innovation of European Economies in 2010–2016 Using IT Tools for Model Selection, Estimators and Data Analysis Parameters
Badanie innowacyjności gospodarek Europy w latach 2010–2016 z wykorzystaniem informatycznych narzędzi doboru modelu, estymatorów i parametrów analizy danych
Autorzy:
Czyżewska, Marta
Lewicki, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/439425.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie
Tematy:
algorithms for spatial analysis of data vectors
big data analysis
European Innovation Scoreboard
innovativeness rankings
R&D expenditures
algorytmy analizy przestrzennej struktury zależności składowych wektorów wejściowych
analiza dużych zbiorów danych
rankingi innowacyjności
wydatki na działalność B+R
Opis:
The article presents the study of spatial variability of parameters being the main indicators describing innovativeness on the basis of European Innovation Scoreboard for the period 2010–2016. For this purpose we applied our own tool to assess the structure and input data vectors, and to select a correlation model for the input data and to assess the parameters of the selected model used. Thanks to this we positioned European countries in the EISin terms of innovative activity, in particular in conducting research and development, patenting of inventions and implementation of innovations. Using the developed tool we estimated the value of R&D expenditures, the intensity of enterprises’ involvement in innovative activity that are necessary to achieve at least the average level of innovation calculated for countries covered by the European Innovation Scoreboard. The results obtained may constitute recommendations for the innovation policy makers deciding on the scope of supporting innovative activities. The analyses carried out present an assessment of the effectiveness of public and private R&D expenditures which are based on the results ob22 tained and comparative assessments and allow to formulate the directions and scope of public involvement in stimulating innovativeness that determines the acceleration of the Polish economy development.
Artykuł prezentuje badanie zmienności przestrzennej parametrów będących głównymi wskaźnikami innowacyjności na przykładzie danych European Innovation Scoreboard (EIS) za okres 2010–2016. Zastosowano autorskie narzędzie oceny struktury i wejściowych wektorów danych, doboru modelu analizy korelacji wprowadzonych danych oraz oceny parametrów wybranego modelu. Dzięki temu dokonano pozycjonowania ujętych w indeksie EIS krajów Europy pod względem aktywności innowacyjnej, w szczególności w prowadzeniu działalności B+R, procesie patentowania wynalazków oraz wdrażania innowacji. Autorzy artykułu, przy wykorzystaniu opracowanego narzędzia, podjęli próbę oszacowania wartości nakładów na B+R, intensywności zaangażowania przedsiębiorstw w działalność innowacyjną, niezbędnego do osiągnięcia co najmniej średniego poziomu innowacyjności liczonego dla krajów objętych indeksem EIS. Uzyskane wyniki mogą stanowić podstawę rekomendacji dla twórców polityki innowacyjnej, decydujących o zakresie wspierania działalności innowacyjnej przez rządy państw. Przeprowadzone analizy przedstawiają ocenę efektywności wydatków publicznych i prywatnych na działalność B+R, co – na bazie otrzymanych wyników i ocen porównawczych – pozwala sformułować kierunki i zakres zaangażowania publicznego w stymulowanie innowacyjności, warunkujące przyspieszenie rozwojowe polskiej gospodarki.
Źródło:
Prace Komisji Geografii Przemysłu Polskiego Towarzystwa Geograficznego; 2018, 32, 2; 21-37
2080-1653
Pojawia się w:
Prace Komisji Geografii Przemysłu Polskiego Towarzystwa Geograficznego
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies