Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data analysis" wg kryterium: Temat


Tytuł:
Minimalizacja czasu realizacji projektu w warunkach niepewności
Minimization of project processing time with uncertainty
Autorzy:
Skołud, B.
Wyciślik, B.
Powiązania:
https://bibliotekanauki.pl/articles/156777.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
projektowanie
niepewność
PERT
project scheduling
ill data analysis
Opis:
Wybór odpowiedniej metody planowania projektu jest istotnym zagadnieniem. Powszechnie znane techniki, takie jak Critical Path Method (CPM), Program Evaluation and Review Technique (PERT) pozwalają na minimalizację czasu trwania projktu. Metody te wykorzystywane są do projektów nieskomplikowanych. W artykule przedstawiono zastosowanie logiki rozmytej w zarządzaniu projektem jako alternatywnego kroku do określenia czasu trwania projektu.
Finding the most appropriate tool for project scheduling is very important for project management. Known techniques for scheduling project such as Critical Path Method (CPM), Program Evaluation and Review Technique (PERT) allow for the minimization of project completion time. These methods are used for non complex project. In this paper a fuzzy logic has been proposed as an alternative approach to project scheduling.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 8, 8; 69-72
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automated Production Line Reliability Analysis of the Crankshaft Manufacturing Process
Autorzy:
Enzi, Abass
Khan, Sardar Asif
Powiązania:
https://bibliotekanauki.pl/articles/2022400.pdf
Data publikacji:
2022
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
crankshaft production line
failure data analysis
distribution methods
reliability analysis
Opis:
The producer focuses on producing parts that match the customer’s requirements during manufacturing the automotive engine parts. One of the essential automotive engine parts is a crankshaft used to translate movement from the pistons to the car axle. The crankshaft is a complex shape and difficult to produce accurate dimensions during the machining processes. Many machines are used to create the crankshaft. Therefore, many defects happen during the machining process, reducing reliability and increasing the manufacturing process’s production cost. This paper focuses on analyzing failure data and reliability of the crankshaft production line that occurs during the manufacturing process of one year. The common failure associated with the manufacturing process were ring screw, unbalanced crankshaft, broken drill screw, hub machining error, mains part machining error, and setup error. The paper aimed to determine and analyze the best failure fit between the distribution methods, such as Weibull, normal, lognormal, and exponential. Also, the reliability, hazard rate, surviving quantity, and failure density were calculated to evaluate the current situation and predict the reliability of the production line. Results proved the skewness of the data was positive equal to 3.33; the last months had the highest production failure rate, which is 53.8%, the normal method had a proper distribution of data depending on the Anderson-Darling (adj) values which is 1.367 when it compared with other methods, the normal method had the best fitting result depended on failure percentage, from 1% to 95% of the crankshafts production are expected to fail between 47.2676 and 1149.85 months respectively. The reliability of the production line decreased with manufacturing time increased. To reduce the failure and increase reliability, the maintenance system must be supported, analyze the sources that cause failure and downtime of the production line, continue the employee training system on an ongoing basis, and support the production line with modern technology. All analytical results and suggestions could be valuable to the production line to improve reliability and reduce the manufacturing process’s failure.
Źródło:
Advances in Science and Technology. Research Journal; 2022, 16, 1; 15-27
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of the attribute significance analysis with the use of soft reduction of attributes in the rough set theory on the basis of the SQL mechanisms
Autorzy:
Nozdrzykowski, Ł.
Nozdrzykowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/114726.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
rough set theory
data analysis
soft reduction of attributes
SQL implementation
Opis:
This article presents a way to use databases supporting the SQL and PL/SQL in the implementation of a method of attribute significance analysis with the use of soft reduction of attributes in the rough set theory. A number of SQL queries are presented, which facilitate the implementation. The original mechanisms presented previously [1] are supplemented with queries which facilitate the execution of attribute coding. The authors present a complete implementation of the method, from the coding of attributes to the determination of the significance of conditional attributes. Application of queries to the database eliminates the necessity to build data grouping and data mining mechanisms and calculation of repetitions of identical rules in the reduced decision rule space. Without the support of a database, the creation of universal data grouping and data mining mechanisms which could be used with any number of attributes is a challenging task.
Źródło:
Measurement Automation Monitoring; 2017, 63, 1; 10-14
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielowymiarowa analiza danych w trybie czasu rzeczywistego
A real-time mode in multidimensional data analysis
Autorzy:
Jędrzejec, B.
Świder, K.
Powiązania:
https://bibliotekanauki.pl/articles/156320.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza danych
hurtownia danych
OLAP
tryb czasu rzeczywistego
data analysis
data warehouse
real-time mode
Opis:
W pracy rozważano systemy wielowymiarowej analizy danych wykorzystujące technologie hurtowni danych oraz przetwarzania analitycznego online (OLAP). Szczególną uwagę zwrócono na specyfikę zastosowań dla danych zmieniajacych się z dużą częstotliwością (real-time OLAP). Jako przykład aplikacji przedstawiono możliwości analizy OLAP w trybie czasu rzeczywistego oferowane przez MS SQL Server Analysis Services.
The paper concerns multi-dimensional data analysis based on data warehousing and On-Line Analytical Processing (OLAP) technologies. Especially we focused on applications with relative high frequency of data changes (real-time OLAP). As an illustrative example, the real-time OLAP funcionalities of MS SQL Server Analysis Services are presented.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 69-71
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sprzętowy detektor szyfrowanej informacji przesyłanej w sieciach TCP/IP
Hardware detector of encrypted information transmitted in the TCP/IP networks
Autorzy:
Gancarczyk, G.
Dąbrowska-Boruch, A.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/154992.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza ruchu sieciowego
FPGA
logika reprogramowalna
sniffing
szyfrowanie
encryption
network data analysis
reconfigurable computing
Opis:
Artykuł prezentuje sposób realizacji, cechy charakterystyczne i zasadę działania urządzenia wykrywającego pakiety zawierające dane zaszyfrowane przesyłane w sieciach opartych o stos protokołów TCP/IP. Detektor zrealizowano w oparciu o system SPARTAN 3E Development Kit firmy Digilent [1]. Kluczowym elementem jest układ FPGA xc3s1600e firmy Xilinx [2]. W artykule przedstawiono schemat blokowy detektora, informacje o sprawności detekcji rozwiązania programowego oraz sprzętowego, zasobach logicznych zajętych przez układ.
The paper describes how to realize a device which can detect encrypted data transfer in computer networks based on the TCP/IP protocols stack. Its features and principles of operation are given. The device is based on the Digilent's SPARTAN 3E Development Kit [1] whose key element is the Xilinx's xc3s1600e [2]. The available publications about distinguishing ciphertext from plaintext tell only that methods typical for randomness check of encrypting algorithms can be used [6]. Many alternative (in field of data distinguishing), interesting publications about steganography [7], computer worms and viruses detection can be easily found [3, 4]. Exemplary implementations of those in FPGA are not difficult to find, either [8]. Lack of publications in the field of encrypted message detection was partial motivation for this paper (Section 1). The presented algorithm of encrypted data detection is based on theorems from [9, 10]. It has advantages and disadvantages, which are discussed (Section 2). The detector (of so called 2nd order) chosen for implementation has good theoretical efficiency (Tab. 1). Its block diagram is shown in Fig. 1 (Section 3). The results of synthesis and implementation are given in Tab. 2, and its efficiency in Tab. 3. The functionality of all blocks of Fig. 1 is discussed (Sections 4 and 5). The efficiency of the implemented device is almost as good as the theoretical one. There are two main limitations - lower (100 B) and upper (1460 B) length of the Ethernet frame data field, and maximum frequency of device clock, which makes it unable (as for xc3s1600) to operate in Gigabit Ethernet networks (Section 6). The presented device can be used as a network data analyzer, a ciphertext detector and a network anomaly detector.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 8, 8; 923-925
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efektywność parametrów statystycznych w detekcji informacji szyfrowanej
Effectiveness of statistic parameters in cipher data detection
Autorzy:
Gancarczyk, G.
Dąbrowska-Boruch, A.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/158109.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
szyfrowanie
parametry statystyczne
analiza danych
rozkład statystyczny
cipher
cryptography
cryptanalysis
statistic parameters
data analysis
probability distribution
noise
Opis:
Informacja szyfrowana, podobnie jak wszystkie inne typy danych, może zostać poddana analizie statystycznej. Wyznaczenie dla niej parametrów takich jak wartość średnia, wariancja czy też entropia nie nastręcza większych trudności. Wykorzystać do tego można nowoczesne narzędzia numeryczne jak np. MATLAB, Mathcad czy też Microsoft Exel. Pytanie, na które ma dać odpowiedź niniejsze opracowanie brzmi - "czy parametry te niosą ze sobą wiedzę, którą można wykorzystać w użyteczny sposób?" Przykładowym zastosowaniem może być np. określenie czy informacja jest zaszyfrowana (ang. cipher text), czy też jest ona jawna (ang. plain text).
A cipher text, like any other data, can be analysed with use of parameters typical for statistics. Values such as the mean value, variance or entropy are easy to be calculated, especially if one can use numerical tools like e.g. MATLAB, Mathcad or simply Microsoft Exel. The question, to which this paper should give an answer is - "do those parameters provide any information that could be used in any useful way?" For example, the information, whether the analysed data is a cipher or plain text. The available publications about distinguishing the cipher from plain text use only methods typical for testing the randomness of cipher text and random number generator or immunity for cipher breaking. They are presented in the paper by the National Institute of Standards and Technology [1]. The other common method, used for distinguishing the data, is the analysis based on entropy [2]. Lack of published results about the efficiency of methods based on e.g. entropy, is additional motivation for this paper. (see Paragraph 1.) The proposed algorithms use parameters and transformations typical for Statistic and Signal Processing to classify the analysed data as cipher/plain. The authors assume that cipher data are very similar to random numbers due to Shannon's Perfect Secrecy theorem [3]. Six types of plain and cipher data (text, music, image, video, archives and others), seven types of cipher cores (3DES, AES, Blowfish, CAST - 128, RC4, Serpent, Twofish) and various length (1 B to 2323 B) data were examined and group of the so called Statistic Parameters was formed (see Table 1). Definitions of all of them (and a few more) are given by equations (1) to (12). The efficiency of Statistic Parameters after 1417 test samples is shown in Table 2. The most interesting results are also shown in Figs. 1 to 9. (see Paragraphs 2 - 4.) The results show that using simple values like e.g. energy one can built a data distinguisher of the efficiency equal to 90% and low numerical complexity. The lower bound for usability of this method was found to be 200 B. The upper bound was not found. The presented algorithm can be used for creating a network data analyser or cipher text detector. (see Paragraph 5.)
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 10, 10; 1137-1143
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallelization of the Camellia Encryption Algorithm
Zrównoleglenie algorytmu szyfrowania Camellia
Autorzy:
Burak, D.
Błaszyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/156064.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
algorytm szyfrowania Camellia
zrównoleglenie
analiza zależności danych
OpenMP
Camellia encryption algorithm
parallelization
data dependency analysis
Opis:
A parallelization process of the Camellia encryption algorithm along with the description of exploited parallelization tools is presented. The data dependency analysis of loops and the loop transformations were applied in order to parallelize the sequential algorithm. The OpenMP standard was chosen for representing parallelism of the cipher. Speed-up measurements for a parallel program are presented.
W artykule przedstawiono proces zrównoleglenia japońskiego standardu szyfrowania danych - blokowego algorytmu szyfrowania Camellia, bazującego na sieci Feistela, pracującego w trybie pracy ECB. Krótko opisano wykorzystane do tego celu narzędzia programowe: program Petit, który służy do analizy istniejących zależności danych w pętlach programowych oraz OpenMP API. W celu zrównoleglenia algorytmu sekwencyjnego zastosowano analizę zależności danych oraz dokonano przekształceń pętli programowych w celu wyeliminowania istniejących zależności pętli blokujących proces ich zrównoleglenia. Do prezentacji równoległości szyfru wybrano język C oraz standard OpenMP. Załączono również wyniki pomiarów przyspieszenia pracy programu równoległego oraz najbardziej czasochłonnych pętli, które są odpowiedzialne za proces szyfrowania oraz deszyfrowania danych dla dwóch, czterech, ośmiu oraz szesnastu procesorów oraz dla dwóch, czterech, ośmiu oraz szesnastu wątków utworzonych z zastosowaniem kompilatora IntelŽ C++ w wersji.11.0 zawierającego OpenMP API w wersji 3.0. Najbardziej czasochłonne pętle zostały w pełni zrównoleglone, natomiast przyspieszenie pracy całego programu, zgodnie z prawem Amdahla jest zredukowane z uwagi na występowanie w kodzie programu części sekwencyjnej, zawierającej sekwencyjne operacje wejścia- wyjścia służące do odczytu danych z pliku, oraz zapisu danych do pliku. Wyniki zrównoleglenia opisane w artykule mogą być pomocne do implementacji sprzętowych algorytmu Camellia.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 820-822
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallelization of the ARIA Encryption Standard
Zrównoleglenie standardu szyfrowania ARIA
Autorzy:
Burak, D.
Powiązania:
https://bibliotekanauki.pl/articles/157465.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
standard szyfrowania ARIA
zrównoleglenie
analiza zależności danych
OpenMP
ARIA encryption standard
parallelization
data dependency analysis
Opis:
In this paper there are presented the results of ARIA encryption standard parallelizing . The data dependence analysis of loops was applied in order to parallelize this algorithm. The OpenMP standard is chosen for presenting the algorithm parallelism. There is shown that the standard can be divided into parallelizable and unparallelizable parts. As a result of the study, it was stated that the most time-consuming loops of the algorithm are suitable for parallelization. The efficiency measurement for a parallel program is presented.
W artykule zaprezentowano proces zrównoleglenia koreańskiego standardu szyfrowania ARIA. Przeprowadzono analizę zależności danych w pętlach programowych celem redukcji zależności danych blokujących możliwości zrównoleglenia algorytmu. Standard OpenMP w wersji 3.0 został wybrany celem prezentacji równoległości najbardziej czasochłonnych obliczeniowo pętli odpowiedzialnych za procesy szyfrowania oraz deszyfrowania danych w postaci bloków danych. Pokazano, że zrównoleglona wersja algorytmu składa się z części sekwenycjnej zawierającej instrukcje wejścia/wyjścia oraz równoległej, przy czym najbardziej czasochłonne pętle programowe zostały efektywnie zrównoleglone. Dołączono wyniki pomiarów przyspieszenia pracy zrównoleglonego standardu szyfrowania oraz procesów szyfrowania oraz deszyfrowania danych z wykorzystaniem dwóch, czterech, ośmiu, szesnastu oraz trzydziestu dwóch wątków oraz zastosowaniem ośmioprocesorowego serwera opartego na czterordzeniowych procesorach Quad Core Intel Xeon.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 2, 2; 222-225
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Urządzenie do pomiarów niskich ciśnień w czasie rzeczywistym w medycynie i fizjologii
Device for on-line measurement of low value pressures in medicine and physiology
Autorzy:
Szczęsny, G.
Adamowicz, L.
Grabski, J.
Szydłowski, R.
Marcinek, J.
Powiązania:
https://bibliotekanauki.pl/articles/154887.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
pomiar ciśnienia o dużej dokładności
ciśnienia wewnątrznaczyniowe i tkankowe
mikrokrążenie
24 bitowy przetwornik analogowo-cyfrowy
analiza komputerowa PC
high resolution pressure measurement
endovascular and tissue pressure
microcirculation
24 bit ADC
PC data analysis
Opis:
Codzienna praktyka kliniczna, badania kliniczne i doświadczalne wymagają aparatury umożliwiającej dokonywanie pomiarów ciśnień równolegle w wielu kompartmentach tkankowych i w układzie naczyniowym z dużą dokładnością w czasie rzeczywistym. Dla tych zastosowań stworzono prototyp aparatury umożliwiającej wielopunktowe (do 8 sond) pomiary ciśnień z rozdzielczością do 0,01 mmHg w zakresie -150 do +300 mmHg, z częstotliwością 100 Hz. System składa się z zestawu sond ciśnie-nia, 24 bitowego przetwornika A/C, niskomocowego procesora obróbki wstępnej digitalizującego mierzone parametry ciśnień, oraz nadajnika radiowego (2.4 GHz) przekazującego bezprzewodowo mierzone wartości ciśnień do kontrolera umieszczonego w pewnej odległości od miejsca pomiaru. Skonstruowane urządzenie dzięki znacznej miniaturyzacji eliminującej wpływ elementów urządzenia na mierzone ciśnienia oraz znacznie zmniejszające uciążliwość długotrwałych pomiarów dla chorego, wysoka precyzja pomiarów wykonywanych w czasie rzeczywistym z wysoką częstotliwością oraz autonomiczne źródło zasilania sond pomiarowych umożliwiające długotrwałe (do 72 godzin) pomiary rokują jego szerokie zastosowania w praktyce medycznej, w badaniach klinicznych i doświadczalnych.
For medical purpose, clinical diagnosis and physiological experiments an equipment enabling on-line monitoring of pressure in tissue compartments as well as blood and lymphatic vessels with high-precision is required. Thus, a prototype of the equipment for on-line measurements of pressures ranging from -150 to +300 mmHg with high resolution (0,01 mmHg) in up to 8-channels simultaneously with frequency up to 100 Hz was manufactured. It consists of a set of high precision pressure microprobes enabling parallel measurements of pressure in several tissues and intravascular compartments (in the presented prototype up to 8 probes), a 24-bit ADC low-power micro-controller digitalizing pressure values and a 2.4 GHz radio transceiver for wireless data transfer from pressure probes to the extracorporeal controller. Miniaturization, autonomic power supply and lack of cable connectors allowed reducing the influence of equipment components on the measured pressure and improved patient's comfort during long-lasting measurements. The constructed equipment enables high precision, long-lasting (up to 72 hours), on-line pressure measurements for medical and laboratory applications.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 4, 4; 309-312
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Synchronization of data recorded using acquisition stations with data from camera during the bubble departure
Autorzy:
Dzienis, P.
Mosdorf, R.
Powiązania:
https://bibliotekanauki.pl/articles/102394.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
experimental data synchronization
time series
video analysis
bubble departure
Opis:
In this study the first part of the experimental data was recorded in a data acquisition station, and another one was recorded with a high speed camera. The data recorded using the acquisition station was recorded with higher frequency than the time between two subsequent frames of the film. During the analysis of the experimental data the problem was related to the synchronization of measurement from acquisition station and data recorded with a camera. In this paper the method of synchronization of experimental data has been shown. A laser- phototransistor system has been used. The data synchronization was required in scaling of sampling frequency in the investigated time series.
Źródło:
Advances in Science and Technology. Research Journal; 2013, 7, 20; 29-34
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Removing physiological artifacts from the EEG data by algorithms based on differential entropy
Eliminacja artefaktów fizjologicznych z zapisu EEG przez algorytmy stosujące entropię różniczkową
Autorzy:
Górecka, J.
Powiązania:
https://bibliotekanauki.pl/articles/152185.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
entropia różniczkowa
analiza składowych niezależnych
zapis EEG
differential entropy
independent component analysis
EEG data
Opis:
A new form of the nonlinearity implemented in the ICA approach is presented in the paper. The proposed independent component analysis based on differential entropy can be used for elimination of physiological artifacts from electroencephalographic signals. For verification of the quality of separation of the EEG data, the PI index is proposed. The second measure of accuracy is the normalized kurtosis which can be used in analysis of the simulated EEG data. As it has been proved, the new sigmoid function used in the ICA approach can effectively separate the EEG data.
W artykule przedstawiono nową propozycję nieliniowości - sigmoidalną funkcję algebraiczną, która została zaimplementowana w algorytmie stosującym metodę analizy składowych niezależnych (ang. Independent Component Analysis). Proponowana nowa postać algorytmu wykorzystująca właściwości entropii różniczkowej, może zostać użyta także do separacji a następnie eliminacji wybranych artefaktów fizjologicznych pochodzenia ocznego i mięśniowego zarejestrowanych w zapisach EEG. W celu weryfikacji dokładności separacji sygnałów EEG zaproponowano współczynnik jakości separacji PI (ang. Performance Index). Jako drugą miarę dokładności procesu separacji wybrano wartość znormalizowanej kurtozy, która może być stosowana jedynie w przypadku separacji elektroencefalogramów zarejestrowanych z symulatora EEG. W artykule udowodniono, że użycie nowej funkcji sigmoidalnej w rozszerzonej postaci algorytmu infomax prowadzi do efektywnej separacji sygnałów EEG umożliwiając eliminację wybranych składowych niepożądanych.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 11, 11; 975-977
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyczna i neuronowa analiza głównych składowych na przykładzie zadania kompresji obrazu
Classical and neural network-based principal component analysis for image compression
Autorzy:
Bartecki, K.
Powiązania:
https://bibliotekanauki.pl/articles/154740.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza składników głównych
sztuczna sieć neuronowa
kompresja danych
principal component analysis
artificial neural network
data compression
Opis:
W artykule omówiono zastosowanie analizy składników głównych (PCA) w zadaniu kompresji stratnej sygnału na przykładzie kompresji obrazu. Zadanie zrealizowano z wykorzystaniem klasycznej metody PCA oraz dwóch rodzajów sieci neuronowych: jednokierunkowej, dwuwarstwowej sieci z uczeniem nadzorowanym i jednowarstwowej sieci z uczeniem nienadzorowanym. W każdym z przypadków przeanalizowano wpływ struktury modelu PCA na wartości współczynnika kompresji oraz średniokwadratowego błędu kompresji.
In the paper, lossy data compression techniques based on the principal component analysis (PCA) are considered on the example of image compression. The presented task is performed using the classical PCA method based on the eigen-decomposition of the image covari-ance matrix as well as two different kinds of artificial neural networks. The first neural structure used is a two-layer feed-forward network with supervised learning shown in Fig.1, while the second one is a single-layered network with unsupervised Hebbian learning. In each case considered, the effect of the PCA model structure on the data compression ratio and the mean square reconstruction error is analysed. The compression results for a Hebbian neural network with K=4 PCA units are presented in Figs. 2, 3 and 4. They show that only 4 eigenvectors are able to capture the main features of the processed image, giving as a result high value of the data compression ratio. However, the reconstructed image quality is not sufficient from a practical point of view. Therefore, selection of the appropriate value for K should take into account the tradeoff between a sufficiently high value for the compression ratio and a reasonably low value for the image reconstruction error. The summary results for both classical and neural PCA compression approaches obtained for different number of eigenvectors (neurons) are compared in Fig. 5. The author concludes that a positive aspect of using neural networks as a tool for extracting principal components from the image data is that they do not require calculating the correlation matrix explicitly, as in the case of the classical PCA-based approach.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 1, 1; 34-37
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Usuwanie artefaktów z danych EEG przy użyciu analizy składowych niezależnych
Removal of artifacts from EEG data by means of Independent Component Analysis
Autorzy:
Górecka, J.
Kaszyński, R.
Powiązania:
https://bibliotekanauki.pl/articles/158376.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
ślepa separacja sygnałów
analiza składowych niezależnych (ICA)
sygnały EEG
artefakt
blind signal separation
independent component analysis
EEG data
artifacts
Opis:
Celem przedstawionych wyników badań jest eliminacja wybranych niepożądanych sygnałów przy użyciu analizy składowych niezależnych. W artykule przedstawiono następujące algorytmy BSS (z ang. Blind Signal Separation): HJ oraz Infomax jako narzędzia do separacji i usuwania wybranej grupy artefaktów (mruganie powiek, artefakty mięśniowe) z przebiegów EEG. Jak udowodniono w eksperymentach proponowane algorytmy adaptacyjne mogą efektywnie wykrywać i usuwać wybrane artefakty z przebiegów EEG.
The aim of the performed investigations is to remove selected undesired signals by means of ICA approach. In the paper there are presented the following algorithms BSS (Blind Signal Separation): HJ and Infomax for separation and removal of selected group of artifacts (eye blinks, muscle activity) from EEG recordings. It has been proved in the experiments which are described in the paper that the proposed adaptive algorithms can effectively detect and remove these selected artifacts from EEG recordings.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 12, 12; 827-830
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie algorytmów przeszukiwania grafów do analizy obrazów medycznych
Analysis of medical images based on graph search algorithms
Autorzy:
Dimitrova-Grekow, T.
Dąbkowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/156629.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza obrazów medycznych
algorytmy przeszukiwania grafów
uczenie maszynowe
eksploracja danych
rozpoznawanie choroby
image analysis
graph search algorithm
machine learning
data mining
disease recognition
Opis:
W artykule przedstawiono wyniki testów niekonwencjonalnego zastosowania metod do przeszukiwania grafów w celu analizy obrazów powstałych z rezonansu magnetycznego głowy. Zaprezentowano GUI do automatycznej obróbki serii obrazów. Zbudowane klasyfikatory wykazały, że metoda BFS analizy plików DICOM, po odpowiednej selekcji cech, pozwala na 100% rozpoznawanie chorych na wodogłowie i ponad 90% zdrowych, co zachęca do dalszych badań i obserwacji, np. czy osoby sklasyfikowane błędnie jako chorzy, po czasie rzeczywiście nie rozwinęli tej choroby.
There are many methods for image segmentation [1, 2]: threshold, area, edge and hybrid methods. Area methods indicate groups of similar pixels form local regions [3, 4]. Edge methods detect boundaries between homogeneous segments [5, 6, 7]. In this paper we present the results of tests of unconventional implementation of graph search methods for the analysis of images generated from magnetic resonance imaging [8]. We explored the effectiveness of different approaches for dividing areas within a similar gray scale, using adapted graph search algorithms (DFS, BFS) after appropriate modification (Fig. 1). For this purpose, the Weka package (a tool for pre-processing, classification, regression, clustering and data visualization) was used [9]. A training set was generated after analyzing all the series of images from the database. First, we evaluated models created using certain algorithms and compared their efficacy (Tab. 1). This was followed by a selection of attributes (Tab. 2) and a re-evaluation of the models (Tab. 3). Comparison of the results of both evaluations showed that after selection of the relevant product attributes, you can achieve up to 100% detection of patients with hydrocephalus and over 90% proper recognition of healthy persons. This encourages further research and observation, such as whether persons wrongly classified as sick actually developed the disease in time. We designed a web application for the study, written in Windows Azure, as well as a GUI for automatic processing of a series of images (Fig. 2).
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 578-580
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki
A concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes
Autorzy:
Lipiński, D.
Majewski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156999.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
monitorowanie i optymalizacja procesów mikro- i nanoobróbki
inteligentne systemy monitorowania i optymalizacji
interakcja operatora z systemem
inteligentny interfejs do sterowania procesami
komunikacja głosowa i wizualna
interfejs mowy
jakość procesu
analiza danych pomiarowych
systemy ekspertowe
sztuczna inteligencja
monitoring and optimization of micro- and nano-machining processes
intelligent systems of monitoring and optimization
interaction between operators and systems
intelligent interface for system control
voice and visual communication
speech interface
process quality
measurement data analysis
expert systems
artificial intelligence
Opis:
W artykule przedstawiono nową koncepcję zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki. System zdalnego monitorowania i optymalizacji jakości procesów, wyposażony w interfejs wizualny i głosowy, przedstawiono w przykładowym zastosowaniu w procesach precyzyjnego szlifowania. Opracowana koncepcja proponuje architekturę systemu wyposażoną w warstwę analizy danych, warstwę nadzorowania procesu, warstwę decyzyjną, podsystem komunikacji głosowej w języku naturalnym oraz podsystem komunikacji wizualnej z opisem głosowym. Interakcja operatora z systemem za pomocą mowy i języka naturalnego zawiera inteligentne mechanizmy służące do identyfikacji biometrycznej operatora, rozpoznawania mowy, rozpoznawania słów składowych i komunikatów operatora, analizy składni komunikatów, analiza skutków poleceń, ocena bezpieczeństwa poleceń. Interakcja systemu z operatorem za pośrednictwem komunikatów wizualnych z opisem głosowym zawiera inteligentne mechanizmy służące do generowania wykresów i raportów, klasyfikacji form przekazów i ich tworzenia, generowania komunikatów w postaci graficznej i tekstowej, konsolidacji i analizy treści komunikatów, oraz syntezy komunikatów multimedialnych. Artykuł przedstawia również koncepcję inteligentnych metod i algorytmów jakościowego opisu procesu obróbki na podstawie analizy danych pomiarowych z zastosowaniem systemu ekspertowego opartego na regresyjnych sieciach neuronowych.
The paper deals with a new concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The distant system for monitoring and optimization of the process quality, equipped with a visual and vocal interface, is presented in an exemplary application to precision grinding. There is proposed an architecture of the system equipped with a data analysis layer, a process supervision layer, a decision layer, a communication subsystem using speech and natural language, and a visual communication subsystem using vocal descriptions. As the system is equipped with several intelligent layers, it is capable of control, supervision and optimization of the processes of micro- and nano-machining. In the proposed system, computational intelligence methods allow for real-time data analysis of the monitored process, configuration of the system, process supervision based on process features and quality models. The system is also capable of detection of inaccuracies, estimation of inaccuracy results, compensation of inaccuracy results, and selection of machining parameters and conditions. In addition, it conducts assessment of the operator’s decisions. The system also consists of meaning analysis mechanisms of operator's messages and commands given by voice in a natural language, and various visual communication forms with the operator using vocal descriptions. The layer for data presentation and communication provides data and information about the machining parameters and conditions, tool condition, process condition, estimation of the process quality, and process variables. The interaction between the operator and the system by speech and natural language contains intelligent mechanisms for operator biometric identification, speech recognition, word recognition, recognition of messages and com-mands, syntax analysis of messages, and safety assessment of commands. The interaction between the system and the operator using visual messages with vocal descriptions includes intelligent mechanisms for generation of graphical and textual reports, classification of message forms, generation of messages in the graphical and textual forms, consolidation and analysis of message contents, synthesis of multimedia messages. In the paper, Fig. 1 presents the concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The concept of the system of distant monitoring and optimization of the precision grinding processes using voice and visual communication between the operator and the system is shown in Fig. 2, while the complete structure of the system is depicted in Fig. 3. The paper also presents a concept of intelligent methods and algorithms (Fig. 4) for de-scribing the machining process quality on the basis of the measurement data analysis using an expert system equipped with regression neural networks.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 7, 7; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies