Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Analiza danych" wg kryterium: Temat


Wyświetlanie 1-11 z 11
Tytuł:
Pozyskiwanie i analiza szybkozmiennych danych technologicznych
Plant Data Capturing and Analyzing
Autorzy:
Świder, K.
Bednarek, M.
Powiązania:
https://bibliotekanauki.pl/articles/156324.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
baza danych czasu rzeczywistego
zbieranie danych
analiza danych
proces diagnozowania
real-time database
data acquisition
diagnosing process
Opis:
W pracy rozważono systemy przemysłowe, w których pojawia się problem zbierania dużych ilości danych generowanych przez procesy technologiczne w stosunkowo krótkim czasie. Przedstawiono dostępne na rynku oprogramowanie, jakim jest przemysłowa baza danych IndustrializacjaSQL Server firmy Microsoft. Szczególną uwagę zwrócono na prezentację konkretnych zastosowań, m.in. w procesie diagnozowania.
The paper concerns the industrial data acquisition systems designated to collect data produced by technological process. The Wonderware IndustrialSQL Server based on MS SQL Server was introduced as an example of commercially available software for industrial data acquisition. In particular we focused on case studies of its practical applications such as diagnosing process.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 66-68
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielowymiarowa analiza danych w trybie czasu rzeczywistego
A real-time mode in multidimensional data analysis
Autorzy:
Jędrzejec, B.
Świder, K.
Powiązania:
https://bibliotekanauki.pl/articles/156320.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza danych
hurtownia danych
OLAP
tryb czasu rzeczywistego
data analysis
data warehouse
real-time mode
Opis:
W pracy rozważano systemy wielowymiarowej analizy danych wykorzystujące technologie hurtowni danych oraz przetwarzania analitycznego online (OLAP). Szczególną uwagę zwrócono na specyfikę zastosowań dla danych zmieniajacych się z dużą częstotliwością (real-time OLAP). Jako przykład aplikacji przedstawiono możliwości analizy OLAP w trybie czasu rzeczywistego oferowane przez MS SQL Server Analysis Services.
The paper concerns multi-dimensional data analysis based on data warehousing and On-Line Analytical Processing (OLAP) technologies. Especially we focused on applications with relative high frequency of data changes (real-time OLAP). As an illustrative example, the real-time OLAP funcionalities of MS SQL Server Analysis Services are presented.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 69-71
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efektywność parametrów statystycznych w detekcji informacji szyfrowanej
Effectiveness of statistic parameters in cipher data detection
Autorzy:
Gancarczyk, G.
Dąbrowska-Boruch, A.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/158109.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
szyfrowanie
parametry statystyczne
analiza danych
rozkład statystyczny
cipher
cryptography
cryptanalysis
statistic parameters
data analysis
probability distribution
noise
Opis:
Informacja szyfrowana, podobnie jak wszystkie inne typy danych, może zostać poddana analizie statystycznej. Wyznaczenie dla niej parametrów takich jak wartość średnia, wariancja czy też entropia nie nastręcza większych trudności. Wykorzystać do tego można nowoczesne narzędzia numeryczne jak np. MATLAB, Mathcad czy też Microsoft Exel. Pytanie, na które ma dać odpowiedź niniejsze opracowanie brzmi - "czy parametry te niosą ze sobą wiedzę, którą można wykorzystać w użyteczny sposób?" Przykładowym zastosowaniem może być np. określenie czy informacja jest zaszyfrowana (ang. cipher text), czy też jest ona jawna (ang. plain text).
A cipher text, like any other data, can be analysed with use of parameters typical for statistics. Values such as the mean value, variance or entropy are easy to be calculated, especially if one can use numerical tools like e.g. MATLAB, Mathcad or simply Microsoft Exel. The question, to which this paper should give an answer is - "do those parameters provide any information that could be used in any useful way?" For example, the information, whether the analysed data is a cipher or plain text. The available publications about distinguishing the cipher from plain text use only methods typical for testing the randomness of cipher text and random number generator or immunity for cipher breaking. They are presented in the paper by the National Institute of Standards and Technology [1]. The other common method, used for distinguishing the data, is the analysis based on entropy [2]. Lack of published results about the efficiency of methods based on e.g. entropy, is additional motivation for this paper. (see Paragraph 1.) The proposed algorithms use parameters and transformations typical for Statistic and Signal Processing to classify the analysed data as cipher/plain. The authors assume that cipher data are very similar to random numbers due to Shannon's Perfect Secrecy theorem [3]. Six types of plain and cipher data (text, music, image, video, archives and others), seven types of cipher cores (3DES, AES, Blowfish, CAST - 128, RC4, Serpent, Twofish) and various length (1 B to 2323 B) data were examined and group of the so called Statistic Parameters was formed (see Table 1). Definitions of all of them (and a few more) are given by equations (1) to (12). The efficiency of Statistic Parameters after 1417 test samples is shown in Table 2. The most interesting results are also shown in Figs. 1 to 9. (see Paragraphs 2 - 4.) The results show that using simple values like e.g. energy one can built a data distinguisher of the efficiency equal to 90% and low numerical complexity. The lower bound for usability of this method was found to be 200 B. The upper bound was not found. The presented algorithm can be used for creating a network data analyser or cipher text detector. (see Paragraph 5.)
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 10, 10; 1137-1143
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallelization of the Camellia Encryption Algorithm
Zrównoleglenie algorytmu szyfrowania Camellia
Autorzy:
Burak, D.
Błaszyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/156064.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
algorytm szyfrowania Camellia
zrównoleglenie
analiza zależności danych
OpenMP
Camellia encryption algorithm
parallelization
data dependency analysis
Opis:
A parallelization process of the Camellia encryption algorithm along with the description of exploited parallelization tools is presented. The data dependency analysis of loops and the loop transformations were applied in order to parallelize the sequential algorithm. The OpenMP standard was chosen for representing parallelism of the cipher. Speed-up measurements for a parallel program are presented.
W artykule przedstawiono proces zrównoleglenia japońskiego standardu szyfrowania danych - blokowego algorytmu szyfrowania Camellia, bazującego na sieci Feistela, pracującego w trybie pracy ECB. Krótko opisano wykorzystane do tego celu narzędzia programowe: program Petit, który służy do analizy istniejących zależności danych w pętlach programowych oraz OpenMP API. W celu zrównoleglenia algorytmu sekwencyjnego zastosowano analizę zależności danych oraz dokonano przekształceń pętli programowych w celu wyeliminowania istniejących zależności pętli blokujących proces ich zrównoleglenia. Do prezentacji równoległości szyfru wybrano język C oraz standard OpenMP. Załączono również wyniki pomiarów przyspieszenia pracy programu równoległego oraz najbardziej czasochłonnych pętli, które są odpowiedzialne za proces szyfrowania oraz deszyfrowania danych dla dwóch, czterech, ośmiu oraz szesnastu procesorów oraz dla dwóch, czterech, ośmiu oraz szesnastu wątków utworzonych z zastosowaniem kompilatora IntelŽ C++ w wersji.11.0 zawierającego OpenMP API w wersji 3.0. Najbardziej czasochłonne pętle zostały w pełni zrównoleglone, natomiast przyspieszenie pracy całego programu, zgodnie z prawem Amdahla jest zredukowane z uwagi na występowanie w kodzie programu części sekwencyjnej, zawierającej sekwencyjne operacje wejścia- wyjścia służące do odczytu danych z pliku, oraz zapisu danych do pliku. Wyniki zrównoleglenia opisane w artykule mogą być pomocne do implementacji sprzętowych algorytmu Camellia.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 10, 10; 820-822
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parallelization of the ARIA Encryption Standard
Zrównoleglenie standardu szyfrowania ARIA
Autorzy:
Burak, D.
Powiązania:
https://bibliotekanauki.pl/articles/157465.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
standard szyfrowania ARIA
zrównoleglenie
analiza zależności danych
OpenMP
ARIA encryption standard
parallelization
data dependency analysis
Opis:
In this paper there are presented the results of ARIA encryption standard parallelizing . The data dependence analysis of loops was applied in order to parallelize this algorithm. The OpenMP standard is chosen for presenting the algorithm parallelism. There is shown that the standard can be divided into parallelizable and unparallelizable parts. As a result of the study, it was stated that the most time-consuming loops of the algorithm are suitable for parallelization. The efficiency measurement for a parallel program is presented.
W artykule zaprezentowano proces zrównoleglenia koreańskiego standardu szyfrowania ARIA. Przeprowadzono analizę zależności danych w pętlach programowych celem redukcji zależności danych blokujących możliwości zrównoleglenia algorytmu. Standard OpenMP w wersji 3.0 został wybrany celem prezentacji równoległości najbardziej czasochłonnych obliczeniowo pętli odpowiedzialnych za procesy szyfrowania oraz deszyfrowania danych w postaci bloków danych. Pokazano, że zrównoleglona wersja algorytmu składa się z części sekwenycjnej zawierającej instrukcje wejścia/wyjścia oraz równoległej, przy czym najbardziej czasochłonne pętle programowe zostały efektywnie zrównoleglone. Dołączono wyniki pomiarów przyspieszenia pracy zrównoleglonego standardu szyfrowania oraz procesów szyfrowania oraz deszyfrowania danych z wykorzystaniem dwóch, czterech, ośmiu, szesnastu oraz trzydziestu dwóch wątków oraz zastosowaniem ośmioprocesorowego serwera opartego na czterordzeniowych procesorach Quad Core Intel Xeon.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 2, 2; 222-225
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Redukcja wymiarowości danych pomiarowych z wykorzystaniem liniowej i nieliniowej analizy składników głównych (PCA)
Dimensionality reduction of measurement data using linear and nonlinear PCA
Autorzy:
Rogala, T.
Brykalski, A.
Powiązania:
https://bibliotekanauki.pl/articles/156148.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
redukcja wymiarowości danych pomiarowych
analiza liniowa
analiza nieliniowa
linear and nonlinear data using PCA
dimensionality reduction of measurement
Opis:
Reprezentacja danych wielowymiarowych na płaszczyźnie lub w przestrzeni jest często spotykanym zagadnieniem w rozpoznawaniu obrazów. Jednak wykorzystane w tej dziedzinie metody mogą być stosowane zawsze, gdy zachodzi konieczność wizualizacji złożonych danych pomiarowych. Uznaną i często stosowaną do tego celu techniką jest tzw. Analiza Składników Głównych (ang. Principal Components Analysis). Ponieważ jest to przekształcenie liniowe, posiada ono liczne ograniczenia. Wersja nieliniowa tego przekształcenia, tzw. NLPCA, pozwala ominąć te niedogodności, za cenę pewnej niejednoznaczności wyniku. Praca opisuje wyżej wymienione przekształcenia, ich implementację (m.in. przy użyciu sieci neuronowych), oraz przykładowe zastosowanie w odniesieniu do danych "syntetycznych" i pochodzących z rzeczywistych pomiarów.
Representation of multidemensional data on 2D or 3D plane is a common task in pattern classification. However, the dimensionality reduction techniques can be applied whenever sophisticated measurement data have to be visualized. Principal Component Analysis (PCA) is well known and widely applied method. Since it is a linear transform it suffers from certain limitations. Nonlinear PCA (NLPCA) enables overcoming these difficulties, in exchange for an ambiguity of the results. This paper discusses mentioned transformations and their implementations, including neural network based approaches. Two datasets are analyzed. Comparison of the results is followed by detailed discussion.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 2, 2; 41-44
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyczna i neuronowa analiza głównych składowych na przykładzie zadania kompresji obrazu
Classical and neural network-based principal component analysis for image compression
Autorzy:
Bartecki, K.
Powiązania:
https://bibliotekanauki.pl/articles/154740.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza składników głównych
sztuczna sieć neuronowa
kompresja danych
principal component analysis
artificial neural network
data compression
Opis:
W artykule omówiono zastosowanie analizy składników głównych (PCA) w zadaniu kompresji stratnej sygnału na przykładzie kompresji obrazu. Zadanie zrealizowano z wykorzystaniem klasycznej metody PCA oraz dwóch rodzajów sieci neuronowych: jednokierunkowej, dwuwarstwowej sieci z uczeniem nadzorowanym i jednowarstwowej sieci z uczeniem nienadzorowanym. W każdym z przypadków przeanalizowano wpływ struktury modelu PCA na wartości współczynnika kompresji oraz średniokwadratowego błędu kompresji.
In the paper, lossy data compression techniques based on the principal component analysis (PCA) are considered on the example of image compression. The presented task is performed using the classical PCA method based on the eigen-decomposition of the image covari-ance matrix as well as two different kinds of artificial neural networks. The first neural structure used is a two-layer feed-forward network with supervised learning shown in Fig.1, while the second one is a single-layered network with unsupervised Hebbian learning. In each case considered, the effect of the PCA model structure on the data compression ratio and the mean square reconstruction error is analysed. The compression results for a Hebbian neural network with K=4 PCA units are presented in Figs. 2, 3 and 4. They show that only 4 eigenvectors are able to capture the main features of the processed image, giving as a result high value of the data compression ratio. However, the reconstructed image quality is not sufficient from a practical point of view. Therefore, selection of the appropriate value for K should take into account the tradeoff between a sufficiently high value for the compression ratio and a reasonably low value for the image reconstruction error. The summary results for both classical and neural PCA compression approaches obtained for different number of eigenvectors (neurons) are compared in Fig. 5. The author concludes that a positive aspect of using neural networks as a tool for extracting principal components from the image data is that they do not require calculating the correlation matrix explicitly, as in the case of the classical PCA-based approach.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 1, 1; 34-37
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja i wizualizacja zobrazowań dpTK w środowisku trójwymiarowym
Classification and visualization of dpCT in three-dimensional environment
Autorzy:
Ogiela, M. R.
Hachaj, T.
Powiązania:
https://bibliotekanauki.pl/articles/153810.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
wizualizacja trójwymiarowych pól skalarnych
dynamiczna perfuzja mózgowa
duże zbiory danych
analiza kognitywna
volume rendering
dynamic brain perfusion
large datasets
cognitive analysis
Opis:
W artykule został zaprezentowany wspomagany sprzętowo algorytm wizualizujący trójwymiarowe dyskretne pola skalarne o teoretycznie dowolnych rozmiarach. Zostały również przedstawione oryginalne wyniki badań, w których określono zależność pomiędzy szybkością wizualizacji (fps) a ilością przesłań danych pomiędzy pamięcią RAM komputera i kartą graficzną. Zbadano także w jaki sposób szacowanie gradientu pola skalarnego przed procesem wizualizacji wpływa na przyspieszenie tworzenia grafiki w wypadku dużych objętości. Jeżeli zbiór danych został podzielony na wiele podzbiorów (w przeprowadzany doświadczeniu było ich 512) algorytmy estymujące gradient we wstępnym przetwarzaniu działały wolniej niż liczące go czasie rzeczywistym, ponieważ te drugie redukują ilość danych, które muszą być przesłane do GPU.
In this paper a new hardware accelerated algorithm pipeline (Fig. 1) for visualization of three-dimensional scalar fields without limitation on dataset size (Fig. 2) is described. There are presented original results of research on average performance speed (fps) of rendering algorithms as a function of data transitions between RAM and GPU (Tab 1. and Fig. 3). The speed of rendering decreases with number of partitioning and view-aligned slices. It has also been investigated how the pre-rendering gradient estimation influences the visualization process in case of large volumetric datasets. It is shown that in case of large partitioning of volume it is better to transfer less data to GPU memory and to compute the gradient value on the fly. The potential usage of that algorithm as a visualization module for the system performing cognitive analysis of dpCT data [3, 4, 5] is presented. The output data of the diagnostic algorithm is a superimposition onto the volume CT data (Fig. 4). This particular solution gives additional support to medical personnel by supplying them with simultaneous visualization of medical data of different modalities enabling more accurate diagnosis.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 11, 11; 1444-1447
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie algorytmów przeszukiwania grafów do analizy obrazów medycznych
Analysis of medical images based on graph search algorithms
Autorzy:
Dimitrova-Grekow, T.
Dąbkowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/156629.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza obrazów medycznych
algorytmy przeszukiwania grafów
uczenie maszynowe
eksploracja danych
rozpoznawanie choroby
image analysis
graph search algorithm
machine learning
data mining
disease recognition
Opis:
W artykule przedstawiono wyniki testów niekonwencjonalnego zastosowania metod do przeszukiwania grafów w celu analizy obrazów powstałych z rezonansu magnetycznego głowy. Zaprezentowano GUI do automatycznej obróbki serii obrazów. Zbudowane klasyfikatory wykazały, że metoda BFS analizy plików DICOM, po odpowiednej selekcji cech, pozwala na 100% rozpoznawanie chorych na wodogłowie i ponad 90% zdrowych, co zachęca do dalszych badań i obserwacji, np. czy osoby sklasyfikowane błędnie jako chorzy, po czasie rzeczywiście nie rozwinęli tej choroby.
There are many methods for image segmentation [1, 2]: threshold, area, edge and hybrid methods. Area methods indicate groups of similar pixels form local regions [3, 4]. Edge methods detect boundaries between homogeneous segments [5, 6, 7]. In this paper we present the results of tests of unconventional implementation of graph search methods for the analysis of images generated from magnetic resonance imaging [8]. We explored the effectiveness of different approaches for dividing areas within a similar gray scale, using adapted graph search algorithms (DFS, BFS) after appropriate modification (Fig. 1). For this purpose, the Weka package (a tool for pre-processing, classification, regression, clustering and data visualization) was used [9]. A training set was generated after analyzing all the series of images from the database. First, we evaluated models created using certain algorithms and compared their efficacy (Tab. 1). This was followed by a selection of attributes (Tab. 2) and a re-evaluation of the models (Tab. 3). Comparison of the results of both evaluations showed that after selection of the relevant product attributes, you can achieve up to 100% detection of patients with hydrocephalus and over 90% proper recognition of healthy persons. This encourages further research and observation, such as whether persons wrongly classified as sick actually developed the disease in time. We designed a web application for the study, written in Windows Azure, as well as a GUI for automatic processing of a series of images (Fig. 2).
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 578-580
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki
A concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes
Autorzy:
Lipiński, D.
Majewski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156999.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
monitorowanie i optymalizacja procesów mikro- i nanoobróbki
inteligentne systemy monitorowania i optymalizacji
interakcja operatora z systemem
inteligentny interfejs do sterowania procesami
komunikacja głosowa i wizualna
interfejs mowy
jakość procesu
analiza danych pomiarowych
systemy ekspertowe
sztuczna inteligencja
monitoring and optimization of micro- and nano-machining processes
intelligent systems of monitoring and optimization
interaction between operators and systems
intelligent interface for system control
voice and visual communication
speech interface
process quality
measurement data analysis
expert systems
artificial intelligence
Opis:
W artykule przedstawiono nową koncepcję zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki. System zdalnego monitorowania i optymalizacji jakości procesów, wyposażony w interfejs wizualny i głosowy, przedstawiono w przykładowym zastosowaniu w procesach precyzyjnego szlifowania. Opracowana koncepcja proponuje architekturę systemu wyposażoną w warstwę analizy danych, warstwę nadzorowania procesu, warstwę decyzyjną, podsystem komunikacji głosowej w języku naturalnym oraz podsystem komunikacji wizualnej z opisem głosowym. Interakcja operatora z systemem za pomocą mowy i języka naturalnego zawiera inteligentne mechanizmy służące do identyfikacji biometrycznej operatora, rozpoznawania mowy, rozpoznawania słów składowych i komunikatów operatora, analizy składni komunikatów, analiza skutków poleceń, ocena bezpieczeństwa poleceń. Interakcja systemu z operatorem za pośrednictwem komunikatów wizualnych z opisem głosowym zawiera inteligentne mechanizmy służące do generowania wykresów i raportów, klasyfikacji form przekazów i ich tworzenia, generowania komunikatów w postaci graficznej i tekstowej, konsolidacji i analizy treści komunikatów, oraz syntezy komunikatów multimedialnych. Artykuł przedstawia również koncepcję inteligentnych metod i algorytmów jakościowego opisu procesu obróbki na podstawie analizy danych pomiarowych z zastosowaniem systemu ekspertowego opartego na regresyjnych sieciach neuronowych.
The paper deals with a new concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The distant system for monitoring and optimization of the process quality, equipped with a visual and vocal interface, is presented in an exemplary application to precision grinding. There is proposed an architecture of the system equipped with a data analysis layer, a process supervision layer, a decision layer, a communication subsystem using speech and natural language, and a visual communication subsystem using vocal descriptions. As the system is equipped with several intelligent layers, it is capable of control, supervision and optimization of the processes of micro- and nano-machining. In the proposed system, computational intelligence methods allow for real-time data analysis of the monitored process, configuration of the system, process supervision based on process features and quality models. The system is also capable of detection of inaccuracies, estimation of inaccuracy results, compensation of inaccuracy results, and selection of machining parameters and conditions. In addition, it conducts assessment of the operator’s decisions. The system also consists of meaning analysis mechanisms of operator's messages and commands given by voice in a natural language, and various visual communication forms with the operator using vocal descriptions. The layer for data presentation and communication provides data and information about the machining parameters and conditions, tool condition, process condition, estimation of the process quality, and process variables. The interaction between the operator and the system by speech and natural language contains intelligent mechanisms for operator biometric identification, speech recognition, word recognition, recognition of messages and com-mands, syntax analysis of messages, and safety assessment of commands. The interaction between the system and the operator using visual messages with vocal descriptions includes intelligent mechanisms for generation of graphical and textual reports, classification of message forms, generation of messages in the graphical and textual forms, consolidation and analysis of message contents, synthesis of multimedia messages. In the paper, Fig. 1 presents the concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The concept of the system of distant monitoring and optimization of the precision grinding processes using voice and visual communication between the operator and the system is shown in Fig. 2, while the complete structure of the system is depicted in Fig. 3. The paper also presents a concept of intelligent methods and algorithms (Fig. 4) for de-scribing the machining process quality on the basis of the measurement data analysis using an expert system equipped with regression neural networks.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 7, 7; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kontrola dokładności numerycznego przetwarzania danych pomiarowych
Calculation accuracy check in computer processing of measurement data
Autorzy:
Górka, P.
Powiązania:
https://bibliotekanauki.pl/articles/157094.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
arytmetyka przedziałowa
metody numeryczne
analiza błędów
kontrola dokładności obliczeń
przetwarzanie danych pomiarowych
błędy obliczeń
programowanie
interval arithmetic
interval computations
numerical methods
error analysis
calculation accuracy check
measurement data processing
calculation error
programming
Opis:
W artykule przedstawiono wybrane metody automatycznej kontroli dokładności obliczeń w procesie przetwarzania danych pomiarowych. Metody te powinny - w założeniu - uwzględniać dokładność wyników pomiarów, jak i błędy numeryczne. Najwięcej uwagi poświęcono omówieniu możliwości zastosowania arytmetyki przedziałowej jako najbardziej uniwersalnej metody kontroli dokładności obliczeń. Przedstawiono zasady jej stosowania, zalety jak i uwagi dotyczące ominięcia jej mankamentów.
The paper presents some methods of the automatic accuracy check of calculations performed during computer processing of measurement data. The mentioned methods should take into account the measurement data accuracy and numerical errors. The paper discusses mainly the interval arithmetic method which appears as the most universal one. The basis of the method, its advantages and possibility to avoid some problems which can be connected with the use of interval arithmetic are presented as well.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 12, 12; 854-856
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-11 z 11

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies