Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "danych" wg kryterium: Temat


Tytuł:
Pozyskiwanie i analiza szybkozmiennych danych technologicznych
Plant Data Capturing and Analyzing
Autorzy:
Świder, K.
Bednarek, M.
Powiązania:
https://bibliotekanauki.pl/articles/156324.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
baza danych czasu rzeczywistego
zbieranie danych
analiza danych
proces diagnozowania
real-time database
data acquisition
diagnosing process
Opis:
W pracy rozważono systemy przemysłowe, w których pojawia się problem zbierania dużych ilości danych generowanych przez procesy technologiczne w stosunkowo krótkim czasie. Przedstawiono dostępne na rynku oprogramowanie, jakim jest przemysłowa baza danych IndustrializacjaSQL Server firmy Microsoft. Szczególną uwagę zwrócono na prezentację konkretnych zastosowań, m.in. w procesie diagnozowania.
The paper concerns the industrial data acquisition systems designated to collect data produced by technological process. The Wonderware IndustrialSQL Server based on MS SQL Server was introduced as an example of commercially available software for industrial data acquisition. In particular we focused on case studies of its practical applications such as diagnosing process.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 66-68
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzja danych w zastosowaniach pomiarowych
Autorzy:
Sroka, R.
Powiązania:
https://bibliotekanauki.pl/articles/152743.pdf
Data publikacji:
2002
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
fuzja danych
zastosowania pomiarowe
Opis:
W pracy przedstawiono podstawowe informacje dotyczące procesu fuzji danych, możliwości zastosowania fuzji w różnych dziedzinach działalności oraz zaproponowano ogólną definicję tego procesu. Przedstawiono również model i architektury, które umożliwiają jego realizację, a także możliwości zastosowania procesu fuzji danych w pomiarach oraz przykład ilustrujacy wynikające stąd korzyści.
The paper presents basic information on data fusion process. The universal definition, model, different kinds of architecture, and the collection of potential applications of such process in different human activity are presented. The possibilities of data fusion in measurement applications, example and advantages of such process are also shown in the paper.
Źródło:
Pomiary Automatyka Kontrola; 2002, R. 48, nr 5/6, 5/6; 15-19
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kluczowe etapy tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących
Key stages of designing and developing the Metrological Database Information System for testing and calibration laboratories
Autorzy:
Świerzowicz, J.
Adamczyk, K.
Tabisz, R. A.
Powiązania:
https://bibliotekanauki.pl/articles/157030.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
bazy danych
operacyjne bazy danych
analityczne bazy danych
hurtownie danych
jakość modelu danych
metrologiczne bazy danych
laboratoria badawcze i wzorcujące
walidacja procesów pomiarowych
database
operating database
analytical database
data warehouse
data quality model
metrological database
testing and calibration laboratories
measurement processes validation
Opis:
Uzasadniono potrzebę tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących. Wyjaśniono, dlaczego system taki powinien składać się z dwóch baz danych: bazy operacyjnej oraz bazy analitycznej zwanej także hurtownią danych. Opisano najważniejsze etapy tworzenia takiego systemu decydujące o jego ostatecznej strukturze zapewniającej oczekiwaną funkcjonalność oraz dostępność dla różnego rodzaju laboratoriów za pomocą sieci Internet. Przedstawiono wyniki badań opracowanego modelu operacyjnej bazy danych, stanowiącej część tworzonego systemu. Zaproponowano porządek dalszych działań zmierzających do utworzenia części analitycznej, która stanowić będzie drugą istotną część tego systemu. Wskazano na potrzebę właściwego podziału ról w zespole realizującym projekt i uzasadniono przyjętą metodykę dalszych działań.
The need for developing the Metrological Database Information System for the network of testing and calibration laboratories is shown in the paper. It is explained why such a system should consist of two databases: operational and analytical (called also a data warehouse). The most important stages of creating such a system deciding on its final structure are described. The structure ensures the expected functionality and availability of different kinds of laboratories by the Internet. The investigation results of the model of the operating database being the part of the created system are presented. There is proposed the sequence of further works aiming at creation of the analytical part which will be the second, essential part of this system. The need of the appropriate division of roles in the team carrying out the project is emphasized and the assumed methodology of further works is shown.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 12, 12; 869-873
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielowymiarowa analiza danych w trybie czasu rzeczywistego
A real-time mode in multidimensional data analysis
Autorzy:
Jędrzejec, B.
Świder, K.
Powiązania:
https://bibliotekanauki.pl/articles/156320.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
analiza danych
hurtownia danych
OLAP
tryb czasu rzeczywistego
data analysis
data warehouse
real-time mode
Opis:
W pracy rozważano systemy wielowymiarowej analizy danych wykorzystujące technologie hurtowni danych oraz przetwarzania analitycznego online (OLAP). Szczególną uwagę zwrócono na specyfikę zastosowań dla danych zmieniajacych się z dużą częstotliwością (real-time OLAP). Jako przykład aplikacji przedstawiono możliwości analizy OLAP w trybie czasu rzeczywistego oferowane przez MS SQL Server Analysis Services.
The paper concerns multi-dimensional data analysis based on data warehousing and On-Line Analytical Processing (OLAP) technologies. Especially we focused on applications with relative high frequency of data changes (real-time OLAP). As an illustrative example, the real-time OLAP funcionalities of MS SQL Server Analysis Services are presented.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 69-71
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identification of dynamic system additive models by KDD methods
Identyfikacja addytywnych modeli obiektów dynamicznych metodami odkryć wiedzy w bazach danych
Autorzy:
Łabęda-Grudziak, Z.
Powiązania:
https://bibliotekanauki.pl/articles/157329.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
identyfikacja
model addytywny
bazy danych
odkrywanie wiedzy z danych
obiekty dynamiczne
identification
additive model
databases
knowledge discovery data
dynamic systems
Opis:
The goal of this paper is to present a new way of knowledge discovery data (KDD) application to construct a statistical model that describes dynamic systems. This includes presentation of data mining as an iterative and adaptive process, from communication of the research problem through data collection, data preprocessing, model building, model evaluation, and finally, model deployment. The types of models discussed in this paper are in form of additive models and can be used for prediction of process outputs, for calibration, or for diagnostics purposes. The backfitting algorithm with nonparametric smoothing techniques was used for estimation of the additive model. The example of application of the methods, conclusions and remarks are presented as well. The research was carried out based on archival process data recorded in the Lublin Sugar Factory S.A.
Celem niniejszej pracy jest zaprezentowanie nowego podejścia do identyfikacji modeli obiektów dynamicznych metodami odkryć wiedzy w bazach danych. W szczególności przedstawiono eksplorację danych jako proces iteracyjny i adaptacyjny, od zrozumienia uwarunkowań badawczych, przez zebranie danych, przygotowanie danych, modelowanie, ewaluację modelu do jego wdrożenia. W badaniach wykorzystano addytywny model regresji, który może posłużyć do przewidywania wartości wyjściowych procesu, kalibracji, a także w celach diagnostycznych. Do wyznaczenia parametrów modeli addytywnych zastosowano algorytm dopasowania wstecznego i nieparametryczne techniki estymacji. Badania przeprowadzono na podstawie archiwalnych danych pomiarowych zarejestrowanych w Cukrowni LUBLIN S.A.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 3, 3; 249-252
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Influence of using cryptography on data processing in RDBMS Oracle 10g
Wpływ stosowania mechanizmów kryptograficznych na przetwarzanie danych w SZBD Oracle 10g
Autorzy:
Apolinarski, M.
Powiązania:
https://bibliotekanauki.pl/articles/153607.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
bezpieczeństwo baz danych
kryptografia w bazach danych
transparent data encryption
database security
cryptography in database
Oracle 10g
Oracle advanced security
Opis:
Ensuring the confidentiality, privacy and integrity of data is a major issue for the security of database systems. In this paper the author investigates the efficiency of data processing in relational database management system Oracle 10g when built-in mechanism called Transparent Data Encryption (TDE) is used to encrypt table columns in order to increase data confidentiality and for data integrity control. Transparent Data Encryption supports table columns encryption using 3DES and AES algorithms with 128-, 192, 256-bits key length and data integrity using cryptographic hash function SHA-1.
Zapewnienie poufności, integralności i prywatności danych ma bardzo duże znaczenie dla bezpieczeństwa systemów informatycznych, a w szczególności dla bezpieczeństwa systemów baz danych. W tym artykule autor przedstawia wyniki doświadczenia badającego wpływ mechanizmów kryptograficznych na wydajność przetwarzania danych w systemie zarządzania relacyjną bazą danych (SZBD) Oracle 10g z wykorzystaniem wbudowanego narzędzia Transparent Data Encryption (TDE). Mechanizm TDE przeznaczony jest do szyfrowania kolumn tabeli w celu podwyższenia stopnia poufności danych i kontroli integralności danych. Transparent Data Encryption obsługuje szyfrowanie kolumn tabeli przy użyciu algorytmów kryptograficznych 3DES lub AES z kluczem 128-bitowym, 192-bitowym lub 256-bitowym. Do kontroli integralności danych wykorzystywana jest kryptograficzna funkcja skrótu SHA-1 generująca skrót o długości 160-bitów. Przeprowadzone testy obejmowały pomiary wydajności operacji SELECT, INSERT oraz UPDATE na przygotowanej kolekcji 10000 krotek danych.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 12, 12; 1540-1543
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optymalizacja kompresji Huffmana pod kątem podziału na bloki
Optimization of Huffman compression employing different block sizes
Autorzy:
Rybak, K.
Jamro, E.
Wielgosz, M.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/154957.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompresja danych
kodowanie Huffmana
deflate
data compression
Huffman coding
Opis:
Prezentowane w pracy badania dotyczą bezstratnej kompresji danych opartej o metodę Huffmana i zgodnej ze standardem deflate stosowanym w plikach .zip / .gz. Zaproponowana jest optymalizacja kodera Huffmana polegająca na podziale na bloki, w których stosuje się różne książki kodowe. Wprowadzenie dodatkowego bloku z reguły poprawia stopień kompresji kosztem narzutu spowodowanego koniecznością przesłania dodatkowej książki kodowej. Dlatego w artykule zaproponowano nowy algorytm podziału na bloki.
According to deflate [2] standard (used e.g. in .zip / .gz files), an input file can be divided into different blocks, which are compressed employing different Huffman [1] codewords. Usually the smaller the block size, the better the compression ratio. Nevertheless each block requires additional header (codewords) overhead. Consequently, introduction of a new block is a compromise between pure data compression ratio and headers size. This paper introduces a novel algorithm for block Huffman compression, which compares sub-block data statistics (histograms) based on current sub-block entropy E(x) (1) and entropy-based estimated average word bitlength Emod(x) for which codewords are obtained for the previous sub-block (2). When Emod(x) - E(x) > T (T - a threshold), then a new block is inserted. Otherwise, the current sub-block is merged into the previous block. The typical header size is 50 B, therefore theoretical threshold T for different sub-block sizes S is as in (3) and is given in Tab. 2. Nevertheless, the results presented in Tab. 1 indicate that optimal T should be slightly different - smaller for small sub-block size S and larger for big S. The deflate standard was selected due to its optimal compression size to compression speed ratio [3]. This standard was selected for hardware implementation in FPGA [4, 5, 6, 7].
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 7, 7; 519-521
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementacja w układach FPGA dekompresji danych zgodnie ze standardem Deflate
FPGA Implementation of Deflate standard data decompression
Autorzy:
Jamro, E.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/156208.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompresja danych
FPGA
kodowanie Huffmana
data compression
Deflate
Huffman
Opis:
Otwarty standard kompresji danych, Deflate, jest szeroko stosowanym standardem w plikach .gz / .zip i stanowi kombinację kompresji metodą LZ77 / LZSS oraz kodowania Huffmana. Niniejszy artykuł opisuje implementację w układach FPGA dekompresji danych według tego standardu. Niniejszy moduł jest w stanie dokonać dekompresji co najmniej 1B na takt zegara, co przy zegarze 100MHz daje 100MB/s. Aby zwiększyć szybkość, możliwa jest praca wielu równoległych modułów dla różnych strumieni danych wejściowych.
This paper describes FPGA implementation of the Deflate standard decoder. Deflate [1] is a commonly used compression standard employed e.g. in zip and gz files. It is based on dictionary compression (LZ77 / LZSS) [4] and Huffman coding [5]. The proposed Huffman decoded is similar to [9], nevertheless several improvements are proposed. Instead of employing barrel shifter a different translation function is proposed (see Tab. 1). This is a very important modification as the barrel shifter is a part of the time-critical feedback loop (see Fig. 1). Besides, the Deflate standard specifies extra bits, which causes that a single input word might be up to 15+13=28 bits wide, but this width is very rare. Consequently, as the input buffer might not feed the decoder width such wide input date, a conditional decoding is proposed, for which the validity of the input data is checked after decoding the input symbol, thus when the actual input symbol bit widths is known. The implementation results (Tab. 2) show that the occupied hardware resources are mostly defined by the number of BRAM modules, which are mostly required by the 32kB dictionary memory. For example, comparable logic (LUT / FF) resources to the Deflate standard decoder are required by the AXI DMA module which transfers data to / from the decoder.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 8, 8; 739-741
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realizacja kompresji danych metodą Huffmana z ograniczeniem długości słów kodowych
Implementation of Huffman compression with limited codeword length
Autorzy:
Rybak, K.
Jamro, E.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/156575.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompresja danych
FPGA
kodowanie Huffmana
data compression
Huffman coding
Opis:
Praca opisuje zmodyfikowany sposób budowania książki kodowej kodu Huffmana. Książka kodowa została zoptymalizowana pod kątem implementacji sprzętowej kodera i dekodera Huffmana w układach programowalnych FPGA. Opisano dynamiczną metodę kodowania - książka kodowa może się zmieniać w zależności od zmiennego formatu kompresowanych danych, ponadto musi być przesłana z kodera do dekodera. Sprzętowa implementacja kodeka Huffmana wymusza ograniczenie maksymalnej długości słowa, w przyjętym założeniu do 12 bitów, co pociąga za sobą konieczność modyfikacji algorytmu budowy drzewa Huffmana.
This paper presents a modified algorithm for constructing Huffman codeword book. Huffman coder, decoder and histogram calculations are implemented in FPGA similarly like in [2, 3]. In order to reduce the hardware resources the maximum codeword is limited to 12 bit. It reduces insignificantly the compression ratio [2, 3]. The key problem solved in this paper is how to reduce the maximum codeword length while constructing the Huffman tree [1]. A standard solution is to use a prefix coding, like in the JPEG standard. In this paper alternative solutions are presented: modification of the histogram or modification of the Huffman tree. Modification of the histogram is based on incrementing (disrupting) the histogram values for an input codeword for which the codeword length is greater than 12 bit and then constructing the Huffman tree from the very beginning. Unfortunately, this algorithm is not deterministic, i.e. it is not known how much the histogram should be disrupted in order to obtain the maximum codeword length limited by 12 bit. Therefore several iterations might be required. Another solution is to modify the Huffman tree (see Fig. 2). This algorithm is more complicated (when designing), but its execution time is more deterministic. Implementation results (see Tab. 1) show that modifi-cation of the Huffman tree results in a slightly better compression ratio.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 7, 7; 662-664
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wybranych technologii informatycznych do tworzenia Metrologicznej Bazy Danych
Chosen Information Technologies for Metrological Database Creation
Autorzy:
Adamczyk, K.
Tabisz, R. A.
Powiązania:
https://bibliotekanauki.pl/articles/158007.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
systemy informatyczne
metrologiczne bazy danych
information systems
metrological databases
Opis:
Przedstawiono wybrane technologie informatyczne, które można wykorzystać do tworzenia Metrologicznych Baz Danych. Bazy te stanowią ważny element w systemach oceny zgodności: wyrobów, procesów wytwarzania, obiektów biologicznych lub ekologicznych. Wskazano na celowość doboru odpowiedniej technologii informatycznej uwzględniającego wielkość i przeznaczenie takiej bazy. Przedstawiono przykład wykorzystania bezpłatnych technologii MySQL oraz PHP do tworzenia małych baz metrologicznych przeznaczonych dla jednego lub kilku laboratoriów. Uzasadniono wybór technologii Microsoft .NET oraz SQL Server 2005 do tworzenia dużej bazy metrologicznej przeznaczonej dla regionalnego lub krajowego centrum metrologicznego.
Chosen information technologies useful to the metrological database creation are presented. These databases are important elements of the Conformity Assessment Systems of the: products, production processes and "bio" or "eco" objects. The advisability of the selection of the suitable information technology of taking into account the size and the applications of such database is denoted. The example of the use of the free of charge MySQL and PHP technologies for creation of the small metrological databases for one or several laboratories is presented. The choice of the Microsoft.NET and the SQL Server 2005 technology to the big metrological database creation for the regional or national metrological centres is justified.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 12, 12; 51-54
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Obliczeniowe szacowanie czasu wykonania programu
Estimation of program execution time
Autorzy:
Kamińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/157519.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
lokalność danych
pamięć podręczna
blokowanie
data locality
cache memory
tiling
Opis:
Określenie czasu wykonywania programu poprzez jego uruchomienie nie zawsze jest możliwe w zagadnieniach praktycznych, przykładowo w kompilacji iteracyjnej, ze względu na duże wydłużenie czasu tworzenia oprogramowania. Jednakże w wielu sytuacjach nie ma potrzeby dokładnego określenia tego czasu; wystarczyłoby go oszacować. W niniejszym artykule przedstawiono propozycję sposobu obliczeniowego szacowania czasu wykonania programu w oparciu o samą postać jego kodu źródłowego i znane parametry środowiska sprzętowego.
The program execution time is one of criteria which are taken into account during assessment of widely comprehended software quality. The general purpose is to make program execution time as short as possible. The program execution time depends on many, very different, factors. The most obvious of these are: the form of its source code and the hardware environment in which the program is executed. In practice, even a very minor change in the form of the source code of a program can result in a significant change in its execution time. The same effect can be caused by a slight change in the values of hardware parameters. Although the interpretation of program execution time as a quality assessment criterion is very simple, it is sometimes very difficult to precisely measure program execution and taking necessary measurements requires running the program. However, there is very often no need to know this time precisely; it would be sufficient to estimate it with some error which is known in advance. The paper presents - using the matrix multiplication problem for reference - a proposal of a method which can be used for estimating the execution time of a program, based only on its source code and a priori known hardware parameters. The idea of the proposed method is to elaborate a mathematical model combining statistical approach and the Wolfe's method for calculating data locality. The paper discusses the results of using the elaborated model on a control sample and indicates directions of further works.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 2, 2; 193-195
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda opracowania wyników obserwacji bazująca na ich porównaniu z próbami referencyjnymi
Method of the observations processing based on their comparison with the reference samples
Autorzy:
Dorozhovets, M.
Powiązania:
https://bibliotekanauki.pl/articles/154913.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
opracowanie danych
obserwacje
próby referencyjne
data processing
observations
reference samples
Opis:
W artykule została zaproponowana i zbadana metoda opracowania wyników obserwacji, bazująca na ich porównywaniu z próbami referencyjnymi o zadanych właściwościach. Przedstawiono modele matematyczne najlepszego wyniku pomiaru oraz jego standardowej niepewności. Metodą Monte Carlo przeprowadzono badania symulacyjne skuteczności metody dla kilku wybranych rozkładów prawdopodobieństwa populacji przy liczbie obserwacji od 9 do 49. Stwierdzono, że jeśli liczba obserwacji wynosi kilkanaście i więcej, to proponowana metoda zapewnia zmniejszenie niepewności wyniku w porównaniu z niepewnością wartości średniej.
New method of the measurement result and its uncertainty determination, based on the comparison of input sample after its sorting with several reference samples (Fig. 1, Fig. 2), which correspond to models of the general population density distributions, is investigated and analyzed in the paper. Elements of the reference sample are the observations, which ideally reflect the properties of the general population distribution, and their values are calculated as the mathematical expectations of ordinal statistics corresponding to this distribution (1). Mathematical models of the determination of the best result (2), (9) and its standard uncertainty (12), (13) are presented. The effectiveness of propose method is investigated by the Monte Carlo method for 5 models of general population (Laplace, normal, triangular, uniform and arcsine (Fig. 3)) with the number of observations 9, 19, 29, 39 and 49. If the observation distribution significantly differs from normal distribution then the proposed method guarantees considerable decreasing of the uncertainty result in comparison with the uncertainty of average value (Fig. 4). As a result of investigations it is established that if the number of observations exceeds about 12-15, then in approximately ? cases the proposed algorithm identifies distribution correctly and in the rest near ? cases the nearest (accordingly the value of contra kurtosis (5)) distributions (Fig. 5). The proposed method can be used when the number of registered observations is small, when due to this the histogram is unstable and also the statistical tests can be positive for some models of the density distributions of the general populations simultaneously.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 9, 9; 754-757
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optymalizacja sprzętowej architektury kompresji danych metodą słownikową
FPGA implementation of Deflate standard data decompression
Autorzy:
Gwiazdoń, M.
Jamro, E.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/152652.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompresja danych
FPGA
kodowanie Huffmana
data compression
Deflate
LZ77
Opis:
Niniejszy artykuł opisuje nową architekturę sprzętową kompresji słownikowej, np. LZ77, LZSS czy też Deflate. Zaproponowana architektura oparta jest na funkcji haszującej. Poprzednie publikacje były oparte na sekwencyjnym odczycie adresu wskazywanego przez pamięć hasz, niniejszy artykuł opisuje układ, w którym możliwe jest równoległe odczytywanie tego adresu z wielu pamięci hasz, w konsekwencji możliwa jest kompresja słownikowa z szybkością na poziomie 1B ciągu wejściowego na takt zegara. Duża szybkość kompresji jest okupiona nieznacznym spadkiem stopnia kompresji.
This paper describes a novel parallel architecture for hardware (ASIC or FPGA) implementation of dictionary compressor, e.g. LZ77 [1], LZSS [2] or Deflate [4]. The proposed architecture allows for very fast compression – 1B of input data per clock cycle. A standard compression architecture [8, 9] is based on sequential hash address reading (see Fig. 2) and requires M clock cycles per 1B of input data, where M is the number of candidates for string matching, i.e. hashes look ups (M varies for different input data). In this paper every hash address is looked up in parallel (see Fig. 3). The drawback of the presented method is that the number of M is defined (limited), therefore the compression ratio is slightly degraded (see Fig. 4). To improve compression ratio, a different sting length may be searched independently, i.e. not only 3B, but also 4B, … N B hashes (see results in Fig. 5, 6). Every hash memory (M(N-2)) usually requires a direct look-up in the dictionary to eliminate hash false positive cases or to check whether a larger length sting was found. In order to reduce the number of dictionary reads, an additional pre-elimination algorithm is proposed, thus the number of dictionary reads does not increase rapidly with growing N (see Fig. 7).
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 8, 8; 827-829
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badania eksperymentalne możliwości transmisji danych w budynkowej sieci elektroenergetycznej z wykorzystaniem modemów PLC HomePlug
: Experimental Research of Data Transmission over Building Electrical Power Wiring Using PLC Homeplug Modems
Autorzy:
Papir, Z.
Dańda, J.
Łoziak, K.
Wszołek, J.
Natkaniec, M.
Łoziak, W.
Powiązania:
https://bibliotekanauki.pl/articles/154255.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
transmisja danych
sieci elektroenergetyczne
PLC
standard HomePlug
data transmission
power wiring
Opis:
Istnieje wiele kryteriów podziału sieci teleinformatycznych: ze względu na architekturę, zasięg działania, wykorzystywane medium transmisyjne. Dodatkowym kryterium klasyfikacji mogą być również czynniki ekonomiczne, takie jak koszt budowy infrastruktury sieciowej (np. koszty okablowania strukturalnego dla sieci typu Ethernet 100BaseT, kabla CATV, itp.) czy koszt podłączenia kolejnego odbiorcy. Najbardziej atrakcyjne ze względów ekonomicznych są te sieci, które nie wymagają inwestycji w postaci nowego okablowania (m.in. sieci bezprzewodowe WLAN), ewentualnie sieci, które są w stanie przyjąć nowe formaty transmisji (siec telefoniczna - ADSL, sieć CATV - DOCSIS). W niniejszym artykule omówiony zostanie stosunkowo mało rozpowszechniony w Polsce sposób transmisji danych, wykorzystujący jako medium istniejące sieci elektroenergetyczne niskiego napięcia (~230V). Sieci te ze względu na powszechność instalacji elektroenergetycznej mogą w przyszłości stanowić konkurencję dla najbardziej rozpowszechnionych metod dostępu do Internetu bazujących na pętli abonenckiej oraz lokalnych sieci kablowych i bezprzewodowych WLAN. Ponadto ze względu na niezawodność transmisji mogą być stosowane jako rozwiązanie alternatywne do budowy przemysłowych sieci transmisji danych.
Telecommunications networks can be divided into different categories using many different criteria, such as the network architecture, coverage area, media types, etc. Economical aspects such as network installation cost or cost of connecting of a new customer could be considered as an additional network classification level (for example: Ethernet 100BaseT or CATV network structure cabling cost). The most attractive, from a business point of view is structural wiring or existing networks which can convey enhanced transmission formats (PSTN with ADSL, CATV with DOCSIS). In this paper a barely popular in Poland data transmission technique is presented. The described PLC technique takes an advantage of existing low-voltage (~230V) power lines as a data bearer. Ubiquitous power-line networks can be consider in the near future as a very competitive to a typical Internet access network based on customer's local loop or local area, fixed and wireless networks.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 3, 3; 52-56
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie karty pomiarowej M3i.2122 w detekcji pojedynczego sygnału sinusoidalnego
Application of the M3i.2122 data acquisition card in radio signal detection
Autorzy:
Ślęzak, P.
Powiązania:
https://bibliotekanauki.pl/articles/157446.pdf
Data publikacji:
2014
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
akwizycja danych
DAQ
A/C
detekcja sygnałów
data acquisition
weak signal detection
Opis:
Artykuł prezentuje możliwości i ocenę parametrów karty pomiarowej M3i.2122 firmy Spectrum Systementwicklung Microelectronic. Opisane przykłady detekcji sygnału sinusoidalnego zostały zrealizowane w środowisku obliczeniowym MATLAB. W artykule zaprezentowano podstawowe metody ekstrakcji sygnału z szumu za pomocą uśredniania niekoherentnego i filtracji DFT. Przedstawiona karta jest dobrym, alternatywnym rozwiązaniem do znanych systemów akwizycji danych np. opartych o platformę PXI.
The hardware features of the M3i.2122 data acquisition card and detection of a sinusoidal signal are presented in this paper. The function block diagram of the card is shown in Fig 1. System data transfer is realized with use of a PCI Express bus. A single 4 MHz tone at –93 dBm power level was selected as the test signal. The basic methods of extracting signal from noise using incoherent averaging and DFT’s processing gain were implemented on the M3i.2122 card. The gain of incoherent averaging is shown in Fig. 2 and DFT’s processing gain is noticeable if we compare Fig. 2a and Fig. 3a, where the number of samples has increased from 1024 to 8192. Figures 2 and 3 also show that the use of signal windowing may decrease the signal-to-noise ratio. The effects of enabling an integrated anti-aliasing filter (Fig. 4) show that this filter is insufficient in the context of detection of weak signals and should be replaced by an external anti-aliasing filter with good properties. In spite of this drawback, the presented card is a good alternative to the well known data acquisition systems such as the PXI -based platform for weak signal detection.
Źródło:
Pomiary Automatyka Kontrola; 2014, R. 60, nr 7, 7; 417-419
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies