Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Gramacki, A." wg kryterium: Autor


Wyświetlanie 1-6 z 6
Tytuł:
Szacowanie emisji tlenków azotu (NOx) na podstawie danych eksploatacyjnych rzeczywistego obiektu przemysłowego
Estimation of nitrogen oxides NOx emission based on data from real industry plant
Autorzy:
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/154296.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
NOx
Elektrociepłownia Zielona Góra
regresja liniowa
szacowanie
NOx emission
combined heat and power plant
CHP
linear regression
Opis:
W pracy podjęto próbę szacowania emisji tlenków azotu (NOx,) na podstawie danych eksploatacyjnych zbieranych podczas normalnej pracy Elektrociepłowni w Zielonej Górze. Pomimo że zanieczyszczenia te monitorowane są z użyciem specjalistycznych czujników, to wydaje się, że dodatkowa ich kontrola może być bardzo pożądana. Zwłaszcza, że ilość emitowanych zanieczyszczeń (w tym NOx) jest ściśle limitowana i kontrolowana. Wspomniane szacowanie wykonano wykorzystując technikę statystyczną zwaną regresją liniową.
In the paper there is analysed the possibility of estimating nitrogen oxides NOx emissions based on the data taken from an industry plant (gas-based combined heat and power (CHP) plant in Zielona Góra, Poland). Even though the emission of NOx is monitored on-line by dedicated sensors installed on the plant, we believe that some additional monitoring would be desirable. This is especially important because emission of different kind of air-pollutants (including NOx) is strictly limited and monitored. The above mentioned estimation is performed by the statistical technique known as linear regression. In Section 2 the gas-based combined heat and power plant in Zielona Góra is briefly described. A simplified chart of the plant is shown in Fig. 1. The list of measurement points taken from the DCS system (distributed control system) of the greatest influence on the NOx emission is also given. In Section 3 there is shown the way how the raw data should be prepared, especially in the context of removing unwanted disturbances as well as the points which were selected for the final regression analysis. The results obtained are presented in Section 4. The best regression solution (row 3 in Table 3) is shown in Fig. 4. The accuracy is quite satisfactory and we believe that it is sufficient for the purpose of additional monitoring the main NOx sensors installed on the plant.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 7, 7; 461-463
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estymacja nieparametryczna wybranych parametrów bloku gazowo-parowego
Nonparametric estimation of selected parameters of steam and gas power plant
Autorzy:
Gramacki, J.
Gramacki, A.
Powiązania:
https://bibliotekanauki.pl/articles/154300.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
estymacja nieparametryczna
estymacja jądrowa
Elektrociepłownia Zielona Góra
nonparametric estimation
kernel estimation
combined heat and power plant
CHP
Opis:
W pracy pokazano przykład użycia nieparametrycznej estymacji danych. Z pomocą tej techniki dokonano oszacowania emisji tlenków azotu (NOx) na podstawie danych eksploatacyjnych zbieranych podczas normalnej pracy Elektrociepłowni w Zielonej Górze. Na wstępnie dokonano krótkiego przeglądu najbardziej popularnych technik estymacji parametrycznej i porównano je z technikami nieparametrycznymi. Następnie na prostym przykładzie pokazano istotę działania estymacji nieparametrycznej. Pracę kończy rozdział, w którym krótko omówiono uzyskane wyniki symulacyjne.
In the paper there are shown some practical examples of using nonparametric estimation. Using this technique there were estimated the nitrogen oxides (NOx) emissions based on the data taken from a real industry plant (gas and steam combined heat and power (CHP) plant in Zielona Góra, Poland). This work can be treated as a continuation of the paper [2]. In the first section there is given a short overview of estimation methods, including the linear and nonlinear regression, and comparison of them with nonparametric ones. In the second section there is briefly presented the nonparametric estimation technique and there is given a simple illustrative example. The third paragraph is dedicated to presenting the experimental results. Basing on the data from the CHP plant, the NOx emission was estimated and the satisfactory results (in comparison, for example, with the results obtained from the linear regression estimator) were obtained. All calculations were carried out using np package for R-project environment which implements a variety of nonparametric (and also semiparametric) kernel-based estimators.
Źródło:
Pomiary Automatyka Kontrola; 2009, R. 55, nr 7, 7; 454-456
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie typu Entity-Attribute-Value w bazach danych
Entity-Attribute-Value approach in databases
Autorzy:
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/152612.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Entity-Attribute-Value
EAV
generyczne struktury bazodanowe
projektowanie baz danych
relational databases
generic database structures
database design
Opis:
W artykule omówiono pewien specyficzny sposób reprezentacji danych, który w pewnych sytuacjach może być stosowany w miejsce klasycznego podejścia relacyjnego. Jest on stosunkowo mało znany i choć zakres jego stosowalności jest ograniczony a pewne niekorzystne właściwości znaczne, to warto go poznać, gdyż istnieją obszary, gdzie jego stosowanie może przynieść wymierne korzyści. Mowa tu o tzw. podejściu Entity-Attribute-Value, w skrócie EAV. Jest ono całkowicie różne od podejścia relacyjnego. W pracy pokazano główne założenia EAV wraz z przykładami oraz omówiono jego podstawowe zalety i wady. Krótko omówiono również pewne alternatywne rozwiązanie do EAV, które posiada niektóre cechy EAV, a jednocześnie nie burzy tak bardzo podejścia relacyjnego.
In the paper a specific kind of data representation is presented. In some situations it can be used in place of classical relational approach. This data representation, although not new, is not widely known, and in spite of some serious limitations, can be used in many specific database areas. We describe the Entity-Attribute-Value (EAV) approach. This approach is totally different to the relational one. In the paper we give an overview of the EAV as well as we show the main advantages and disadvantages. Also, we show an alternative approach to EAV which does not suffer the EAV limitations.
Źródło:
Pomiary Automatyka Kontrola; 2007, R. 53, nr 5, 5; 54-55
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatyczne tworzenie podsumowań tekstów metodami algebraicznymi
Automatic text summarization using algebraic approach
Autorzy:
Gramacki, J.
Gramacki, A.
Powiązania:
https://bibliotekanauki.pl/articles/156932.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
automatyczne podsumowywanie
ukryta semantyka dokumentów
przekształcenie SVD
generic text summarization
sentence extraction
latent semantic analysis
singular value decomposition
Opis:
Duża liczba zwracanych (na przykład przez różnego rodzaju wyszukiwarki internetowe) dokumentów oznacza, że często zmuszeni jesteśmy do czasochłonnego ich przeglądania, celem weryfikacji trafności zwracanych wyników. Gdy dokumenty są długie, czas ich przeglądania znacznie się wydłuża. Można by go wydatnie skrócić, gdyby istniała możliwość automatycznego generowania sensownych podsumowań (streszczeń). W artykule omawiamy wybrane algebraiczne metody służące automatycznemu wydobywaniu z tekstu jego najistotniejszych słów kluczowych oraz najistotniejszych zdań.
Text summarization is a real practical problem due to explosion of the volume of textual information available nowadays. In order to solve this problem, text summarization systems which extract brief information from a given text are created. The end user, by looking only at the summary, may decide whether the document is or is not of interest to him/her. Built summaries can have 2 fundamental forms. Firstly, extractive summarization may collect important sentences from the input text to constitute the summary. Secondly, abstractive summarization tries to capture main concepts of the text and then some new sentences, summarizing the input text, are generated. Nowadays, however, it seems that the latter approach still needs extensive works to be really useful. A summary can be extracted from a single document or multiple documents. In the paper the authors build summaries of one document only. The extension into multi-document summaries is the straightforward task in the case when a set of semantically uniform texts is summarized. Summaries may also be categorized as generic and query-based summaries. In the first case, there are generated summaries con-taining main topics of a document. In the second case, summaries contain the sentences that are related to the given queries. In the paper there are built generic summaries. Summarization systems use different approaches to determine important sentences. Here there is used semantic oriented approach based on a method known as Latent Semantic Analysis (LSA). LSA is an algebraic method that extracts meaning of words and similarity of sentences using the information about usage of the words in the context. It uses Singular Value Decomposition (SVD) for finding semantically similar words and sentences. Using the results of SVD the authors try to select best sentences (which constitute the best summary of the text). The paper is organized as follows. In Section 2 there is formulated the problem. In Section 3 there is shown how a docu-ment may be represented in a useful algebraic format. The so called Term-Sentence matrix (TSM) is used. The authors also point at some preliminary tasks necessary to be performed for successful further analysis. In Subsection 3.2 there is shortly presented an idea of LSA as based on SVD decomposition. In the last section 4 two examples of text summarizations build for both Polish and English texts are given. The two methods used differ slightly from each other. The authors' extracting key words and key sentences seems to be proper content-related summaries of the input texts.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 7, 7; 751-755
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Graphics processing units in acceleration of bandwidth selection for kernel density estimation
Autorzy:
Andrzejewski, W.
Gramacki, A.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/330819.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
bandwidth selection
graphics processing unit
probability density function
nonparametric estimation
kernel estimation
szerokość pasmowa
programowalny procesor graficzny
funkcja gęstości prawdopodobieństwa
estymacja nieparametryczna
estymacja jądrowa
Opis:
The Probability Density Function (PDF) is a key concept in statistics. Constructing the most adequate PDF from the observed data is still an important and interesting scientific problem, especially for large datasets. PDFs are often estimated using nonparametric data-driven methods. One of the most popular nonparametric method is the Kernel Density Estimator (KDE). However, a very serious drawback of using KDEs is the large number of calculations required to compute them, especially to find the optimal bandwidth parameter. In this paper we investigate the possibility of utilizing Graphics Processing Units (GPUs) to accelerate the finding of the bandwidth. The contribution of this paper is threefold: (a) we propose algorithmic optimization to one of bandwidth finding algorithms, (b) we propose efficient GPU versions of three bandwidth finding algorithms and (c) we experimentally compare three of our GPU implementations with the ones which utilize only CPUs. Our experiments show orders of magnitude improvements over CPU implementations of classical algorithms.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2013, 23, 4; 869-885
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
FPGA-based bandwidth selection for kernel density estimation using high level synthesis approach
Autorzy:
Gramacki, A.
Sawerwain, M.
Gramacki, J.
Powiązania:
https://bibliotekanauki.pl/articles/201258.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
FPGA
high level synthesis
kernel density estimation
bandwidth selection
plug-in selector
synteza wysokiego poziomu
jądrowy estymator gęstości
wybór pasma informacyjnego
Opis:
Field-programmable gate arrays (FPGA) technology can offer significantly higher performance at much lower power consumption than is available from single and multicore CPUs and GPUs (graphics processing unit) in many computational problems. Unfortunately, the pure programming for FPGA using hardware description languages (HDL), like VHDL or Verilog, is a difficult and not-trivial task and is not intuitive for C/C++/Java programmers. To bring the gap between programming effectiveness and difficulty, the high level synthesis (HLS) approach is promoted by main FPGA vendors. Nowadays, time-intensive calculations are mainly performed on GPU/CPU architectures, but can also be successfully performed using HLS approach. In the paper we implement a bandwidth selection algorithm for kernel density estimation (KDE) using HLS and show techniques which were used to optimize the final FPGA implementation. We are also going to show that FPGA speedups, comparing to highly optimized CPU and GPU implementations, are quite substantial. Moreover, power consumption for FPGA devices is usually much less than typical power consumption of the present CPUs and GPUs.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2016, 64, 4; 821-829
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-6 z 6

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies