Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data modeling" wg kryterium: Temat


Tytuł:
Interoperability Cadastral Data in the System Approach
Autorzy:
Mika, M.
Powiązania:
https://bibliotekanauki.pl/articles/123300.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
cadastre
spatial data
data modeling
INSPIRE
SDI
Opis:
Elements of each system and their interrelationships can be represented using models simulating reality. Analysis of the problem with the use of modeling methods facilitates the identification of the problem, its diagnosis and assessment of data quality. In this study, the method of semantic modeling, based on the principles of system analysis was used. The thematic scope of the publication covers the use of these methods in order to develop a model of cadastral data in Poland. Real estate cadastre is one of the most important information systems in the world, based on the spatial data of geodetic and legal nature. It is therefore important to define appropriately its purpose, scope of data and the links between objects, subjects and their assigned rights. The methods of system analysis are widely used for this purpose around the world. By using of these methods the schematic diagram of the multi-purpose cadastre in Poland was developed, along with the model of sources and types of cadastral information. Particular attention was paid to modeling of the scope and content of spatial data. The basic assumption of the functionality of the cadastral system is the interoperability of data, from selected databases collecting information about cadastral objects with the use of thematic groups if the INSPIRE Directive. Spatial conditions of data interoperability of modeled multi-purpose cadastre based on current law conditions in Poland were presented in this paper.
Źródło:
Journal of Ecological Engineering; 2017, 18, 2; 150-156
2299-8993
Pojawia się w:
Journal of Ecological Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza porównawcza wybranych narzędzi CASE do modelowania danych w procesie projektowania relacyjnych baz danych
Comparative analysis of selected CASE tools for data modeling in relational databases design
Autorzy:
Łacheciński, Sebastian
Powiązania:
https://bibliotekanauki.pl/articles/432239.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
CASE tools
data modeling
database design
modeling notations
Opis:
The article presents an attempt to evaluate commercially avaible software selected software vendors, used in the design of relational databases. In the comparative analyses both commercial and non-commercial solutions are taken into account. The research purpose is to propose a method of assessment of tools based on a modified model of usable quality presented in ISO 25010 and to select the best tool of the ones that have been evaluated.
Źródło:
Informatyka Ekonomiczna; 2014, 1(31); 237-258
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hurtownia danych jako element cyfrowej transformacji przedsiębiorstwa dla przemysłu 4.0
Data warehouse as an element of the digital transformation of the company for industry 4.0
Autorzy:
Zabroń, Mariusz
Molga, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/28328288.pdf
Data publikacji:
2023-11
Wydawca:
Uniwersytet Rzeszowski
Tematy:
baza danych
big data
chmura
hurtownia danych
modelowanie danych
database
cloud
data warehouse
data modeling
Opis:
W artykule opisano zagadnienia dotyczące budowy oraz funkcjonowania hurtowni danych. Jest to szereg procesów wspomagających działalność przedsiębiorstw i wydaje się być obecnie koniecznych we wdrażaniu pozostałych koncepcji i rozwiązań Przemysłu 4.0. W opracowaniu zostały wyjaśnione również procesy, jakie są konieczne do utworzenia hurtowni, kluczowe składniki, a także istota jej działania. Przeanalizowane zostały zalety oraz praktyki stosowane w zakresie biznesu oraz samej sferze IT. Przedstawiona została także możliwość przeniesienia hurtowni do chmury obliczeniowej oraz głównych dostawców oferujących takie usługi. Artykuł może być punktem wyjścia do bardziej szczegółowych rozważań dotyczących analityki, raportowania i archiwizacji danych we współczesnym przedsiębiorstwie.
The article describes issues related to the construction and functioning of a data warehouse. This is a series of processes supporting the activities of enterprises and seem to be necessary in the implementation of other concepts and solutions of Industry 4.0. The study also explains the processes that are necessary to create a warehouse, key components and the essence of operation. The advantages and practices used in the field of business and the IT sphere itself were analyzed. The possibility of transferring the warehouse to cloud computing was also presented as well as the main suppliers offering such services were presented. The article can be a starting point for more detailed considerations on analytics, reporting and data archiving in a modern enterprise.
Źródło:
Dydaktyka informatyki; 2023, 18, 18; 164-175
2083-3156
2543-9847
Pojawia się w:
Dydaktyka informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multilinear Filtering Based on a Hierarchical Structure of Covariance Matrices
Autorzy:
Szwabe, Andrzej
Ciesielczyk, Michal
Misiorek, Pawel
Powiązania:
https://bibliotekanauki.pl/articles/1373696.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
tensor-based data modeling
multilinear PCA
random indexing
dimensionality reduction
multilinear data filtering
higher-order SVD
Opis:
We propose a novel model of multilinear filtering based on a hierarchical structure of covariance matrices – each matrix being extracted from the input tensor in accordance to a specific set-theoretic model of data generalization, such as derivation of expectation values. The experimental analysis results presented in this paper confirm that the investigated approaches to tensor-based data representation and processing outperform the standard collaborative filtering approach in the ‘cold-start’ personalized recommendation scenario (of very sparse input data). Furthermore, it has been shown that the proposed method is superior to standard tensor-based frameworks such as N-way Random Indexing (NRI) and Higher-Order Singular Value Decomposition (HOSVD) in terms of both the AUROC measure and computation time.
Źródło:
Schedae Informaticae; 2015, 24; 103-112
0860-0295
2083-8476
Pojawia się w:
Schedae Informaticae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie danych w procesie odwzorowywania informatycznego systemów empirycznych stanowiących przedmiot inżynierii rolniczej
Data modeling in a process of mapping empirical systems of agricultural engineering onto information systems
Autorzy:
Mueller, W.
Boniecki, P.
Weres, J.
Nowakowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/287547.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
modelowanie danych
baza danych
inżynieria rolnicza
system empiryczny
data modeling
databases
empirical system
agricultural engineering
Opis:
Systemy empiryczne, leżące w obszarze zainteresowania inżynierii rolniczej, charakteryzują się wyjątkową złożonością. Próbą radzenia sobie z sygnalizowaną komplikacją w procesie poznawania jest wielopoziomowe modelowanie dziedziny problemowej. Istotną kwestią w procesie modelowania dziedziny problemowej, jak i projektowania systemów informatycznych, które są wykorzystywane do badania systemów empirycznych jest prawidłowe zrealizowanie fazy modelowania danych. Zaistnienie tego etapu jest konsekwencją podejmowanych wysiłków zmierzających do poznania coraz bardziej złożonych systemów empirycznych, opisywanych coraz większą porcją informacji wzajemnie ze sobą powiązanych.
Empirical systems investigated within agricultural engineering are extremely complex. A multi-level modeling of a problem domain, extended by mapping developed operational structures onto information systems is a solution to deal with the complexity. A crucial issue, becoming more and more pronounced in modeling a problem domain and designing information systems oriented at investigation of empirical systems, is to complete correctly data modeling phase. Such analysis is a result of substantial attempts made to better understand the empirical systems, the systems which are more and more complex, requiring more and more interrelated information. The attempts have been favored by appearance of new information technologies dedicated to representation of data.
Źródło:
Inżynieria Rolnicza; 2007, R. 11, nr 6 (94), 6 (94); 175-182
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie obiektów topograficznych w bazach danych historycznych
Modelling of topographic objects in historical databases
Autorzy:
Panecki, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/965513.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
historical geography
databases
archival maps
cartographic data modeling
geografia historyczna
gis
bazy danych
mapy archiwalne
modelowanie kartograficzne
Opis:
Celem artykułu jest zaproponowanie koncepcji modelowania obiektów topograficznych w bazach danych historycznych w celu integracji geometrycznej i topologicznej. Głównym źródłem danych są mapy archiwalne w różnych skalach opracowane na przestrzeni 150 lat (od przełomu XVIII/XIX do połowy XX wieku). Ze względu na różnorodność materiałów źródłowych w celu integracji geometrii danych topograficznych zaproponowano podejście oparte na metodzie retrogresywnej.
Large informative potential of archive maps makes them a valuable source of spatial and attribute data for historians, geographers, archaeologists and planners. Since their proper application in GIS (Geographic Information System) often requires a proper database elaboration, there have been proposed several concepts of historical spatial databases. However, they do not include the full range of topographic maps’ content, and they were primarily based on secondary data sources (e.g. atlases, dictionaries). The aim of the paper is to propose the concept of topographic objects’ modelling in historical databases which will be based on archived maps in various scales developed over 150 years (eighteenth/nineteenth century – half of the twentieth century). Relating the data with current maps will be available through the connection between planned repository and contemporary spatial databases, e.g. Polish national Database of Topographic Objects (BDOT). In the project materials including Poland in modern borders will be analysed. Due to the variety of source materials, the main objective of text is to present the initial concept of historical topographic objects’ database structure on the example of the integration of topographic data geometry. The problem of how geometry should be stored for each features acquired from the map should be solved. Firstly, each of them can have a separate entry position (Time-slice snapshots) in the database. Secondly, socalled “metaobject” grid with fixed geometry, but variable attributes can be used (Space-time composite). Since archive maps are characterized by a largely low mathematical precision, therefore its content vectorization without considering the topological relationships between features seems to be incorrect. Maps’ elements belonging to the cultural landscape (e.g. settlements, communication network) should rather be stored with fixed geometry and variable attributes. In the contrast, the natural landscape (e.g. hydrography, afforestation), due to the different and difficult to capture changes especially on inaccurate maps (e.g. course of the river) should be stored with individual geometry for each feature depicted on each map.
Źródło:
Acta Universitatis Lodziensis. Folia Geographica Socio-Oeconomica; 2015, 21
1508-1117
2353-4826
Pojawia się w:
Acta Universitatis Lodziensis. Folia Geographica Socio-Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reconstruction of high-dimensional data using the method of probabilistic features combination
Autorzy:
Jakóbczak, D. J.
Powiązania:
https://bibliotekanauki.pl/articles/118528.pdf
Data publikacji:
2016
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
image retrieval
pattern recognition
data modeling
vector interpolation
PFC method
feature reconstruction
probabilistic modeling
pobieranie obrazu
rozpoznawanie wzorców
modelowanie danych
interpolacja wektora
metoda PFC
funkcja rekonstrukcji
modelowanie probabilistyczne
Opis:
Proposed method, called Probabilistic Features Combination (PFC), is the method of multi-dimensional data modeling, extrapolation and interpolation using the set of high-dimensional feature vectors. This method is a hybridization of numerical methods and probabilistic methods. Identification of faces or fingerprints need modeling and each model of the pattern is built by a choice of multi-dimensional probability distribution function and feature combination. PFC modeling via nodes combination and parameter γ as N-dimensional probability distribution function enables data parameterization and interpolation for feature vectors. Multidimensional data is modeled and interpolated via nodes combination and different functions as probability distribution functions for each feature treated as random variable: polynomial, sine, cosine, tangent, cotangent, logarithm, exponent, arc sin, arc cos, arc tan, arc cot or power function.
Autorska metoda Probabilistycznej Kombinacji Cech - Probabilistic Features Combination (PFC) jest wykorzystywana do interpolacji i modelowania wielowymiarowych danych. Węzły traktowane są jako punkty charakterystyczne N-wymiarowej informacji, która ma być odtwarzana (np. obraz). Wielowymiarowe dane są interpolowane lub rekonstruowane z wykorzystaniem funkcji rozkładu prawdopodobieństwa: potęgowych, wielomianowych, wykładniczych, logarytmicznych, trygonometrycznych, cyklometrycznych.
Źródło:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej; 2016, 9; 37-50
1897-7421
Pojawia się w:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Designing of structural ontological data systems model for mash-up integration process
Autorzy:
Kushniretska, I
Kushniretska, O
Berko, A
Powiązania:
https://bibliotekanauki.pl/articles/117987.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
Mash-Up data integration
ontological modeling
ontological data model
Opis:
This paper describes the construction of structural ontological data systems model in the process of data integration. The usage of ontologies in the context of improving the process of dynamic semantic data integration has been characterized. The algorithm of constructing of structural ontological data integrated systems model has been designed. This algorithm is based on the rules of using and application of ontological modeling. The algorithm as a sequence of five steps describing tasks for each of them has been presented.
Źródło:
Applied Computer Science; 2015, 11, 1; 39-50
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Proposal of heuristic regression method applied in descriptive data analysis: case studies
Autorzy:
Gomes, F. A.
Assis, A. de O.
Reis, M. R. da C.
Gomes, V. M.
Oliveira, S. G. M.
Araujo, W. R. H. de
Calixto, W. P.
Powiązania:
https://bibliotekanauki.pl/articles/136229.pdf
Data publikacji:
2017
Wydawca:
EEEIC International Barbara Leonowicz Szabłowska
Tematy:
regression
data analysis
optimization
heuristic
modeling
Opis:
The purpose of this paper is to use the hybridized optimization method in order to find mathematical structures for analysis of experimental data. The heuristic optimization method will be hybridized with deterministic optimization method in order to that structures found require not knowledge about data generated experimentally. Five case studies are proposed and discussed to validate the results. The proposed method has viable solution for the analysis of experimental data and extrapolation, with mathematical expression reduced.
Źródło:
Transactions on Environment and Electrical Engineering; 2017, 2, 2; 51-57
2450-5730
Pojawia się w:
Transactions on Environment and Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowe metody analizy danych wielowymiarowych tablic kontyngencji w badaniach opinii publicznej
Model-Based Methods For Multi-Way Frequency Tables In A Public Opinion Survey
Autorzy:
Brzezińska, Justyna
Powiązania:
https://bibliotekanauki.pl/articles/591978.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Analiza danych
Modelowanie ekonometryczne
Data analysis
Econometric modeling
Opis:
The methods for analyzing cross-classified tables are usually to test relations between two variables taken one pair at a time. Further development of those methods allowed to move from two dimensional tables to high dimensional tables, where dimensionality of a cross-table refers to the number of variables. It allowed to transform nonmodel- based to model-based methods providing the equation of a mathematical model, the use of estimation method and variety of visualizing tools. This paper describes how complex qualitative data may be described by a mathematical model. One of the method presented is log-linear analysis.
Źródło:
Studia Ekonomiczne; 2014, 195; 11-20
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Extensible event stream format for navigational data
Autorzy:
Dramski, M.
Powiązania:
https://bibliotekanauki.pl/articles/135232.pdf
Data publikacji:
2016
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
eXtensible Event Stream
XES standard
process mining
navigational data
data mining
modeling
XML
Opis:
The eXtensible Event Stream (XES) format is a new approach to illustrate the process data. Every ship journey is a sequence of some activities which can be read using different sources of data such ARPA, AIS etc. So we can say that this is a kind of process and its data can be organized in ordered and simple form. The most popular data formats to show the process data were of course XML and CSV. Currently, we can observe huge progress in the domain of process mining. Every year, new tools appeared and the need for some data standard became necessary. This standard is called Extensible Event Stream. In this paper, the use of XES format in navigational data is described.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2016, 47 (119); 61-65
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data warehouse design based on UML language
Autorzy:
Barczak, A.
Wolski, M.
Powiązania:
https://bibliotekanauki.pl/articles/92946.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
data warehouses
rational unified process
IT systems
modeling IT systems
UML
Unified Modeling Language
Opis:
Modern management in organizations of the 21st century are efficient and dynamic decisions based on collected and well analyzed data. There are growing needs with regard of data analysis related to multiplanar work in corporations force formation of new data warehouses whose construction becomes more and more complex. In this paper we present one of the design methodologies applying to the design of data warehouses. Transformations were particularly emphasized that enable the application of UML models involving Common Warehouse Metamodel.
Źródło:
Studia Informatica : systems and information technology; 2008, 1(10); 37-48
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of photogrammetric data with tools for advanced visualization of the Nostitz grange in Mściwojów
Autorzy:
Mitka, B.
Szelest, P.
Powiązania:
https://bibliotekanauki.pl/articles/100688.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
spatial data
3D modeling
visualization
optimization
wizualizacja
wizualizacja 3D
Opis:
The article describes the results of research into the possibility of the integration of spatial data available in the centers of geodetic and cartographic documentation for the modeling and visualization of rural areas, as well as the procedure to be followed from the analysis of spatial data available through their acquisition, verification and processing procedure for modeling and visualization. In article, the authors also describe issues of optimization data for all process.
Źródło:
Geomatics, Landmanagement and Landscape; 2013, 2; 75-85
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Redistribution population data across a regular spatial grid according to buildings characteristics
Autorzy:
Calka, B.
Bielecka, E.
Zdunkiewicz, K.
Powiązania:
https://bibliotekanauki.pl/articles/145418.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
dane demograficzne
siatka przestrzenna
dane topograficzne
population data
dasymetric modeling
spatial grid
choropleth map
topographic data
Opis:
Population data are generally provided by state census organisations at the predefined census enumeration units. However, these datasets very are often required at userdefined spatial units that differ from the census output levels. A number of population estimation techniques have been developed to address these problems. This article is one of those attempts aimed at improving county level population estimates by using spatial disaggregation models with support of buildings characteristic, derived from national topographic database, and average area of a flat. The experimental gridded population surface was created for Opatów county, sparsely populated rural region located in Central Poland. The method relies on geolocation of population counts in buildings, taking into account the building volume and structural building type and then aggregation the people total in 1 km quadrilateral grid. The overall quality of population distribution surface expressed by the mean of RMSE equals 9 persons, and the MAE equals 0.01. We also discovered that nearly 20% of total county area is unpopulated and 80% of people lived on 33% of the county territory.
Źródło:
Geodesy and Cartography; 2016, 65, 2; 149-162
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wyznaczanie wartości granicznych z wykorzystaniem metod grupowania danych
The determination of limit values using methods of data clustering
Autorzy:
Targosz, M.
Timofiejczuk, A.
Powiązania:
https://bibliotekanauki.pl/articles/257429.pdf
Data publikacji:
2011
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Eksploatacji - Państwowy Instytut Badawczy
Tematy:
wartości graniczne
grupowanie danych
modelowanie uszkodzeń
limits values
data clustering
failure modeling
Opis:
W artykule zaproponowano podejście do wyznaczenia wartości granicznych za pomocą algorytmów rozmytego grupowania danych. Wykorzystano algorytmy FCM, PCM oraz algorytm Gustafsona-Kessela. Eksperyment przeprowadzano na danych symulacyjnych. W tym celu zbudowano model numeryczny maszyny wirnikowej, symulującej określone stany i wielkości niewyważenia. Wyznaczone wartości graniczne porównano z wartościami otrzymanymi przy pomocy metody statystycznej. Wszystkie obliczenia wykonywano w środowisku Matlab-Simulink.
The paper describes a methodology for estimating the limit values of char-icteristics of diagnostic signals using methods of fuzzy data clustering (FCM, PCM and Gustafson-Kessel algorithms). The experiment was conducted on simulated data, using a numerical model of a rotor machine, simulating given inbalanced states. Limits were compared with value estimating using the statistical method.
Źródło:
Problemy Eksploatacji; 2011, 2; 213-221
1232-9312
Pojawia się w:
Problemy Eksploatacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przetwarzanie sygnałów w pakiecie PExSim: zasady, techniki, możliwości
Signal processing in PExSim package: principles, techniques, capabilities
Autorzy:
Syfert, M.
Wnuk, P.
Powiązania:
https://bibliotekanauki.pl/articles/277668.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
system wspomagania decyzji
przetwarzanie sygnałów
modelowanie
decision support systems
data processing
modeling
Opis:
W Instytucie Automatyki i Robotyki Politechniki Warszawskiej rozwijana jest platforma programowa systemu modelowania, zaawansowanego sterowania, monitorowania oraz diagnostyki procesów przemysłowych DiaSter. Jednym z podstawowych modułów systemu jest pakiet przetwarzania zmiennych systemowych PExSim. W pakiecie tym wykorzystano ciekawe rozwiązania z zakresu bieżącego przetwarzania sygnałów. W artykule przedstawiono zastosowane w tym pakiecie zasady przetwarzania sygnałów, techniki oraz możliwości, jakimi dysponuje użytkownik pakietu.
DiaSter is a software platform dedicated to advanced control, monitoring and diagnosis of industrial processes developed in Institute of Automatic Control and Robotics, Warsaw University of Technology. One of the main modules of the system is process variables processing package called PExSim. In this package interesting solutions for on-line signal processing are implemented. This article describes rules, techniques and possibilities for the user in area of signal processing in DiaSter system.
Źródło:
Pomiary Automatyka Robotyka; 2010, 14, 11; 84-89
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identification of unmeasured variables in the set of model constraints of the data reconciliation in a power unit
Autorzy:
Szega, M.
Nowak, G. T.
Powiązania:
https://bibliotekanauki.pl/articles/240163.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
mathematical modeling
empirical characteristics
data reconciliation
modelowanie matematyczne
charakterystyka empiryczna
rachunek wyrównawczy
Opis:
In generalized method of data reconciliation as equations of conditions beside substance and energy balances can be used equations which don't have precisely the status of conservation lows. Empirical coefficients in these equations are traded as unknowns' values. To this kind of equations, in application of the generalized method of data reconciliation in supercritical power unit, can be classified: steam flow capacity of a turbine for a group of stages, adiabatic internal efficiency of group of stages, equations for pressure drop in pipelines and equations for heat transfer in regeneration heat exchangers. Mathematical model of a power unit was developed in the code Thermoflex. Using this model the off-design calculation has been made in several points of loads for the power unit. Using these calculations identification of unknown values and empirical coefficients for generalized method of data reconciliation used in power unit has been made. Additional equations of conditions will be used in the generalized method of data reconciliation which will be used in optimization of measurement placement in redundant measurement system in power unit for new control systems.
Źródło:
Archives of Thermodynamics; 2013, 34, 4; 235-245
1231-0956
2083-6023
Pojawia się w:
Archives of Thermodynamics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawowe programy do analizy sieci
Autorzy:
Hyunjoung, Lee
Powiązania:
https://bibliotekanauki.pl/articles/303616.pdf
Data publikacji:
2019
Wydawca:
Wydawnictwo Druk-Art
Tematy:
analiza danych
wizualizacja sieci
modelowanie molekularne
data analysis
network visualization
molecular modeling
Opis:
Tradycyjna analiza danych koncentruje się na atrybutach aktora. Ponieważ jednak zachowanie aktora nie zawsze jest niezależne, konieczna jest obserwacja aktorów z perspektywy ich związków z siecią. Jest takie tradycyjne koreańskie powiedzenie, zawarte w księdze Myungshimbogam1, które w polskiej wersji brzmi: „Pokaż mi swoich przyjaciół, a powiem ci, kim jesteś”. Przytaczamy te słowa, aby zmienić punkt widzenia z atrybutów jednego aktora na sieć. Analizę Big Data z tej perspektywy można przeprowadzać za pomocą dostępnych na rynku programów do analizy sieci. Omawiamy kilka najpopularniejszych z nich, w tym UCINET (University of California Irvine NETwork), NetMiner, R, Gephi i NodeXL. UNICET i NetMiner to kompleksowe programy, w którym można stosować różne techniki analizy sieci. NodeXL oraz R to oprogramowanie do obliczeń statystycznych, natomiast Gephi służy głównie do wizualizacji. Podstawową analizę i wizualizację danych w NodeXL, można wykonać, wprowadzając dane o sieci za pomocą szablonu Excela.
Źródło:
Napędy i Sterowanie; 2019, 21, 2; 70-77
1507-7764
Pojawia się w:
Napędy i Sterowanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rule modeling of ADI cast iron structure for contradictory data
Autorzy:
Soroczyński, Artur
Biernacki, Robert
Kochański, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/29520059.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
rule modeling
contradictory data set
uncertainty
data preparation
decision tree
rough set theory
niepewność
drzewo decyzyjne
teoria zbiorów przybliżonych
Opis:
Ductile iron is a material that is very sensitive to the conditions of crystallization. Due to this fact, the data on the cast iron properties obtained in tests are significantly different and thus sets containing data from samples are contradictory, i.e. they contain inconsistent observations in which, for the same set of input data, the output values are significantly different. The aim of this work is to try to determine the possibility of building rule models in conditions of significant data uncertainty. The paper attempts to determine the impact of the presence of contradictory data in a data set on the results of process modeling with the use of rule-based methods. The study used the well-known dataset (Materials Algorithms Project Data Library, n.d.) pertaining to retained austenite volume fraction in austempered ductile cast iron. Two methods of rulebased modeling were used to model the volume of the retained austenite: the decision trees algorithm (DT) and the rough sets algorithm (RST). The paper demonstrates that the number of inconsistent observations depends on the adopted data discretization criteria. The influence of contradictory data on the generation of rules in both algorithms is considered, and the problems that can be generated by contradictory data used in rule modeling are indicated.
Źródło:
Computer Methods in Materials Science; 2022, 22, 4; 211-228
2720-4081
2720-3948
Pojawia się w:
Computer Methods in Materials Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Advanced Real-time Evaluation and Data Quality Monitoring Model Integration with FPGAs for Tokamak High-performance Soft X-ray Diagnostic System
Autorzy:
Wojenski, A.
Poźniak, K.
Mazon, D.
Chernyshova, M.
Powiązania:
https://bibliotekanauki.pl/articles/227260.pdf
Data publikacji:
2018
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
data quality monitoring
system modeling
FPGA
Verilog/VHDL
HDL
GEM detector
SXR plasma diagnostics
modular measurement system
data evaluation
Opis:
Based on the publications regarding new or recent measurement systems for the tokamak plasma experiments, it can be found that the monitoring and quality validation of input signals for the computation stage is done in different, often simple, ways. In the paper is described the unique approach to implement the novel evaluation and data quality monitoring (EDQM) model for use in various measurement systems. The adaptation of the model is made for the GEM-based soft X-ray measurement system FPGA-based. The EDQM elements has been connected to the base firmware using PCI-E DMA real-time data streaming with minimal modification. As additional storage, on-board DDR3 memory has been used. Description of implemented elements is provided, along with designed data processing tools and advanced simulation environment based on Questa software.
Źródło:
International Journal of Electronics and Telecommunications; 2018, 64, 4; 473-479
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Bayesian Small Area Model with Dirichlet Processes on the Responses
Autorzy:
Yin, Jiani
Nandram, Balgobin
Powiązania:
https://bibliotekanauki.pl/articles/1058988.pdf
Data publikacji:
2020-09-04
Wydawca:
Główny Urząd Statystyczny
Tematy:
Bayesian computation
bootstrap
predictive inference
robust modeling
computational and model diagnostics
survey data
Opis:
Typically survey data have responses with gaps, outliers and ties, and the distributions of the responses might be skewed. Usually, in small area estimation, predictive inference is done using a two-stage Bayesian model with normality at both levels (responses and area means). This is the Scott-Smith (S-S) model and it may not be robust against these features. Another model that can be used to provide a more robust structure is the two-stage Dirichlet process mixture (DPM) model, which has independent normal distributions on the responses and a single Dirichlet process on the area means. However, this model does not accommodate gaps, outliers and ties in the survey data directly. Because this DPM model has a normal distribution on the responses, it is unlikely to be realized in practice, and this is the problem we tackle in this paper. Therefore, we propose a two-stage non-parametric Bayesian model with several independent Dirichlet processes at the first stage that represents the data, thereby accommodating some of the difficulties with survey data and permitting a more robust predictive inference. This model has a Gaussian (normal) distribution on the area means, and so we call it the DPG model. Therefore, the DPM model and the DPG model are essentially the opposite of each other and they are both different from the S-S model. Among the three models, the DPG model gives us the best head-start to accommodate the features of the survey data. For Bayesian predictive inference, we need to integrate two data sets, one with the responses and other with area sizes. An application on body mass index, which is integrated with census data, and a simulation study are used to compare the three models (S-S, DPM, DPG); we show that the DPG model might be preferred.
Źródło:
Statistics in Transition new series; 2020, 21, 3; 1-19
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
BANKING RETAIL CONSUMER FINANCE DATA GENERATOR – CREDIT SCORING DATA REPOSITORY
Autorzy:
Przanowski, Karol
Powiązania:
https://bibliotekanauki.pl/articles/599626.pdf
Data publikacji:
2013
Wydawca:
Wyższa Szkoła Informatyki i Zarządzania z siedzibą w Rzeszowie
Tematy:
credit scoring
crisis analysis
banking data generator
retail portfolio
scorecard building
predictive modeling
Opis:
This paper presents two cases of random banking data generators based on migration matrices and scoring rules. The banking data generator is a breakthrough in researches aimed at finding a method to compare various credit scoring techniques. These data are very useful for various analyses to understand the complexity of banking processes in a better way and are also of use for students and their researches. Another application can be in the case of small samples, e.g. when historical data are too fresh or are connected with the processing of a small number of exposures. In these cases a data generator can extend a sample to an adequate size for advanced analysis. The influence of one cyclic macro-economic variable on client characteristics and their stability over time is analyzed. Some stimulating conclusions for crisis behavior are presented, namely that if a crisis is impacted by both factors: application and behavioral, then it is very difficult to clearly indicate these factors in a typical scoring analysis and the crisis becomes widespread in every kind of risk report.
Źródło:
Finansowy Kwartalnik Internetowy e-Finanse; 2013, 9, 1; 44-59
1734-039X
Pojawia się w:
Finansowy Kwartalnik Internetowy e-Finanse
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Information Flows Around the Globe: Predicting Opening Gaps from Overnight Foreign Stock Price Patterns
Autorzy:
De Gooijer, Jan G.
Diks, Cees G. H.
Gątarek, Łukasz T.
Powiązania:
https://bibliotekanauki.pl/articles/483377.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
Close-to-open gap forecasting
functional data analysis
international stock markets
nonparametric modeling
Opis:
This paper describes a forecasting exercise of close-to-open returns on major global stock indices, based on high-frequency price patterns that have become available in foreign markets overnight. Generally speaking, out-ofsample forecast performance depends on the forecast method as well as the information that the forecasts are based on. In this paper both aspects are considered. The fact that the close-to-open gap is a scalar response variable to a functional variable, namely an overnight foreign price pattern, brings the prediction exercise in the realm of functional data analysis. Both parametric and non-parametric functional data analysis are considered, and compared with a simple linear benchmark model. The information set is varied by dividing global markets into three clusters, Asia-Pacific, Europe and North-America, and including or excluding price patterns on a per-cluster basis. The overall best performing forecast is nonparametric using all available information, suggesting the presence of nonlinear relations between the overnight price patterns and the opening gaps.
Źródło:
Central European Journal of Economic Modelling and Econometrics; 2012, 4, 1; 23-44
2080-0886
2080-119X
Pojawia się w:
Central European Journal of Economic Modelling and Econometrics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluation of Hydrologic Modelling Using Satellite Product, and MMR Rainfall in East Java, Indonesia
Autorzy:
Hidayah, Entin
Widiarti, Wiwik Yunarni
Putra, Paksitya Purnama
Dewantie, Anggraeni Ayu
Alhamda, Muhammad Zulvi
Prastika, Hanna
Powiązania:
https://bibliotekanauki.pl/articles/2028194.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
HBV light modeling
MMR
TRMM-3B42
GPM-3IMERGDF
stationarity data
Opis:
In Indonesia, ground-based rainfall monitoring is uneven and sometimes lacks continuity especially in small watersheds, which makes hydrological modeling difficult. This paper aims to the performance evaluation of the HBV Light model from the manual measurement of rainfall (MMR), Global Precipitation Measurement (GPM3IMERGDF), and Tropical Rainfall Measuring Mission (TRMM-3B42) as input for the hydrological model. The Hydrologiska Byrans Vattenbalansavdelning (HBV) Light hydrological model is applied to three small watersheds, namely Sampean Baru, Bedadung, and Mayang. The model’s performance evaluation is assessed based on the correlation between the average rainfall data for the satellite product area and the MMR product, the stationarity of the rainfall and discharge data, and the model accuracy. The model simulation results show that the MMR rainfall in all watersheds provides a better discharge response than the other two products. Meanwhile, the simulation model of the GPM-3IMERGDF satellite product is slightly better than TRMM-3B42. The stationarity test of rainfall and discharge data needs to be enforced before modeling.
Źródło:
Journal of Ecological Engineering; 2021, 22, 11; 246-260
2299-8993
Pojawia się w:
Journal of Ecological Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Impact of n-stage latent Dirichlet allocation on analysis of headline classification
Autorzy:
Guven, Zekeriya Anil
Diri, Banu
Cakaloglu, Tolgahan
Powiązania:
https://bibliotekanauki.pl/articles/27312901.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
topic modeling
headline classification
machine learning
text classification
latent Dirichlet allocation
data analysis
Opis:
Data analysis becomes difficult when the amount of the data increases. More specifically, extracting meaningful insights from this vast amount of data and grouping it based on its shared features without human intervention requires advanced methodologies. There are topic-modeling methods that help overcome this problem in text analyses for downstream tasks (such as sentiment analysis, spam detection, and news classification). In this research, we benchmark several classifiers (namely, random forest, AdaBoost, naive Bayes, and logistic regression) using the classical latent Dirichlet allocation (LDA) and n-stage LDA topic-modeling methods for feature extraction in headline classification. We ran our experiments on three and five classes of publicly available Turkish and English datasets. We have demonstrated that, as a feature extractor, n-stage LDA obtains state-of-the-art performance for any downstream classifier. It should also be noted that random forest was the most successful algorithm for both datasets.
Źródło:
Computer Science; 2022, 23 (3); 375--394
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies