Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "database data" wg kryterium: Temat


Tytuł:
The Current Legal Regulation of Cruptocurrancies and Blockchain in the World. Sistematisation of Definitions
Autorzy:
Chernykh, Oleksandr
Powiązania:
https://bibliotekanauki.pl/articles/1931994.pdf
Data publikacji:
2021-03-31
Wydawca:
Wydawnictwo Adam Marszałek
Tematy:
blockchain technology
artificial intelligence
database data
payment services
crypto actives
cryptocurrency
crypto actives issuer
virtual assets
Opis:
The author analyses the legislation of different countries, analytical studies of international experts in order to determine trends in the legal regulation of blockchain. Regulations of government banks, regulatory organizations regarding the operation of the virtual assets and growing demand for virtual currency leads to high risks in the area crypto actives. Uncertainty and complexity of legal support for the development of blockchain technologies and artificial intelligence in economic activity leads to limited practice of regulatory definition and government processes. However, state order is to sanction the stabile existing social relations from considering international legal institutions of legal regulation, such as the protection of personal data, identification and verification subjects of entrepreneurial activity, prevention of laundering money, prevention of evasion from payment of taxes. The author draws attention to the fact that it is necessary to concentrate analyses on resolving not only virtual currency, but the system blockchain in general, to provide legal definition of those phenomena which are not associated with just speculation or payments of cryptocurrency. In the article discusses current problems of the EU, Asia, Ukraine on implementation of international standards in the field of prevention of laundering of money, protection of per sonal data and the possibility of crypto actives and use the technology of artificial intelligence, which will develop business operations, including technology blockchain.
Źródło:
Krakowskie Studia Małopolskie; 2021, 1(29); 41-55
1643-6911
Pojawia się w:
Krakowskie Studia Małopolskie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Heterogeneous Indexing Register for Object Database
Autorzy:
Chromiak, M.
Powiązania:
https://bibliotekanauki.pl/articles/106305.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
database
data integration
data
object database
Opis:
Even though the object oriented persistent stores has not gained large commercial adaptation rate, it still is an interesting research field in many aspects including the data integration. Persistent data integration is a very challenging goal in modern computer systems. This paper presents a proposal for application of effective indexing integration scheme for distributed and heterogeneous data environment using an object database as the central store.
Źródło:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica; 2016, 16, 2; 7-13
1732-1360
2083-3628
Pojawia się w:
Annales Universitatis Mariae Curie-Skłodowska. Sectio AI, Informatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Integrated database as the basis for the modern real estate cadastre
Autorzy:
Buśko, M.
Powiązania:
https://bibliotekanauki.pl/articles/101305.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Stowarzyszenie Infrastruktura i Ekologia Terenów Wiejskich PAN
Tematy:
database
data conversion
data migration
generating a map
Opis:
A comprehensive IT system to run the National Cartographic Documentation Center database (PZGiK) is currently being implemented for the city of Krakow. Part of this implementation involves the conversion of the data contained in the previous system, a lossless migration of the data contained in the previously existing analog systems, as well as adjusting the data as required by the current legal provisions. The subject of this study is to analyze the progress of this implementation in terms of building an integrated relational database and the specificity of the objects it is composed of. The analysis gave grounds to present the problems of data harmonization, associated with frequent changes in the legislation in the field of geodesy and cartography. The paper demonstrates the problems which occur when implementing the new system combined with the conversion of the National Cartographic Documentation Center database, which require solutions in the form of strategic decision making, determining the system of work of the surveying administration in Krakow over the next years.
Źródło:
Infrastruktura i Ekologia Terenów Wiejskich; 2016, IV/4; 1833-1845
1732-5587
Pojawia się w:
Infrastruktura i Ekologia Terenów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GeoWebCln: An intensive cleaning architecture for geospatial metadata
Autorzy:
Kumari Sheoran, Savita
Parmar, Vinti
Powiązania:
https://bibliotekanauki.pl/articles/2054577.pdf
Data publikacji:
2022-03-31
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
spatial data
spatial metadata
data cleaning
spatial database
GIS
Opis:
Developments in big data technology, wireless networks, Geographic information system (GIS) technology, and internet growth has increased the volume of data at an exponential rate. Internet users are generating data with every single click. Geospatial metadata is widely used for urban planning, map making, spatial data analysis, and so on. Scientific databases use metadata for computations and query processing. Cleaning of data is required for improving the quality of geospatial metadata for scientific computations and spatial data analysis. In this paper, we have designed a data cleaning tool named as GeoWebCln to remove useless data from geospatial metadata in a user-friendly environment using the Python console of QGIS Software.
Źródło:
Quaestiones Geographicae; 2022, 41, 1; 51-62
0137-477X
2081-6383
Pojawia się w:
Quaestiones Geographicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Physicochemical and thermophysical database (DAFIT) in the prospect of Java and data warehouse
Autorzy:
Bylicki, A.
Gorawski, M.
Powiązania:
https://bibliotekanauki.pl/articles/1941707.pdf
Data publikacji:
2000
Wydawca:
Politechnika Gdańska
Tematy:
physicochemical properties
thermophysical properties
database
data warenhouse
OLAP
data aggregation
Opis:
In this paper, we are discussing the meaning of DaFiT database for knowledge on physicochemical properties, methods of database access and graphical presentation. The paper presents the state of development of DaFiT database and concentrates on the application of the Java and DW technologies.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2000, 4, 1; 109-114
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptation of the “Herbarium” Computer Database to Archiving and Analysis of Floristic Data
Autorzy:
Zielińska, Katarzyna
Jakubowska-Gabara, Janina
Kołodziejek, Jeremi
Powiązania:
https://bibliotekanauki.pl/articles/764852.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
database
floristic data
cartogram method
Central Poland
Opis:
The aim of the study was to present “Herbarium” computer database. The basic goal of construction of the database was gathering and analysing of archival and contemporary floristic data referring to the area of Central Poland. Registered information considers the stands and characteristic biological and ecological traits of particular taxa. Life forms, indices of ecological requirements, the phytogeographical elements, protection and threat status are among them. The database enables the presentation of geographical distribution of taxa in the area of Central Poland with the cartogram method based on the grid of 2 km2 according to the Distribution Atlas of Vascular Plants in Poland (ATPOL).
Źródło:
Acta Universitatis Lodziensis. Folia Biologica et Oecologica; 2010, 6; 145-150
1730-2366
2083-8484
Pojawia się w:
Acta Universitatis Lodziensis. Folia Biologica et Oecologica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metadata-driven data migration from object-relational database to nosql document-oriented database
Autorzy:
Aggoune, Aicha
Namoune, Mohamed Sofiane
Powiązania:
https://bibliotekanauki.pl/articles/27312893.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
NoSQL document-oriented database
object-relational database
data migration
mapping rules
metadata
Opis:
Object-relational databases (ORDB) are powerful tools for managing complex data, but they suffer from problems of scalability and managing large-scale data. Therefore, the importance of the migration of ORDB to NoSQL derives from the fact that the large volume of data can be handled in the best way with high scalability and availability. This paper reports a metadata-driven approach for the migration of ORDB to a document-oriented NoSQL database. Our data-migration approach involves three major stages: a pre-processing stage (to extract data and a schema’s components), a processing stage (to provide data transformation), and a post-processing stage (to store migrated data as BSON documents). This approach maintains the benefits of Oracle ORDB in NoSQL MongoDB by supporting integrity constraint checking. To validate our approach, we developed the OR2DOD (object relational to document-oriented database) system, and the experimental results confirm the effectiveness of our proposal.
Źródło:
Computer Science; 2022, 23 (4); 495--519
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big Data Model "Entity and Features"
Autorzy:
Shakhovska, N.
Bolubash, U.
Veres, O.
Powiązania:
https://bibliotekanauki.pl/articles/411279.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
big data
NoSQL
document-oriented database
Big Table
Opis:
The article deals with the problem which led to Big Data. Big Data information technology is the set of methods and means of processing different types of structured and unstructured dynamic large amounts of data for their analysis and use of decision support. Features of NoSQL databases and categories are described. The developed Big Data Model “Entity and Features” allows determining the distance between the sources of data on the availability of information about a particular entity. The information structure of Big Data has been devised. It became a basis for further research and for concentrating on a problem of development of diverse data without their preliminary integration.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2015, 4, 2; 51-58
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza informacji przestrzennej w systemie TerraBit
Autorzy:
Wysocki, O.
Powiązania:
https://bibliotekanauki.pl/articles/130141.pdf
Data publikacji:
2002
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
TerraBit
baza danych
informacja przestrzenna
database
spatial data
Opis:
W artykule przedstawiono możliwości aplikacji „ TerraBit ”, krótki opis struktury systemu i pojęć w nim funkcjonujących. W dalszej części zaprezentowano funkcje wyborów i analiz obszarowych oraz algorytmy selekcji opierającej się o zapisy w metrykach konstrukcji. Artykuł zawiera również przykłady wykorzystania tych procedur dla konkretnych zapytań skierowanych do bazy danych oraz ich wyniki.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2002, 12; 366-375
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of ms access software for casing-class manufacturing features saving
Autorzy:
Gola, A.
Sobaszek, Ł
Powiązania:
https://bibliotekanauki.pl/articles/118259.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
constructional data
database
casing-class part
MS Access
Opis:
Manufacturing features are widely accepted as a means for the CAD, CAPP and CAM systems and their integration. Despite high number of works in this area, the investigations on the methods on manufacturing features saving are still limited and many results are not suitable for manufacturing systems design purposes. The paper presents possibility of using the MS Access software for saving and management of constructional data of casing-class parts. Therefore, the method of representation and saving casing-class constructional knowledge was developed. The proposed method is based on application of the design feature technique.
Źródło:
Applied Computer Science; 2014, 10, 2; 44-56
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza porównawcza wybranych narzędzi CASE do modelowania danych w procesie projektowania relacyjnych baz danych
Comparative analysis of selected CASE tools for data modeling in relational databases design
Autorzy:
Łacheciński, Sebastian
Powiązania:
https://bibliotekanauki.pl/articles/432239.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
CASE tools
data modeling
database design
modeling notations
Opis:
The article presents an attempt to evaluate commercially avaible software selected software vendors, used in the design of relational databases. In the comparative analyses both commercial and non-commercial solutions are taken into account. The research purpose is to propose a method of assessment of tools based on a modified model of usable quality presented in ISO 25010 and to select the best tool of the ones that have been evaluated.
Źródło:
Informatyka Ekonomiczna; 2014, 1(31); 237-258
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Atomic-key B-trees
Autorzy:
Drozdek, A.
Vujanović, D.
Powiązania:
https://bibliotekanauki.pl/articles/92948.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
atomic-key B-tree
data structures
database management
Opis:
Atomic-key B-trees are B-trees with keys of different sizes. This note presents two versions of an insertion algorithm and a deletion algorithm for atomic-key B-trees.
Źródło:
Studia Informatica : systems and information technology; 2015, 1-2(19); 15-26
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
History management of data : slowly changing dimensions
Zarządzanie historią danych : slowly changing dimensions
Autorzy:
Wancerz, M
Wancerz, P.
Powiązania:
https://bibliotekanauki.pl/articles/408816.pdf
Data publikacji:
2013
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
managing data history
database
data marts
zarządzanie historią
bazy danych
hurtownie danych
Opis:
The article describes few methods of managing data history in databases and data marts. There are many types of dealing with the history of the data. This article will show us some examples, point advantages and disadvantages of each of the method and show us possible scenarios of use.
Artykuł opisuje sposób zarządzania historią tabel wymiarowych w bazach danych i hurtowniach danych. Istnieje kilka sposobów na archiwizowanie historii. Artykuł ma na celu przybliżenie ich funkcjonalności popartej przykładami, wskazanie zalet i wad oraz możliwych scenariuszy użycia.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2013, 3; 55-56
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hurtownia danych jako element cyfrowej transformacji przedsiębiorstwa dla przemysłu 4.0
Data warehouse as an element of the digital transformation of the company for industry 4.0
Autorzy:
Zabroń, Mariusz
Molga, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/28328288.pdf
Data publikacji:
2023-11
Wydawca:
Uniwersytet Rzeszowski
Tematy:
baza danych
big data
chmura
hurtownia danych
modelowanie danych
database
cloud
data warehouse
data modeling
Opis:
W artykule opisano zagadnienia dotyczące budowy oraz funkcjonowania hurtowni danych. Jest to szereg procesów wspomagających działalność przedsiębiorstw i wydaje się być obecnie koniecznych we wdrażaniu pozostałych koncepcji i rozwiązań Przemysłu 4.0. W opracowaniu zostały wyjaśnione również procesy, jakie są konieczne do utworzenia hurtowni, kluczowe składniki, a także istota jej działania. Przeanalizowane zostały zalety oraz praktyki stosowane w zakresie biznesu oraz samej sferze IT. Przedstawiona została także możliwość przeniesienia hurtowni do chmury obliczeniowej oraz głównych dostawców oferujących takie usługi. Artykuł może być punktem wyjścia do bardziej szczegółowych rozważań dotyczących analityki, raportowania i archiwizacji danych we współczesnym przedsiębiorstwie.
The article describes issues related to the construction and functioning of a data warehouse. This is a series of processes supporting the activities of enterprises and seem to be necessary in the implementation of other concepts and solutions of Industry 4.0. The study also explains the processes that are necessary to create a warehouse, key components and the essence of operation. The advantages and practices used in the field of business and the IT sphere itself were analyzed. The possibility of transferring the warehouse to cloud computing was also presented as well as the main suppliers offering such services were presented. The article can be a starting point for more detailed considerations on analytics, reporting and data archiving in a modern enterprise.
Źródło:
Dydaktyka informatyki; 2023, 18, 18; 164-175
2083-3156
2543-9847
Pojawia się w:
Dydaktyka informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The importance of Big Data Analytics technology in business management
Autorzy:
Pizło, Wojciech
Kulykovets, Olena
Prokopowicz, Dariusz
Mazurkiewicz-Pizło, Anna
Kałowski, Adam
Paprocka, Małgorzata W.
Stawicka, Ewa
Skarzyńska, Edyta
Powiązania:
https://bibliotekanauki.pl/articles/20311652.pdf
Data publikacji:
2023-10-31
Wydawca:
Akademia Sztuki Wojennej
Tematy:
Big Data management
Digital Twins
new technology management
Big Data
Analytics
Scopus database
Opis:
Data processing, artificial intelligence and IoT technologies are on the rise. The role of data transfer security systems and databases, known as Big Data, is growing. The main cognitive aim of the publication is to identify the specific nature of Big Data management in an enterprise. The paper uses the bibliographic Elsevier and Springer Link databases, and the Scopus abstract database. The distribution of keywords, drawing attention to four main areas related to research directions, is indicated, i.e., Big Data and the related terms „human”, „IoT” and „machine learning”. The paper presents the specific nature of Big Data together with Kitchin and McArdle’s research, indicating the need for a taxonomic ordering of large databases. The precise nature of Big Data management, including the use of advanced analytical techniques enabling managerial decision-making, was identified. The development of Cyber Production Systems (CPS), based on BD, integrating the physical world of an enterprise with the digitisation of information as the concept of Digital Twins (DTs), was also indicated. CPS offer the opportunity to increase enterprise resilience through increased adaptability, robustness and efficiency. With DTs, manufacturing costs are reduced, the product life cycle is shortened, and production quality increases.
Źródło:
Cybersecurity and Law; 2023, 10, 2; 270-282
2658-1493
Pojawia się w:
Cybersecurity and Law
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big problems with big data
Autorzy:
Goczyła, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1954610.pdf
Data publikacji:
2020
Wydawca:
Politechnika Gdańska
Tematy:
big data
MapReduce
NoSQL database
data science
baza danych NoSQL
nauka o danych
Opis:
The article presents an overview of the most important issues related to the phenomenon called big data. The characteristics of big data concerning the data itself and the data sources are presented. Then, the big data life cycle concept is formulated. The next sections focus on two big data technologies: MapReduce for big data processing and NoSQL databases for big data storage.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2020, 24, 1; 73-81
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An efficient SQL-based querying method to RDF schemata
Autorzy:
Falkowski, M.
Jędrzejek, Cz.
Powiązania:
https://bibliotekanauki.pl/articles/970821.pdf
Data publikacji:
2009
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
semantic data
graph query
RDF
relational database
query rewriting
Opis:
Applications based on knowledge engineering require operations on semantic data. Modern systems have to deal with large data volumes and the challenge is to process and search these data effectively. One of the aspects of efficiency is the ability to query those data with respect to their semantics. In this area an RDF data model and a SPARQL query language gained the highest popularity and are de facto standards. The problem is that most data in modern systems are stored in relational databases and have no formal and precisely expressed semantics, although operations on those data are fast and scalable. Traditionally, in this area relational data are transformed to a form expected by reasoning and querying systems (usually RDF based). In this work a method of query rewriting is presented that translates a query to an RDF data structure (i.e. SPARQL query) to a SQL query executed by RDBMS. Transforming queries instead of data has many advantages and might lead to significant increase of data extraction efficiency.
Źródło:
Control and Cybernetics; 2009, 38, 1; 193-213
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The application of GIS in geological cartography
Autorzy:
Gogołek, W.
Powiązania:
https://bibliotekanauki.pl/articles/2065876.pdf
Data publikacji:
2005
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
GIS
geological cartography
map service
database
geospatial data portal
spatial data infrastructure (SDI)
Opis:
Paper contains a description of uses of Geographic Information System (GIS) in the field of geological cartography, mainly at the Polish Geological Institute (PGI). The PGI uses GIS, since a dozen years, in several mapping projects to produce databases and state-of-the-art maps: Detailed Geological Map of Poland, Hydrogeological Map of Poland, Geoenvironmental Map of Poland (all in the scale 1 : 50,000, although maps in other scales are also created). Cartographic databases are used to solve practical and scientific problems; examples are provided. Thanks to the digital maps production, aided by GIS, the spatial geological data are made available and published as maps in digital formats like raster files or vector GIS data or as online map services. Spatial geological data are the crucial part of Spatial Data Infrastructure on every level, therefore, the data should be used to create corporate (geological) SDI and should be integrated with existing SDIs, like the national SDI (www.geo-portal.pl) and the European SDI (INSPIRE).
Źródło:
Przegląd Geologiczny; 2005, 53, 10/2; 913-916
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efficiency of Technology of Access to Databases
Autorzy:
Barczak, A.
Mościcki, A.
Powiązania:
https://bibliotekanauki.pl/articles/92911.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
databases
open database connectivity
ODBC
borland data engine
BDE
activeX data objects
ADO
Opis:
In this paper the evolution of technologis of access to databases is presented. For definite systems of databases’ management (databases servers) and technologis of access, there was made an experiment, enabling to estimate the average of time of answering (realizing), definite types of questions- what means efficiency of each technologis.
Źródło:
Studia Informatica : systems and information technology; 2006, 1(7); 293-310
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dane przestrzenne w relacyjnych bazach danych
Spatial Data in Relational Databases
Autorzy:
BARTMAN, Jacek
SOBCZYŃSKI, Dariusz
Powiązania:
https://bibliotekanauki.pl/articles/457494.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rzeszowski
Tematy:
relacyjne bazy danych
dane przestrzenne
relational database
spatial data
Opis:
Do klasyczne danych zapisywanych w bazach danych w formie opisowej w ostatnim okresie dołączyły dane zaawansowane o zupełnie innym charakterze. Właściwe ich gromadzenie oraz przetwarzanie stanowi poważne wyzwanie. W niniejszej publikacji przedstawiamy korzyści, jakie uzyskujemy z poszerzenia typów przechowywanych i przetwarzanych danych, oraz problemy z tym związane. Jako przykład zaprezentowano implementację danych przestrzennych systemie MS SQL.
To the classic data stored in databases in a descriptive, recently joined Advanced data of a completely different nature. Competent their collection and processing is a major challenge. In this publication we present the benefits we get from the expansion of the types of data stored and processed, and problems associated with it. As an example of the implementation of spatial data presented MS SQL.
Źródło:
Edukacja-Technika-Informatyka; 2015, 6, 3; 244-250
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reducing transfer costs of fragments allocation in replicated distributed database using genetic algorithms
Autorzy:
Sourati, N. K
Ramezni, F
Powiązania:
https://bibliotekanauki.pl/articles/102446.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
distributed database
genetic algorithms
communication costs
GA
data segmentation
Fitness
Crossover
node
fragment data
Opis:
Distributed databases were developed in order to respond to the needs of distributed computing. Unlike traditional database systems, distributed database systems are a set of nodes that are connected with each other by network and each of nodes has its own database, but they are available by other systems. Thus, each node can have access to all data on entire network. The main objective of allocated algorithms is to attribute fragments to various nodes in order to reduce the shipping cost. Thus, firstly fragments of nodes must be accessible by all nodes in each period, secondly, the transmission cost of fragments to nodes must be reduced and thirdly, the cost of updating all components of nodes must be optimized, that results in increased reliability and availability of network. In this study, more efficient hybrid algorithm can be produced combining genetic algorithms and previous algorithms.
Źródło:
Advances in Science and Technology. Research Journal; 2015, 9, 25; 1-6
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pozyskiwanie informacji 3D o budynkach dla potrzeb trójwymiarowej wielorozdzielczej bazy topograficznej
Generation of 3D buildings for three-dimensional multiresolution topographic database
Autorzy:
Cisło-Lesicka, U.
Powiązania:
https://bibliotekanauki.pl/articles/129923.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
baza danych topograficznych
baza wielorozdzielcza
dane 3D
stereodigitalizacja
dane ewidencyjne
LIDAR
topographic database
multiresolution database
3D data
stereodigitalization
sterecadastral data
lidar
Opis:
W ramach projektu „Konwersja obiektów Bazy Danych Topograficznych do postaci trójwymiarowej dla potrzeb dynamicznej geowizualizacji” (N N526 192537) opracowywane są zasady konwersji obiektów TBD do postaci 3D oraz sposobów ich dynamicznej geowizualizacji. Koncepcja Bazy Danych Topograficznych do postaci trójwymiarowej w postaci 3D (TBD 3D) zakłada przedstawianie budynków w trójwymiarowej postaci na dwóch poziomach szczegółowości – LOD (Level of Detail). W mniej szczegółowym LOD1 budynki prezentowane będą za pomocą zgeneralizowanego modelu blokowego z płaskimi dachami. Natomiast w bardziej szczegółowym LOD2 będą posiadały zróżnicowane kształty dachów. Dla budynków na poziomie LOD2 została zaproponowana wstępna generalizacja kształtu dachów do 7 głównych typów budynków. Stopień szczegółowości przedstawiania budynków na poszczególnych poziomach LOD determinuje sposób oraz źródło pozyskania informacji wysokościowej. W niniejszym artykule zostały przedstawione różne metody pozyskania informacji o budynkach w postaci 3D wykorzystujące dostępne dane pochodzące z ewidencji gruntów i budynków, stereodigitalizacji na zdjęciach lotniczych oraz danych otrzymanych z lotniczego skaningu laserowego. Badania zostały przeprowadzone na 3 różnych obszarach przedstawiających różne formy zabudowy: zwartą, luźną i wiejską. Został zaproponowany algorytm postępowania z wykorzystaniem funkcjonalności narzędzi do przetwarzania danych lidarowych, stereodigitalizacji na zdjęciach lotniczych oraz programów typu CAD. Następnie porównano wyniki uzyskane w trakcie opisanych w niniejszym artykule badań i stwierdzono, że metoda wykorzystująca dane z lotniczego skaningu laserowego jest najbardziej efektywna. Na koniec przedstawiono wnioski z analizy przydatności zastosowanych metod pozyskania danych w zależności od stopnia szczegółowości prezentowanych danych.
The concept of three-dimensional multiresolution topographic database (TBD 3D) assumes that all features in TBD 3D exist in three dimensions on three different Levels of Detail (LOD). 3D buildings are represented in two most detailed levels. A building in LOD1 is represented by a block model with a flat roof. In LOD2 the building has differentiated roof structures. For buildings in LOD2 a preliminary generalization of the roof shape to 7 main types was proposed. The way of gaining and the type of data acquisition of the height information for 3D buildings are determined by the level of details. In this article are presented different methods of gaining 3D building models and an algorithm procedure. For modeling 3D buildings the author used 2D cadastral data, stereodigitizing on aerial images and LIDAR data. Research was conducted on 3 different test fields that represented various forms of buildings: compact, loose and rural. Next, a comparison and usefulness of those methods for three-dimensional multiresolution topographic database are presented. It was found that the method using data from airborne laser scanning is most effective for modeling 3D buildings. At the end of this article the conclusions from the analysis of suitability of the described methods, depending on the level of detail, are presented.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2010, 21; 63-73
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dlaczego Big Data?
Autorzy:
Hyunjoung, Lee
Powiązania:
https://bibliotekanauki.pl/articles/303256.pdf
Data publikacji:
2019
Wydawca:
Wydawnictwo Druk-Art
Tematy:
baza danych
inteligentne zarządzanie
analiza danych Big Data
database
intelligent management
big data analysis
Opis:
Ilość danych jest ogromna i cały czas rośnie w szalonym tempie. Jednocześnie przybywa danych zbędnych, a wykonanie bardziej efektywnej, rzetelnej analizy wymaga ich przefiltrowania i usunięcia. Umiejętność wyodrębniania ze zbiorów danych prawidłowych i przydatnych informacji staje się czymś nieodzownym. Dzięki analizie Big Data przedsiębiorstwo zyskuje możliwość oddzielenia „ziarna od plew” i poszerzenia swojej początkowo dość wąskiej perspektywy. Istotą Big Data nie jest objętość (ilość) danych, szybkość ich przepływu ani różnorodność, lecz poszerzenie horyzontów myślowych oraz inne spojrzenie na dane. Chcesz zobaczyć cały las? To nie wychodź z niego, ale wespnij się na szczyt góry. Podobnie rzeczy mają się z Big Data. Szukasz istotnych informacji? Wzbij się niczym ptak w przestworza, a im wyżej się wniesiesz, tym szersze będzie twoje pole widzenia. Aby zobaczyć z zewnątrz to, czego się nie da uchwycić, pozostając wewnątrz, potrzebny jest punkt widzenia obejmujący cały las. I tutaj właśnie wkracza Big Data.
Źródło:
Napędy i Sterowanie; 2019, 21, 2; 62-69
1507-7764
Pojawia się w:
Napędy i Sterowanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Safety Mechanisms in Relational Database as Part of the IT System of the Enterprise
Autorzy:
Berski, Szymon
Bilau, Martyna
Powiązania:
https://bibliotekanauki.pl/articles/27315803.pdf
Data publikacji:
2019
Wydawca:
STE GROUP
Tematy:
enterprise database
MySQL
data replication
data security
baza danych przedsiębiorstwa
replikacja danych
ochrona danych
Opis:
The work examines the effectiveness of the replication mechanism of the X production company database. In order to extend the functionality of the computer database of the enterprise, a model of its resource flow was created and an intensional and extensional part was created for a test database based on real enterprise resources. The model has been simplified to 3-rd normal form. The implementation was done in the MySQL database system. Two different operating systems were selected for testing: Windows and Linux. The database management system (DBMS) is working under the GPL license. MySQL DBMS offers many security mechanisms, and to secure the database, system of users permissions to objects have been selected and also an encryption of access passwords for users and connections to servers was used. A replication engine based on the binary log and the model "main server and backup server" was used to create a copy of the enterprise data.
Źródło:
New Trends in Production Engineering; 2019, 2, 2; 12-23
2545-2843
Pojawia się w:
New Trends in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research and application of rule updating mining algorithm for marine water quality monitoring data
Autorzy:
Sun, Q
Zhang, J.
Xu, X
Powiązania:
https://bibliotekanauki.pl/articles/258822.pdf
Data publikacji:
2018
Wydawca:
Politechnika Gdańska. Wydział Inżynierii Mechanicznej i Okrętownictwa
Tematy:
marine water quality monitoring
database updating
data mining
rule updating
Opis:
This paper studies the characteristics of marine water quality monitoring data monitored by photoelectric sensor network, mines the potential information from the massive data. on account of the continuous accumulation of monitoring data, this paper focuses on the study of database with numerical attribute and proposes a rule updating algorithm for solving the rule maintenance issues caused by changes in the database. according to the rule, the algorithm forms a new database from part of the original data and the new data, and searches the new database by random search, thus can avoid creating a large number of redundant rules and can quickly mine effective rules at the same time. experimental results show that this method not only can avoid mining in the whole original massive data, but also can improve work efficiency, and can quickly and effectively find new data and find useful rules in the data with high practicability.
Źródło:
Polish Maritime Research; 2018, S 3; 136-140
1233-2585
Pojawia się w:
Polish Maritime Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mining Pharmacy Database Using Evolutionary Genetic Algorithm
Autorzy:
Ykhlef, M.
ElGibreen, H.
Powiązania:
https://bibliotekanauki.pl/articles/226717.pdf
Data publikacji:
2010
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
data mining
evolutionary algorithms
genetic algorithm
pharmacy database
sequential patterns
Opis:
Medication management is an important process in pharmacy field. Prescribing errors occur upstream in the process, and their effects can be perpetuated in subsequent steps. Prescription errors are an important issue for which conflicts with another prescribed medicine could cause severe harm for a patient. In addition, due to the shortage of pharmacists and to contain the cost of healthcare delivery, time is also an important issue. Former knowledge of prescriptions can reduce the errors, and discovery of such knowledge requires data mining techniques, such as Sequential Pattern. Moreover, Evolutionary Algorithms, such as Genetic Algorithm (GA), can find good rules in short time, thus it can be used to discover the Sequential Patterns in Pharmacy Database. In this paper GA is used to assess patient prescriptions based on former knowledge of series of prescriptions in order to extract sequenced patterns and predict unusual activities to reduce errors in timely manner.
Źródło:
International Journal of Electronics and Telecommunications; 2010, 56, 4; 427-432
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
PORÓWNANIE WYNIKÓW ZASTOSOWANIA ALGORYTMÓW GENERALIZACJI KARTOGRAFICZNEJ DO UPROSZCZENIA LINII BRZEGOWEJ WYBRANYCH WÓD POWIERZCHN IOWYCH Z BAZY BDOT10K
Autorzy:
Cybulski, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/943774.pdf
Data publikacji:
2018
Wydawca:
Poznańskie Towarzystwo Przyjaciół Nauk
Tematy:
cartographic generalization
geomatics
infrastructure for spatial data
cartography
spatial database
Opis:
The article discusses the issue of cartographic generalization of surface waters based on algorithms. In the process of developing topographic maps, spatial databases play an important role, in particular, BDOT10k. According to the regulation which regulates how to make topographic maps, there are no defined principles for generalization. Therefore, the article analyzes the simplification results of three algorithms and compares them with respect to their suitability for cartographic generalization of the chosen surface waters.
Źródło:
Badania Fizjograficzne Seria A - Geografia Fizyczna; 2018, 9(69); 35-44
2081-6014
Pojawia się w:
Badania Fizjograficzne Seria A - Geografia Fizyczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The unification of the code lists provided within the data model originating from the INSPIRE technical guidelines and the ones provided for GESUT databases in the context of potential exploitation in the mining industry
Dostosowanie list słownikowych wynikających z modelu danych dla sieci użyteczności przedstawionych w wytycznych technicznych INSPIRE do zgodności ze słownikami dla baz GESUT w kontekście możliwości wykorzystania w górnictwie
Autorzy:
Zygmuniak, A.
Sokoła-Szewioła, V.
Powiązania:
https://bibliotekanauki.pl/articles/409676.pdf
Data publikacji:
2016
Wydawca:
STE GROUP
Tematy:
GESUT
INSPIRE
database
interoperability
data harmonization
baza danych
interoperacyjność
harmonizacja danych
Opis:
This study is aimed at exposing differences between two data models in case of code lists values provided there. The first of them is an obligatory one for managing Geodesic Register of Utility Networks databases in Poland [9] and the second is the model originating from the Technical Guidelines issued to the INSPIRE Directive. Since the second one mentioned is the basis for managing spatial databases among European parties, correlating these two data models has an effect in easing the way of harmonizing and, in consequence, exchanging spatial data. Therefore, the study presents the possibilities of increasing compatibility between the values of the code lists concerning attributes for objects provid- ed in both models. In practice, it could lead to an increase of the competitiveness of entities managing or processing such databases and to greater involvement in scientific or research projects when it comes to the mining industry. More- over, since utility networks located on mining areas are under particular protection, the ability of making them more fitted to their own needs will make it possible for mining plants to exchange spatial data in a more efficient way.
Niniejsze opracowanie ma na celu ukazanie różnic występujących pomiędzy dwoma modelami danych w zakresie wartości ujętych w listy słownikowe. Mowa jest o modelu obowiązkowym do stosowania w przypadku baz danych Geodezyjnej Ewidencji Sieci Uzbrojenia Terenu [9] oraz o modelu wynikającym z Wytycznych Technicznych [1] wydanych do Dyrektywy INSPIRE [2]. Jako że drugi z wymienionych stanowi podstawę prowadzenia baz danych przestrzennych wśród unijnych partnerów, wzajemne ich doprowadzenie do większej zgodności skutkuje ułatwieniem procesu harmonizacji i wymiany danych. Dlatego też wykazano możliwości pozwalające na bardziej dokładne skorelowanie wartości występujących w listach słownikowych dla atrybutów obiektów przedstawionych w obu modelach danych. W praktyce może to zwiększyć konkurencyjność podmiotów prowadzących bądź przetwarzających bazy o takim charakterze, a w przypadku branży górniczej przełożyć się na większe zaangażowanie w projekty badawcze czy naukowe. Ponadto, jako że na terenach górniczych sieci uzbrojenia terenu podlegają szczególnej ochronie, sama możliwość dostosowania ich do własnych potrzeb poprzez odpowiednie modyfikacje struktury takiej bazy umożliwi zakładom górniczym bardziej sprawną wymianę danych o przedmiotowym charakterze.
Źródło:
Management Systems in Production Engineering; 2016, 3 (23); 178-182
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Conceptual model of geotechnical information system
Autorzy:
Medved, I.
Medak, D.
Pribičević, B.
Powiązania:
https://bibliotekanauki.pl/articles/224689.pdf
Data publikacji:
2009
Wydawca:
Politechnika Warszawska. Wydział Geodezji i Kartografii
Tematy:
informacja geotechniczna
dane przestrzenne
bazy danych
geotechnical information
spatial data
database
Opis:
Geological, geodynamical and hydrological research in Zagreb area resulted in several spatial data of different lineage, coordinate systems and resolution. The goal of this paper is the gathering of data in a unique geotechnical information system, which will br the basis for further analysis. We are using ArcGIS modules for spatial and geostatistical analysis. Geotechnical information systems can be used to prevent, mitigate and alleviate damage caused by the natural disasters such as eartquakes and landslides. However, the geotechnical data bases have not been utilized extensively. Examples of using the data bases this chapter for seismic hazards assessment, planning for new structures, ground water hydrology, disaster mitigation systems of gas pipelines, and infrastructure management systems are presented.
Źródło:
Reports on Geodesy; 2009, z. 1/86; 111-114
0867-3179
Pojawia się w:
Reports on Geodesy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zarys koncepcji trójwymiarowej wielorozdzielczej bazy topograficznej
An outline of a concept for three-dimensional multiresolution topographic database
Autorzy:
Cisło, U.
Powiązania:
https://bibliotekanauki.pl/articles/130548.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
baza danych topograficznych
baza wielorozdzielcza
dane 3D
systematyka
CityGML
topographic database
multiresolution database
3D data
systematics
Opis:
W obecnej postaci Baza Danych Topograficznych (TBD) zakłada prowadzenie dwuwymiarowej, płaskiej bazy danych wektorowych i rastrowych. Natomiast w niniejszym artykule została zaproponowana koncepcja trójwymiarowej wielorozdzielczej bazy danych topograficznych (TBD 3D), która może stanowić dodatkowy moduł TBD umożliwiający trójwymiarową wizualizację oraz analizy przestrzenne. W tym celu dokonano wstępnej systematyki wybranych obiektów, które będą przedstawiane w trzech wymiarach. Obiekty TBD 3D zostały podzielone na dwie główne grupy: pozyskiwane jako 3D, dla których informacja o trzecim wymiarze będzie pozyskana z danych ewidencyjnych (ilość kondygnacji), stereodigitalizacji lub z danych lidarowych oraz pozyskiwane w wyniku superpozycji danych dwuwymiarowych z numerycznym modelem rzeźby terenu. Ponadto, ponieważ TBD 3D przewidywana jest jako baza wielorozdzielcza, został zaproponowany podział na 3 poziomy szczegółowości (LoD). Wybrane obiekty zostały przydzielone do poszczególnych LoD.
In its present form, the Topographic Database (TBD) under development in Poland assumes a two-dimensional, flat vector and raster database. In contrast, this paper outlines a concept for a three-dimensional multiresolution topographic database (TBD 3D). The TBD 3D is intended to be an additional module in the current TBD for three-dimensional visualization or spatial analysis. To this end, a preliminary classification of selected TBD 3D objects was carried out. The objects were divided into two main groups. The first group consists of objects which will be procured in 3D. The objects will be presented in two forms: as true objects (e.g., buildings) or as 3D symbols. In TBD 3D, information about three dimensions of the true objects will be collected from the Land and Buildings Cadastre (number of floors), by stereodigitizing or from LIDAR data. Those objected represented by 3D symbols are divided into three sub-groups: the objects represented by 3D symbols with known (e.g., from surveying) height, the objects represented by 3D symbols with arbitrarily established height, and the objects represented by simple 3D symbols. The other group consists of objects the three dimensionality of which resulted from the superposition of 2D data onto a digital terrain model (e.g., roads, trains, watercourses, land use). In addition, TBD 3D is intended to be a multiresolution database. In TBD 3D, objects are organized at 3 different Levels of Detail (LoD) where objects become more detailed with increasing LoD, both in geometry and thematic differentiation. As in OpenGIS CityGML Encoding Standard the coarsest level LoD0 is essentially the Digital Terrain Model onto which an orthophotomap is draped. LoD1 is the block model comprising prismatic buildings with flat roofs and other objects (e.g., roads, watercourses, land use) draped on the DTM and orthophotomap. In contrast, a building in LoD2 has differentiated roof structures and textures. Single features may also be represented by 3D symbols (e.g. plants, bus stops, traffic lights). For the future development, more detailed Levels of Detail were proposed, e.g., architectural objects with detailed wall and roof structures, balconies, bays and projections in LoD3. In addition, highresolution textures can be mapped onto these structures. Other components of a LoD3 model include details of plant cover and transportation objects. The most detailed Level of Detail, LoD4, supplements a LoD3 model by adding interior structures such as rooms, inner doors, stairs, and furniture.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2008, 18a; 49-57
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on big data attribute selection method in submarine optical fiber network fault diagnosis database
Autorzy:
Chen, G.
Powiązania:
https://bibliotekanauki.pl/articles/259788.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Inżynierii Mechanicznej i Okrętownictwa
Tematy:
submarine optical fiber network
fault diagnosis database
big data attribute selection
Opis:
At present, in the fault diagnosis database of submarine optical fiber network, the attribute selection of large data is completed by detecting the attributes of the data, the accuracy of large data attribute selection cannot be guaranteed. In this paper, a large data attribute selection method based on support vector machines (SVM) for fault diagnosis database of submarine optical fiber network is proposed. Mining large data in the database of optical fiber network fault diagnosis, and calculate its attribute weight, attribute classification is completed according to attribute weight, so as to complete attribute selection of large data. Experimental results prove that ,the proposed method can improve the accuracy of large data attribute selection in fault diagnosis database of submarine optical fiber network, and has high use value.
Źródło:
Polish Maritime Research; 2017, S 3; 121-127
1233-2585
Pojawia się w:
Polish Maritime Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GMU Safety Interactive Platform Organization and Possibility of its Applications
Autorzy:
Kuligowska, E.
Torbicki, M.
Powiązania:
https://bibliotekanauki.pl/articles/2068776.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Morski w Gdyni. Polskie Towarzystwo Bezpieczeństwa i Niezawodności
Tematy:
data processing
database
critical infrastructure
impact model
prediction
risk
safety
software
Opis:
The organization and a possibility of the Gdynia Maritime University (GMU) Safety Interactive Platform applications are described. The GMU Platform structure and main functions of its particular parts are presented. Moreover, the future plans about the usage and extension of the GMU Platform are shown.
Źródło:
Journal of Polish Safety and Reliability Association; 2018, 9, 2; 99--114
2084-5316
Pojawia się w:
Journal of Polish Safety and Reliability Association
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
BDOT500 Database of Physical Topographic Objects – Basic Qualitative Analysis
Bazy danych obiektów topograficznych BDOT500 – podstwowa analiza jakościowa
Autorzy:
Ślusarski, M.
Powiązania:
https://bibliotekanauki.pl/articles/100278.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
topographical object database
metadata
spatial data quality
metadane
topografia
BDOT500
Opis:
Official databases, which gather spatial data, should include sets of metadata, which serve to describe the information within. The fundamental element of a metadata set consists in the features describing the quality and relative importance of geospatial data. In the present work, we propose a method for the evaluation of database quality pertaining to databases of topographic objects (BDOT500) based on four criteria: location accuracy, completeness, validity (in the sense of being up to date) and logical coherence. Overall quality evaluation of the BDOT500 database was carried out using the calculation of two estimation factors: average absolute value and the coefficient of average variation. The method described herein is a useful device, which allows for a quick and credible evaluation of the BDOT500 data quality at a basic level. Applying the method does not require involving any additional means, as all the necessary information is already recorded inside the database.
Urzędowe bazy danych gromadzące dane przestrzenne powinny zawierać zbiory metadanych, służące do ich opisu. Zasadniczym elementem zbioru metadanych są cechy opisujące jakość i ważność danych przestrzennych. W pracy zaproponowano metodę oceny jakości baz danych obiektów topograficznych (BDOT500) opartą na czterech kryteriach: dokładności położenia, kompletności, aktualności i spójności logicznej. Całościową ocenę jakości danych bazy BDOT500 przeprowadzono poprzez obliczenie dwóch estymatorów: wartości przeciętnej absolutnej oraz współczynnika zmienności średnich. Przedstawiona metoda to sposób na szybką i wiarygodną ocenę jakości danych BDOT500 na poziomie podstawowym. Zastosowanie tej metody nie wymaga angażowania dodatkowych środków, wszystkie potrzebne informacje zapisane są w systemie bazy danych.
Źródło:
Geomatics, Landmanagement and Landscape; 2015, 1; 69-75
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identifying part commonalities in a manufacturing company database
Autorzy:
Kwapisz, J.
Infante, V.
Powiązania:
https://bibliotekanauki.pl/articles/94923.pdf
Data publikacji:
2016
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
commonality
data mining
industrial database analysis
part reuse
product platform
product family
Opis:
Manufacturing companies that produce and assemble multiple products rely on databases containing thousands or even millions of parts. These databases are expensive to support, maintain and the inherent complexity does not allow end users to utilize fully such databases. Designers and engineers are often not able to find previously created parts, which they could potentially reuse, and they add one more part to the database. Engineered improvements without removal of the previous version of the component also cause the avoidable increase of elements in the database. Reuse of parts or planned development of common parts across products brings many benefits for manufacturers. Search algorithm utilized across part databases and varying projects allows identifying similar parts. The goal is to compare part names and attributes resulting in the assignment of a similarity score. Determining common and differentiating part attributes and characteristics between pairs of components allows nominating parts that can become shared in different products. The case study utilizes an industrial example to evaluate and assess the feasibility of the proposed method for identifying commonality opportunities. It turned out that it is possible to find many parts that can be potentially shared between different products.
Źródło:
Information Systems in Management; 2016, 5, 3; 336-346
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Expanding the possibilities of AIS data with heuristics
Autorzy:
Smestad, B.B.
Rødseth, Ø.J.
Asbjjørnslett, B.E.
Powiązania:
https://bibliotekanauki.pl/articles/116611.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Morski w Gdyni. Wydział Nawigacyjny
Tematy:
Automatic Identification System (AIS)
AIS Data
heuristics
commercial ship data registers
heuristic training
heuristic testing
satellite AIS Data
commercial vessel database
Opis:
Automatic Identification System (AIS) is primarily used as a tracking system for ships, but with the launch of satellites to collect these data, new and previously untested possibilities are emerging. This paper presents the development of heuristics for establishing the specific ship type using information retrieved from AIS data alone. These heuristics expand the possibilities of AIS data, as the specific ship type is vital for several transportation research cases, such as emission analyses of ship traffic and studies on slow steaming. The presented method for developing heuristics can be used for a wider range of vessels. These heuristics may form the basis of large-scale studies on ship traffic using AIS data when it is not feasible or desirable to use commercial ship data registers.
Źródło:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation; 2017, 11, 2; 279-286
2083-6473
2083-6481
Pojawia się w:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Topograficzne modelowanie czasoprzestrzeni geograficznej na przykładzie ewolucji modelu pojęciowego TBD/BDOT
Topographic modeling of geographic space-time on the example of the evolution of TBD/BDOT conceptual models
Autorzy:
Głażewski, A.
Powiązania:
https://bibliotekanauki.pl/articles/346379.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
dane referencyjne
model pojęciowy
baza danych topograficznych (TBD)
baza danych obiektów topograficznych (BDOT)
spójność danych
reference data
conceptual model
topographic database (TBD)
Topographic Objects Database (BDOT)
data coherence
Opis:
Od rozpoczęcia praktycznego wdrażania w Polsce zasad budowy infrastruktury informacji przestrzennej zawartych w dyrektywie INSPIRE mijają 3 lata, a właśnie ów moment (przełom lat 2009/2010) można uznać za pewną cezurę w funkcjonowaniu infrastruktury informacji przestrzennej w naszym kraju. Warto w tym kontekście przedstawić ewolucję topograficznego modelowania rzeczywistości geograficznej, czyli takiej rejestracji element ów czasoprzestrzeni, która jest właściwa topografii, dostarczającej jednoznacznej, możliwie precyzyjnej, i spójnie uogólnionej informacji o położeniu i cechach elementów terenu. Jako przykład tej ewolucji wybrano model pojęciowy Bazy Danych Topograficznych (TBD), zreformowanej kilka lat temu (a formalnie w roku 2011) do Bazy Danych Obiektów Topograficznych (BDOT), którego zasadnicze etapy i kierunki rozwoju zostaną tu przedstawione. Model pojęciowy (konceptualny) bazy danych przestrzennych jest opisem abstrakcji rzeczywistości czasoprzestrzennej, zawierającym definicje zbiorów encji dotyczących opisywanego fragmentu tej rzeczywistości, wraz ze wzajemnymi powiązaniami tych zbiorów oraz warunkami powiązań i atrybutów samych encji. Opis ten jest tak sformalizowany, aby był czytelny dla narzędzi informatycznych, a jeśli stosuje język formalny (np. UML), to można go nazwać schematem pojęciowym i wykorzystać do implementacji modelu (Głażewski, 2009). Badania nad poruszaną problematyką, obejmujące także szersze spektrum zagadnień, prowadzono w ramach dwóch projektów, które zbiegają się w czasie, ale też stanowią przedmiot współpracy eksperckiej Wydziału Geodezji i Kartografii Politechniki Warszawskiej z Głównym Urzędem Geodezji i Kartografii. Pierwszy projekt, typowo naukowy, prowadzony przez Zakład Kartografii Politechniki Warszawskiej i finansowany przez Narodowe Centrum Nauki, pt. Opracowanie metodyki zasilania, generalizacji, wizualizacji i prowadzenia analiz przestrzennych w środowisku wielorozdzielczej bazy danych topograficznych BDG, jest nastawiony na poszukiwanie nowych rozwiązań metodycznych i technologicznych z wymienionych w temacie zakresów.
In this two projects are considered. The first, practical one, leads to development of the national reference database according to Technical Guidelines TBD and is run by the Head Office of Geodesy and Cartography (GUGiK). It's financed by the European Regional Development Fund - ERDF, within the framework of the 7th Priority Axis of the Operational Programme Innovative Economy, and titled -Georeference Database of Topographic Objects (BDOT) with the National Management System "The second project, strictly scientific, is run by Cartography Department on the Faculty of Geodesy and Cartography of Warsaw University of Technology, titled" Developing of methodology of integration, visualization, generalization and leading the spatial analysis in environment of multiresolution reference database". Both of them are in the same phase and refer to the same products, so they are complementary. Research work with new ideas can be implemented in practice, and the basic limitations in database production have to be honored in developing theoretical works. The main objective of the paper is to present the evolution of conceptual model TBD/BDOT, referring to standards offered by database theory and wider context of modeling the elements of geographic reality. The conceptual model of Topographic DataBase (TBD), developed in 2003, was the best at that time and became an example for reflections on classification or modeling in next generations of products. The next stage of topographic modeling in our country was the concept of Multiresolution Topographic DataBase - dated from the era of INSPIRE.
Źródło:
Roczniki Geomatyki; 2013, 11, 1(58); 69-83
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance Modeling of Database Systems: a Survey
Autorzy:
Krajewska, A.
Powiązania:
https://bibliotekanauki.pl/articles/309263.pdf
Data publikacji:
2018
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
database systems
NoSQL data stores
performance evaluation
queueing networks
queueing Petri nets
Opis:
This paper presents a systematic survey of the existing database system performance evaluation models based on the queueing theory. The continuous evolution of the methodologies developed is classified according to the mathematical modeling language used. This survey covers formal models – from queueing systems and queueing networks to queueing Petri nets. Some fundamentals of the queueing system theory are presented and queueing system models are classified according to service time distribution. The paper introduces queueing networks and considers several classification criteria applicable to such models. This survey distinguishes methodologies, which evaluate database performance at the integrated system level. Finally, queueing Petri nets are introduced, which combine modeling power of queueing networks and Petri nets. Two performance models within this formalism are investigated. We find that an insufficient amount of research effort is directed into the area of NoSQL data stores. Vast majority of models developed focus on traditional relational models. These models should be adapted to evaluate performance of non-relational data stores.
Źródło:
Journal of Telecommunications and Information Technology; 2018, 4; 37-45
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Novel Graph-modification Technique for User Privacy-preserving on Social Networks
Autorzy:
Hamideh Erfani, Seyedeh
Mortazavi, Reza
Powiązania:
https://bibliotekanauki.pl/articles/958060.pdf
Data publikacji:
2019
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
graph-modification
social networks
privacypreserving publication of data
graph anonymization
database security
Opis:
The growing popularity of social networks and the increasing need for publishing related data mean that protection of privacy becomes an important and challenging problem in social networks. This paper describes the (k,l k,l k,l)-anonymity model used for social network graph anonymization. The method is based on edge addition and is utility-aware, i.e. it is designed to generate a graph that is similar to the original one. Different strategies are evaluated to this end and the results are compared based on common utility metrics. The outputs confirm that the na¨ıve idea of adding some random or even minimum number of possible edges does not always produce useful anonymized social network graphs, thus creating some interesting alternatives for graph anonymization techniques.
Źródło:
Journal of Telecommunications and Information Technology; 2019, 3; 27-38
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kluczowe etapy tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących
Key stages of designing and developing the Metrological Database Information System for testing and calibration laboratories
Autorzy:
Świerzowicz, J.
Adamczyk, K.
Tabisz, R. A.
Powiązania:
https://bibliotekanauki.pl/articles/157030.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
bazy danych
operacyjne bazy danych
analityczne bazy danych
hurtownie danych
jakość modelu danych
metrologiczne bazy danych
laboratoria badawcze i wzorcujące
walidacja procesów pomiarowych
database
operating database
analytical database
data warehouse
data quality model
metrological database
testing and calibration laboratories
measurement processes validation
Opis:
Uzasadniono potrzebę tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących. Wyjaśniono, dlaczego system taki powinien składać się z dwóch baz danych: bazy operacyjnej oraz bazy analitycznej zwanej także hurtownią danych. Opisano najważniejsze etapy tworzenia takiego systemu decydujące o jego ostatecznej strukturze zapewniającej oczekiwaną funkcjonalność oraz dostępność dla różnego rodzaju laboratoriów za pomocą sieci Internet. Przedstawiono wyniki badań opracowanego modelu operacyjnej bazy danych, stanowiącej część tworzonego systemu. Zaproponowano porządek dalszych działań zmierzających do utworzenia części analitycznej, która stanowić będzie drugą istotną część tego systemu. Wskazano na potrzebę właściwego podziału ról w zespole realizującym projekt i uzasadniono przyjętą metodykę dalszych działań.
The need for developing the Metrological Database Information System for the network of testing and calibration laboratories is shown in the paper. It is explained why such a system should consist of two databases: operational and analytical (called also a data warehouse). The most important stages of creating such a system deciding on its final structure are described. The structure ensures the expected functionality and availability of different kinds of laboratories by the Internet. The investigation results of the model of the operating database being the part of the created system are presented. There is proposed the sequence of further works aiming at creation of the analytical part which will be the second, essential part of this system. The need of the appropriate division of roles in the team carrying out the project is emphasized and the assumed methodology of further works is shown.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 12, 12; 869-873
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie multimedialnych rozszerzeń baz danych w dydaktyce przedmiotów informatycznych
The Database Multimedia Extensions in Teaching Informatics Subjects
Autorzy:
DYMORA, Paweł
MAZUREK, Mirosław
MROCZKA, Bogumił
Powiązania:
https://bibliotekanauki.pl/articles/457710.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rzeszowski
Tematy:
nauczanie
przedmioty bazodanowe i programistyczne
typy multimedialne
środowisko Oracle
JSP
teaching
database and programming subjects
multimedia data types
Oracle database system
Opis:
W artykule przedstawiono właściwości współczesnych baz danych w zakresie mechanizmów składowania i obsługi multimedialnych typów danych. Zaprezentowano możliwość budowy interaktywnej aplikacji internetowej opartej na relacyjno-obiektowej bazzie danych wykorzystującej multimedialne typy danych dostępne w bibliotekach Oracle Multimedia oraz technologii JSP. Tematyka ta może być z powodzeniem wykorzystana w dydaktyce przedmiotów bazodanowych oraz programistycznych.
The paper presents the characteristics of modern databases in terms of storage and handling mechanisms of multimedia data types. Presents the possibility to build an interactive web applications on the basis of object-oriented relational database that uses multimedia object types available in libraries Oracle Multimedia and JSP programming language. This subject can be successfully used in the teaching the database and programming subjects.
Źródło:
Edukacja-Technika-Informatyka; 2015, 6, 3; 308-322
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Scheme for Template Security at Feature Fusion Level in Multimodal Biometric System
Autorzy:
Selwal, A.
Gupta, S. K.
Kumar, S.
Powiązania:
https://bibliotekanauki.pl/articles/102518.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
feature template
biometric data
feature vectors
multimodal biometrics
fuzzy sets
database
feature fusion
Opis:
Biometrics is the science of human recognition by means of their biological, chemical or behavioural traits. These systems are used in many real life applications simply from biometric based attendance system to providing security at a very sophisticated level. A biometric system deals with raw data captured using a sensor and feature template extracted from raw image. One of the challenges being faced by designers of these systems is to secure template data extracted from the biometric modalities of the user and protect the raw images. In order to minimize spoof attacks on biometric systems by unauthorised users one of the solutions is to use multi-biometric systems. Multi-modal biometric system works by using fusion technique to merge feature templates generated from different modalities of the human. In this work, a novel scheme is proposed to secure template during feature fusion level. The scheme is based on union operation of fuzzy relations of templates of modalities during fusion process of multimodal biometric systems. This approach serves dual purpose of feature fusion as well as transformation of templates into a single secured non invertible template. The proposed technique is irreversible, diverse and experimentally tested on a bimodal biometric system comprising of fingerprint and hand geometry. The given scheme results into significant improvement in the performance of the system with lower equal error rate and improvement in genuine acceptance rate.
Źródło:
Advances in Science and Technology. Research Journal; 2016, 10, 31; 23-30
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data structures in models of informatively-administrative architecture of coal-mining enterprises
Structury dannykh v modeljakh informacionno-upravlencheskikh arkhitektur ugledobyvajushhikh predprijatijj
Autorzy:
Shevchenko, S.
Powiązania:
https://bibliotekanauki.pl/articles/793675.pdf
Data publikacji:
2013
Wydawca:
Komisja Motoryzacji i Energetyki Rolnictwa
Tematy:
coal mining
information technology
database
data structure
technological characteristics
functional characteristics
monitoring
relationship
Źródło:
Teka Komisji Motoryzacji i Energetyki Rolnictwa; 2013, 13, 3
1641-7739
Pojawia się w:
Teka Komisji Motoryzacji i Energetyki Rolnictwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Influence of using cryptography on data processing in RDBMS Oracle 10g
Wpływ stosowania mechanizmów kryptograficznych na przetwarzanie danych w SZBD Oracle 10g
Autorzy:
Apolinarski, M.
Powiązania:
https://bibliotekanauki.pl/articles/153607.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
bezpieczeństwo baz danych
kryptografia w bazach danych
transparent data encryption
database security
cryptography in database
Oracle 10g
Oracle advanced security
Opis:
Ensuring the confidentiality, privacy and integrity of data is a major issue for the security of database systems. In this paper the author investigates the efficiency of data processing in relational database management system Oracle 10g when built-in mechanism called Transparent Data Encryption (TDE) is used to encrypt table columns in order to increase data confidentiality and for data integrity control. Transparent Data Encryption supports table columns encryption using 3DES and AES algorithms with 128-, 192, 256-bits key length and data integrity using cryptographic hash function SHA-1.
Zapewnienie poufności, integralności i prywatności danych ma bardzo duże znaczenie dla bezpieczeństwa systemów informatycznych, a w szczególności dla bezpieczeństwa systemów baz danych. W tym artykule autor przedstawia wyniki doświadczenia badającego wpływ mechanizmów kryptograficznych na wydajność przetwarzania danych w systemie zarządzania relacyjną bazą danych (SZBD) Oracle 10g z wykorzystaniem wbudowanego narzędzia Transparent Data Encryption (TDE). Mechanizm TDE przeznaczony jest do szyfrowania kolumn tabeli w celu podwyższenia stopnia poufności danych i kontroli integralności danych. Transparent Data Encryption obsługuje szyfrowanie kolumn tabeli przy użyciu algorytmów kryptograficznych 3DES lub AES z kluczem 128-bitowym, 192-bitowym lub 256-bitowym. Do kontroli integralności danych wykorzystywana jest kryptograficzna funkcja skrótu SHA-1 generująca skrót o długości 160-bitów. Przeprowadzone testy obejmowały pomiary wydajności operacji SELECT, INSERT oraz UPDATE na przygotowanej kolekcji 10000 krotek danych.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 12, 12; 1540-1543
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie schematu aplikacyjnego GML dla potrzeb trójwymiarowej wielorozdzielczej bazy topograficznej
GML application schema for three-dimensional multiresolution topographic database
Autorzy:
Cisło-Lesicka, U.
Powiązania:
https://bibliotekanauki.pl/articles/129927.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
baza danych topograficznych
baza wielorozdzielcza
dane 3D
GML
schemat aplikacyjny GML
topographic database
multiresolution database
3D data
GML application schema
Opis:
W ramach badań wykonywanych w projekcie „Konwersja obiektów Bazy Danych Topograficznych do postaci trójwymiarowej dla potrzeb dynamicznej geowizualizacji” (N N526 192537) opracowywana jest koncepcja Bazy Danych Topograficznych w postaci 3D (TBD3D), która może stanowić dodatkowy moduł TBD umożliwiający trójwymiarową wizualizację danych topograficznych. Tworzona koncepcja zakłada istnienie obiektów w trzech wymiarach na trzech poziomach szczegółowości. Obiekty w TBD3D będą przedstawiane w swej zgeneralizowanej postaci 3D lub za pomocą symboli 3D. Trójwymiarowe obiekty TBD3D będą pozyskiwane z danych ewidencyjnych, stereodigitalizacji lub z danych lidarowych albo jako dane pozyskiwane w wyniku superpozycji danych dwuwymiarowych z numerycznym modelem rzeźby terenu. Jednym z etapów niniejszych badań było opracowanie schematu aplikacyjnego GML dla potrzeb TBD3D (TBD3DGML) w celu przesyłania danych pomiędzy różnymi systemami geoinformacyjnymi oraz udostępniania ich przez Internet. Schemat ten pod kątem struktury plików i katalogów oparto na dotychczasowym schemacie dla dwuwymiarowych danych TBDGML. Natomiast geometria i budowa poszczególnych obiektów została dostosowana do wymogów trzeciego wymiaru i standardu GML3.1 oraz GML3.2. Dodatkowo ze standardu CityGML zaczerpnięto możliwość opisywania obiektów prototypowych (ImplicitGeometry) oraz wykorzystano moduł Appearance i TexturedSurface umożliwiający definiowanie wyglądu powierzchni. Opracowany schemat aplikacyjny TBD3DGML został przetestowany na wybranych obiektach TBD3D przedstawiających wszystkie wykorzystane w schemacie typy geometrii. Do zapisu danych w schemacie TBD3DGML wykorzystano oprogramowanie FME firmy Safe Software. Wygenerowane dane zostały następnie zwalidowane pod kątem zgodności z opracowanym schematem TBD3DGML i wczytane do przeglądarki GML AristotelesViewer v.1.3.
In the research performed in the project "Conversion Topographic Data Base objects to three-dimension for dynamic geo-visualization" (N N526 192537) is developed a concept of 3D Topographic Data Base (TBD3D). TBD3D is intended to be an additional module of existing 2D civil Topographic Data Base (TBD) that allows three-dimensional visualization of topographic data. Conception of three-dimensional multiresolution topographic database (TBD3D) assume that all features in TBD3D exist in three dimensions on three different Levels of Detail (LOD). Features in TBD3D will be presented in two forms: as real generalized features (e.g. buildings) or by 3D symbols. Information about three dimension of real features will be gain from Land and Buildings Cadastre (number of storeys), stereodigitizing, LIDAR data or from superposition of 2D data with digital terrain model (e.g. roads, trains, watercourses, landuse). One of the stages of this research was to develop a GML application schema for TBD3D (TBD3DGML) to transfer data between different geo-information systems and share them over the Internet. The structure of files and directories of this schema is based on the existing schema for 2D topographic data TBDGML. While the geometry and definition of TBD3D objects has been adapted to the requirements and standards of the third dimension and GML3. In addition, in TBD3DGML schema it is possible (as in CityGML) to describe the prototype objects (ImplicitGeometry) and define the appearance of the surface by means of Appearance or TexturedSurface schemas. Developed application schema TBD3DGML was tested at selected TBD3D objects representing all geometry types used in the schema. FME Safe Software was used to write data in the TBD3DGML schema. Then generated data were validated for compliance with the developed schema and loaded into the GML browser AristotelesViewer v.1.3.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 61-70
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawy budowy skutecznych metod ochrony statystycznych baz danych
Autorzy:
Szafrański, Bolesław
Powiązania:
https://bibliotekanauki.pl/articles/543671.pdf
Data publikacji:
2017
Wydawca:
Główny Urząd Statystyczny
Tematy:
database
data protection
controlling
access
flow and inference
statistical database
baza danych
ochrona danych
sterowanie: dostępem, przepływem i wnioskowaniem
statystyczna baza danych
Opis:
Głównym celem artykułu jest zwrócenie uwagi na znaczenie prac badawczo-rozwojowych dotyczących metod ochrony statystycznych baz danych w sytuacji, gdy uniwersalne systemy zarządzania bazami danych nie mają mechanizmów wspierających w wymaganym stopniu bezpieczeństwa baz statystycznych. W pracy przedstawiono podstawowe modele sterowania dostępem i przepływem danych oraz wykazano ich ograniczoną przydatność dla statystycznych baz danych. Omówiono też specyfikę problemu bezpieczeństwa tego typu baz danych oraz metod ataku na nie i ich ochrony. W konkluzji stwierdzono, że w Polsce nie obowiązują powszechnie uznane, teoretyczne podstawy budowy bezpiecznych mechanizmów ochrony statystycznych baz danych. Prace dotyczące ochrony danych mają charakter przyczynkarski, odległy od możliwości komercyjnego wdrożenia uzyskanych wyników. Istnieje zatem potrzeba prowadzenia prac interdyscyplinarnych GUS i uczelnianych zespołów badawczych.
The main aim of this article was to highlight to the importance of research and experimental development studies concerning methods for the protection of statistical databases, when the universal database management systems do not provide the mechanisms supporting the required security level of statistical bases. The study presents the basic models of controlling access and data flow, and it proves their limited relevance to statistical databases. Moreover, the specific nature of security issues as well as methods of attacking and protecting such databases were discussed. In conclusion, it was stated that Poland does not apply universally recognized, theoretical basics for the development of secure protection mechanisms of statistical databases. The work on data protection was fragmentary, distant from the possibilities of commercial implementation of the results. Therefore, there is a need for interdisciplinary work of the CSO and academic research teams.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2017, 3
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Development of technical solutions for realisation of intelligent transport systems
Opracowywanie rozwiązań technicznych dla wdrażania inteligentnych systemów transportowych
Разработка технических решений для реализации интеллектуальных транспортных систем
Autorzy:
Kulik, A.
Dergachov, K.
Firsov, S.
Kharina, N.
Powiązania:
https://bibliotekanauki.pl/articles/961503.pdf
Data publikacji:
2013
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
intelligent transport systems
intellectual analysis of data
monitoring
routing
navigation database
inteligentne systemy transportowe
Opis:
This article focuses on the development of architecture and technical solutions for implementation intelligent transport systems (ITS). The presented system will perform the following functions: monitoring the movement of an object collecting and displaying information about the state of the road, warning of the approaching object to obstacles, routing, as well as control of movement and speed of the output parameters of the recommendations of the movement, the development of intelligent decisions about the choice of optimal routes, intellectual analysis of data (IAD) of the style and movement of the driver (the influence of alcohol), IAD on the technical parameters of the vehicle. Thus, it is advisable for ITS to be divided into several subsystems, which are related but are responsible for one or more functional tasks. Consequently, the need for monitoring the movement subsystem, the database on the state of the object database on the location of an object, display subsystem, the subsystem of control of the road, the engine safety (prevention of obstacles), the subsystem control parameters of movement, routing subsystem.
Статья посвящена разработке архитектуры и технических решений для реализации интеллектуальных транспортних систем. Представляемая система будет выполнять следующее функции: мониторинг движения объекта, сбор и отображение информации о состоянии дороги, предупреждение о приближении объекта к препятствиям, маршрутизация, а так же контроль скорости движение и вывод рекомендаций о параметрах движения, разработка интеллектуальных решений о выборе оптимальных маршрутов, интеллектуальном анализе данных (ИАД) о стиле и движении водителя (влиянию алкоголя), ИАД о технических параметрах транспортного средства. Таким образом, целесообразно ITS разделить на несколько подсистем, которые будут взаимосвязаны, но отвечают за одну или несколько функциональных задач. Для реализации этих функций, необходима подсистема мониторинга движения, база данных о состоянии объекта, база данных о местоположении объекта, подсистема отображения информации, подсистема контроля дороги, подсистема безопасности движения (предупреждения о препятствиях), подсистема контроля параметров движения, подсистема маршрутизации.
Źródło:
Transport Problems; 2013, 8, 1; 27-33
1896-0596
2300-861X
Pojawia się w:
Transport Problems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Gromadzenie danych do budowy modeli ruchu - przegląd możliwości
Acquiring data for traffic models – recent developments
Autorzy:
Kucharski, R.
Powiązania:
https://bibliotekanauki.pl/articles/193091.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
modelowanie ruchu
integracja danych
systemy baz danych
GIS
transport modeling
database systems
data integration
Opis:
W polskich warunkach możliwa jest poprawa jakości modeli ruchu , a jednym z potencjalnych sposobów poprawy jest zgromadzenie i wykorzystanie w modelowaniu baz danych. Baza danych wejściowych to kluczowa sprawa dla jakości modelu ruchu. Jeśli model ma spełniać swoje zadanie, to musi być zbudowany w oparciu o bogatą i dokładną bazę danych. Równie istotną sprawą jest jej regularna aktualizacja , a jej zmiany powinny pociągać za sobą aktualizacje modelu. W artykule autor opisuje, jakie dane są dostępne i w jaki sposób można je wykorzystać w modelowaniu ruchu. Na kilku przykładach pokazano w praktyczny sposób, jak można wzbogacić bazę danych używanych do modelowania ruchu. Opisano cztery przykłady dobrych praktyk, w szczególności: protokół przesyłu danych o sieci i rozkładzie jazdy transportu zbiorowego z serwisu jakdojade.pl do programu do modelowania ruchu, możliwość użycia danych przestrzennych GIS do tworzenia modelu sieci transportowej, możliwość użycia danych przestrzennych z podkładów GIS do obliczania produkcji i atrakcji rejonów komunikacyjnych w jednym z programów do modelowania ruchu oraz wykorzystanie wyników automatycznej rejestracji tablic rejestracyjnych (ARTR) w modelowaniu. Na wielu konferencjach dotyczących modelowania ruchu powtarzana jest teza, że najpilniejszą sprawą w polskim modelowaniu jest problem pozyskania danych. Poniższe akapity pokazują, jak można ten stan rzeczy małymi krokami zmieniać. Przykłady te powinny służyć jako dobra praktyka w budowie modeli ruchu. Należy, na poziomie definiowania zamówienia na budowę modelu ruchu, zapewnić jak największą ilość i jakość danych wejściowych. Dzięki temu modele będą mogły pełnić istotną rolę w kształtowaniu systemu transportowego miasta, tworząc wspólną platformę zarządzania transportem.
The paper shows possible improvements in the area of transport modeling. Employing databases and integrating them fully within transport modeling structure can bring improvement in quality of transport modeling. Many practitioners claim that data import is the next step of improvement for transport modeling. The article shows projects where external databases were used in transport modeling. Examples include: transit database import using data from major Polish provider of transit passenger information, enhanced GIS network import, GIS spatial data import including comprehensive land-use information, integration of APNR results within transport modeling including database application integrated within transport modeling software. Opportunity to include complex database systems in transport modeling and integrate them shows great potential to improve transport modeling, but it requires full integration at many levels. It should be further exploited to obtain full functionality and synergy of data within transport models. This requires more stress on database, and data-management techniques for transport modeling.
Źródło:
Transport Miejski i Regionalny; 2013, 1; 22-26
1732-5153
Pojawia się w:
Transport Miejski i Regionalny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The BG Measurement System for Hazardous Substances (BGMG) and the Exposure Database of Hazardous Substances (MEGA)
Autorzy:
Gabriel, S.
Powiązania:
https://bibliotekanauki.pl/articles/90190.pdf
Data publikacji:
2006
Wydawca:
Centralny Instytut Ochrony Pracy
Tematy:
BGMG
exposure data
MEGA exposure database
zagrożenia zdrowia
zagrożenia chemiczne
substancje niebezpieczne
narażenie zawodowe
Opis:
German employers’ liability insurance associations or Berufsgenossenschaften (BGs)—institutions for statutory accident insurance—maintain a measurement system for hazardous substances, the so-called BGMG. The aim of the BGMG is to determine and document valid results of measurements of exposure primarily for prevention purposes. The data are collected systematically, in parallel to the sampling in a company. Parameters which are supposed to have a visible effect on exposure levels are documented. The MEGA database (documentation of measurement data relating to workplace exposure to hazardous substances) holds 1,629 million measurement values, which have been compiled in since 1972. The database offers a host of selection possibilities for assessments depending on the evaluation strategy.
Źródło:
International Journal of Occupational Safety and Ergonomics; 2006, 12, 1; 101-104
1080-3548
Pojawia się w:
International Journal of Occupational Safety and Ergonomics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Online forms and spreadsheet as means to support quality measurement by the SERVQUAL method
Autorzy:
Szczęśniak, Bartosz
Powiązania:
https://bibliotekanauki.pl/articles/27313527.pdf
Data publikacji:
2022
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
spreadsheet
database
MiRel
data processing
quality management
arkusz
baza danych
przetwarzanie danych
zarządzanie jakością
Opis:
Purpose: The main purpose of the research is to devise and present a concept for a solution enabling integration of popular off-the-shelf online forms with a tool aligned with the MiRel concept used for quality measurement by application of the SERQUAL method. Design/methodology/approach: The analysis performed by the author comprised various possibilities of using standard features of popular online forms to store data for purposes of the SERVQUAL method. This involved identification of several potential layouts of the master table where the answers previously received are kept. The analysis concerned the data structure applied in the tool designed, as proposed in the literature, in accordance with the MiRel concept, to support the method in question. The elements identified in this structure were the attributes whose values should be entered directly and manually in tables as well as those whose values should be added automatically on the basis of the answers previously received. Solutions were developed to enable automatic data migration from the master table to the tool’s respective tables. Findings: The data required for purposes of the SERVQUAL analysis, supported by a tool created in a spreadsheet according to the MiRel concept, can be successfully stored by means of commonly available online forms. What proves to be problematic is the impossibility of verifying the correctness of the answers in terms of the relevance of individual dimensions, yet in this respect both the verification and potential adjustment of the answers received can be inherent in the mechanism responsible for data migration from the master table to the tool’s tables. A fully functional solution enabling data to be retrieved from the master table and moved to the tool’s tables can be developed using built-in spreadsheet features only, without the need for any code created in any programming language. Practical implications The solution proposed in the paper can be used in practice when measuring quality using the SERVQUAL method. Originality/value: The concept described in the paper is the author’s original solution.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2022, 161; 273--281
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An efficient approach for view selection for data warehouse using tree mining and evolutionary computation
Autorzy:
Thakare, A.
Deshpande, P.
Powiązania:
https://bibliotekanauki.pl/articles/305413.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
database management systems
data warehousing and data mining
query optimization
graph mining
algorithms for parallel computing
evolutionary computations
genetic algorithms
Opis:
The selection of a proper set of views to materialize plays an important role in database performance. There are many methods of view selection that use different techniques and frameworks to select an efficient set of views for materialization. In this paper, we present a new efficient scalable method for view selection under the given storage constraints using a tree mining approach and evolutionary optimization. The tree mining algorithm is designed to determine the exact frequency of (sub)queries in the historical SQL dataset. The Query Cost model achieves the objective of maximizing the performance benefits from the final view set that is derived from the frequent view set given by the tree mining algorithm. The performance benefit of a query is defined as a function of query frequency, query creation cost, and query maintenance cost. The experimental results show that the proposed method is successful in recommending a solution that is fairly close to an optimal solution.
Źródło:
Computer Science; 2018, 19 (4); 431-455
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Baza danych fotogrametrycznych bliskiego zasięgu jako aplikacja sieciowa
A close range photogrammetric database as a network application
Autorzy:
Janowski, A.
Sawicki, P.
Szulwic, J.
Powiązania:
https://bibliotekanauki.pl/articles/1050653.pdf
Data publikacji:
2006
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
dane fotogrametryczne
bliski zasięg
baza danych
Firebird
sieć
Internet
photogrammetric data
close range
database
network
Opis:
W pracy przedstawiono system informatyczny działający w środowisku internetu, który jest dedykowany archiwizacji, prezentacji oraz udostępnianiu cyfrowych wyników pomiarów fotogrametrycznych i termowizyjnych z szerokiego spektrum aplikacji bliskiego zasięgu, w celu ich dalszej analizy, przetwarzenia oraz ekstrakcji informacji. Opracowana baza danych przechowuje i udostępnia informacje o projektach oraz dane pomiarowe pozyskane z n-wymiarowych, realizowanych w i-epokach opracowań. W celu ochrony danych i ich struktury zdefiniowane zostały trzy poziomy uprawnień dostępu do bazy danych. W systemie wykorzystano freeware serwer relacyjnej bazy danych Firebird®, do którego obsługi zastosowano środowisko programistyczne Borland Developer Studio 2006 ™. Modelowanie danych oparto na podejściu dwupoziomowym – logicznym CDM i fizycznej niezależności danych PDM. Stworzony program Photogrammetric Database” pełni funkcję interfejsu użytkownika i jest przeznaczony do obsługi bazy fotogrametrycznej w sieciach komputerowych. Jego interfejs typu GUI jest oparty na zasadach MDI. Prezentowany system informatyczny nie jest aplikacją do pomiarów internetowych w czasie rzeczywistym, w trybie on-line. Utworzona baza danych jest przewidziana do wykorzystania w sieciach typu VPN. System charakteryzuje się niezależnością od natywnych narzędzi technologii Microsoft takich jak MS Access™ czy MS SQL™, oryginalnością i funkcjonalnością przyjętych rozwiązań, a także zmniejszeniem ograniczeń systemowych oraz wysokim poziomem bezpieczeństwa danych. Badanie szybkości transferu opartego na protokołach TCP/IP oraz UDP wykonano na danych tunelowanych za pomocą freeware narzędzia ZeBeDee.
The paper presents a informatical system, which works in the Internet and is dedicated to storing, presentation and publishing results of photogrammetrical and thermographical measurements from various close range applications. Access to the database enables further analysis, processing and extraction of information from measurements data. The elaborated database stores and makes photogrammetric and thermal data obtained from n-dimensional, close-range elaborations executed in an i-epoche. The elaborated basic structure of the database provides the following information: subject of projects and measurements, the type of digital elaboration, the type of digital measurement, data concerning project, information on the performer, parameters of applied digital sensors, parameters of capture sessions, parameters of a single digital image (EXIF Info, interior and exterior orientation parameters), types and data from image measurements, types and geodetical and fictive observations (control points, distances, lines, polygons, planes), results of photogrammetric point measurement, results of photogrammetric vector measurement, results of digital image orthorectification, results of quality and quantity thermal measurement, results of multi-sensorial processing, results of data extraction, parameters of thematic analysis and 2D and 3D visualizations data and parameters. Three levels of access entitlement were defined to protect the database and its structure: Top-Level User, Medium-Level User, Minimum-Level User. In the system, a freeware Firebird® database server was used. It was serviced by the Borland Developer Studio 2006 ™ programming environment. The modeling of the data was based on the idea of a two-level approach to the data model, which assumes a conceptual CDM (Conceptual Data Model) and a physical PDM (Physical Data Model) independence of data. The elaborated software "Photogrammetric Database" works as user interface and manages the photogrammetric database in computer networks. Applying the GUI (Graphical User Interface) type interface based on the MDI (Multi Document Interface) standard enables users to work on several projects simultaneously. However, the presented informatical system is not an on-line application for real-time Internet measurements. The database was elaborated to operate in the VPN (Virtual Private Network) network type. The system is characterized by independence from native Microsoft Windows technologies, such as MS Access™, or MS SQL™, uniqueness, use of practical solutions, reduction of system limitations and high level of security of data. The measurement of transfer speed based on TCP/IP and UDP protocols was conducted on tunneled data with the use of the ZeBeDee freeware tool.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2006, 16; 227-237
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
"Emergency Response Plan" Automated System for Oil Production and Transportation Enterprises
Autorzy:
Voytyuk, Irina N.
Kopteva, Alexandra V.
Skamyin, Alexandr N.
Powiązania:
https://bibliotekanauki.pl/articles/1839580.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
oil production
oil transportation
emergency response
software
automated system
database management system
data processing centre
Opis:
In order to increase the efficiency of implementing the emergency response measures, the emergency response plan drawing up, revision and implementation at oil production enterprises, it is expedient to use an analogue of the supervisory control and data acquisition (SCADA) system, which generates an interactive mode that allows interaction with the person in charge for localizing and eliminating the consequences of accidents that negatively affect, inter alia, the environmental situation. The SCADA system was developed on the basis of the approved document "Emergency Response Plan" and provides for data exchange with the automated systems of the enterprise to form a complete description of the situation for the person in charge for localizing and eliminating the consequences of accidents. The automated system application software was developed using high-level programming languages (Embarcadero Delphi or analogues) and technologies for direct access to the Oracle database management system. The use of an automated system is feasible for large enterprises of the extractive and processing industries with the possibility of integration into the automated Manufacturing Execution System (MES-systems) of an enterprise.
Źródło:
Journal of Ecological Engineering; 2021, 22, 1; 76-82
2299-8993
Pojawia się w:
Journal of Ecological Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating databases of the internet decision support system for cereals protection
Aktualizacja baz danych internetowego systemu wspomagania decyzji w ochronie zbóż
Autorzy:
Zaliwski, A. S.
Nieróbca, A.
Powiązania:
https://bibliotekanauki.pl/articles/94046.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
data quality
information quality
data updating
database
decision support system
jakość danych
jakość informacji
aktualizacja danych
baza danych
system wspomagania decyzji
Opis:
The process of data updating in the databases of the Internet decision support system for cereals protection is presented. The system uses three kinds of data: on spring and winter wheat varieties, on plant protection products (fungicides and insecticides against wheat diseases and pests) and on product doses. It was found that it is possible to obtain all the necessary data for the updating from available web resources. Data sources for variety information are the COBORU materials and websites of agricultural plant breeders. The search engine of plant protection products available on the website of the Ministry of Agriculture and Rural Development is an essential source of the data on protection products and their doses. Other sources of these data are websites of plant protection product producers and online shops. In the data updating process the following stages were distinguished: owned-resources stocktaking, data quality criteria selection, credible data sources determination, data acquisition by the application of the criteria, data adaptation to the system requirements, data entry, data verification. Each one of the itemized stages contributes to the ultimate data quality after the updating. The stages of credible data sources determination, data acquisition and data adaptation to the system requirements were found to be labour intensive. About a triple reduction of labour input into the updating was achieved through the improvement of the data acquisition process, gaining proficiency in the database editors operation and the cumulative effect of build-up of specific data resources in the system. The adopted verification procedures for update correctness are described.
Przedstawiono proces aktualizacji danych w bazach danych internetowego systemu wspomagania decyzji w ochronie zbóż. System wykorzystuje trzy rodzaje danych: o odmianach pszenicy jarej i ozimej, o środkach ochrony roślin (fungicydy i insektycydy przeciw chorobom i szkodnikom pszenicy) i o dawkach środków. Stwierdzono, że wszystkie niezbędne dane do aktualizacji można pozyskać z dostępnych zasobów internetowych. Źródłem danych o odmianach są materiały COBORU oraz strony internetowe hodowców roślin rolniczych. Istotnym źródłem danych o środkach ochrony roślin i ich dawkach jest wyszukiwarka środków ochrony roślin udostępniana na stronach Ministerstwa Rolnictwa i Rozwoju Wsi. Inne źródła tych danych to strony internetowe producentów środków ochrony roślin oraz sklepy internetowe. W procesie aktualizacji danych wyróżniono następujące etapy: inwentaryzacja posiadanych zasobów, wybór kryteriów jakości danych, ustalenie wiarygodnych źródeł, pozyskanie danych z zastosowaniem kryteriów, dostosowanie danych do potrzeb systemu, wprowadzanie, weryfikacja danych. Każdy z wymienionych etapów ma wpływ na ostateczną jakość danych po aktualizacji. Stwierdzono dużą pracochłonność etapów: ustalenia wiarygodnych źródeł, pozyskiwania danych i dostosowania danych do potrzeb systemu. Około trzykrotne zmniejszenie pracochłonności aktualizacji uzyskano na skutek ulepszenia procesu technologicznego pozyskiwania danych, zdobycie doświadczenia w obsłudze edytorów baz danych i kumulatywny efekt wzrostu zasobów określonych danych w systemie. Opisano przyjęte procedury weryfikacji poprawności wprowadzenia danych.
Źródło:
Agricultural Engineering; 2014, 18, 3; 227-235
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Association of vector data used for technical documentation with information embedded in graph databases
Kojarzenie danych wektorowych, tworzących dokumentacje techniczną z informacjami osadzonymi w bazach grafowych
Autorzy:
Gruszczyński, M.
Idziaszek, P.
Mueller, W.
Weres, J.
Rudowicz-Nawrocka, J.
Górna, K.
Powiązania:
https://bibliotekanauki.pl/articles/334060.pdf
Data publikacji:
2016
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Maszyn Rolniczych
Tematy:
vector data
technical documentation
graph database
processing
AutoCAD
dane wektorowe
dokumentacja techniczna
baza grafowa
przetwarzanie
Opis:
The paper analyzes the possibilities of further and fuller use of geometric models of empirical systems, including agriculture, created at the level of AutoCAD. The analysis focuses primarily on opportunities for better mapping of existing links between graphic elements, unreadable or impossible to present at the level of digital technical documentation in the form of a graph structures offered by Neo4j. Information technologies, recognized and presented as necessary to achieve that objective were subsequently used to design and produce an application as a plug-in for AutoCAD. This application allows generating and management of created connections between geometric objects and their visualization both in the AutoCAD and available client software integrated with Neo4j platform.
Przeanalizowano możliwości dalszego, pełniejszego wykorzystania modeli geometrycznych systemów empirycznych, w tym dotyczących rolnictwa, tworzonych na poziomie AutoCAD-a. Analiza dotyczyła w głównej mierze możliwości pełniejszego odwzorowania istniejących powiązań pomiędzy elementami graficznymi, nieczytelnymi bądź niemożliwymi do przedstawienia na poziomie cyfrowej dokumentacji technicznej w formie struktur grafowych oferowanych przez Neo4j. Rozpoznano i przedstawiono niezbędne do realizacji tego celu technologie informatyczne, które następnie wykorzystano do zaprojektowania i wytworzenia aplikacji w formie plug-in dla AutoCAD. Aplikacja ta pozwala na generowanie, a następnie na zarządzanie utworzonymi powiązaniami pomiędzy obiektami geometrycznymi oraz ich wizualizację zarówno po stronie AutoCAD-a, jak i dostępnego programu klienckiego zintegrowanego z platformą Neo4j.
Źródło:
Journal of Research and Applications in Agricultural Engineering; 2016, 61, 1; 21-24
1642-686X
2719-423X
Pojawia się w:
Journal of Research and Applications in Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Representation of complex object and process structures in graph data base on the example of agricultural tractor
Autorzy:
Pietrzyk, Robert
Marciniak, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/263238.pdf
Data publikacji:
2019
Wydawca:
Sieć Badawcza Łukasiewicz. Przemysłowy Instytut Motoryzacji
Tematy:
graph database
data engineering
knowledge representation
tractor’s BOM (Bill of Material)
technical revisions system
Opis:
The paper presents an application of Graph Data Base technology in knowledge engineering task concerned with knowledge representation of complex structures. The first example is graph representation of a composition of tractor gearbox. It is an example of application of static partonomy relation. The adequate codding of that relation in Graph Data Base is easily expressed in Cypher language. There were presented some applications of Graph Data Base useful in the management of the technical object existence in different “life” phases, as design, production, maintenance and recycling. The second example concerns the Graph representation of activity structure. Such structures were built based on an agricultural tractor’s technical revision system. Created Data Base allows for processing the queries referred to the questions of what activities in what period should be performed to maintain the agricultural tractor ready to work in good technical condition. The Graph Data Base technology is the first step to create semantic systems for data storing and processing in order to extract knowledge and information useful in precise physical process management.
Źródło:
Archiwum Motoryzacji; 2019, 83, 1; 5-22
1234-754X
2084-476X
Pojawia się w:
Archiwum Motoryzacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Prezentacja danych hydrogeologicznych na portalu e-psh : stan obecny i perspektywy rozwoju
The presentation of the hydrogeological data on the e-psh portal : the recent stage and the perspectives
Autorzy:
Mordzonek, G.
Węglarz, D.
Powiązania:
https://bibliotekanauki.pl/articles/2075247.pdf
Data publikacji:
2015
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
baza danych
usługi informacyjne
warstwy informacyjne
dane przestrzenne
database
geoinformation services
information layers
spatial data
Opis:
Many spatial databases storing the information on the occurrence and characteristics of the groundwaters were created in the Polish Geological Institute – National Research Institute within the framework of the Polish Hydrogeological Survey. The information stored in these databases is shown by the e-psh internet portal. The portal was created in 2009 in the GeoMedia® SDI environment. The portal enables display of the data published in the form of the geoinformation services in different configurations. The newest version of the e-psh portal presents selected information from many hydrogeological databases like the Hydrogeological Map of Poland, Groundwater Main Reservoirs, Groundwater Bodies and Central Data Base of the Hydrogeological Data. It is planned to continue with the further development and update of the portal by adding new information layers.
Źródło:
Przegląd Geologiczny; 2015, 63, 10/2; 958--962
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rozwój funkcjonalności systemu informacji bibliograficznej językoznawstwa slawistycznego – od SYBISLAWa do iSybislawa
Functional development of the bibliographic information system on Slavic linguistics – from SYBISLAW to iSybislaw
Autorzy:
Mikos, Zenon
Powiązania:
https://bibliotekanauki.pl/articles/966594.pdf
Data publikacji:
2014-12-31
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
authority file
bibliographic description
database
data structure
information retrieval system
iSybislaw
SYBISLAW
bibliografia językoznawstwa slawistycznego
Opis:
The paper presents the process of functional development of the bibliographic information system on Slavic linguistics. The first database SYBISLAW (System Bibliografii Slawistycznej), established in 1993, was only available locally and used primarily to generate bibliographies in a traditional book form (7 volumes for the years 1992–1997). In the face of the development of information technology and the needs of modern bibliography users, the professional system of bibliographic information on Slavic linguistics iSybislaw was designed and implemented in 2008. It is a modern system available online for both indexators, as well as for external users. The structure and functionality of the iSybislaw system allow the use of an expanded formal and subject description, advanced search options and access to full texts of documents.
Artykuł przedstawia proces funkcjonalnego rozwoju systemu informacji bibliograficznej światowego językoznawstwa slawistycznego. Pierwsza baza danych SYBISLAW (System Bibliografii Slawistycznej), która powstała w 1993 r., była dostępna wyłącznie lokalnie i służyła przede wszystkim generowaniu bibliografii w tradycyjnej postaci książkowej (7 woluminów za lata 1992-1997). Wobec rozwoju technik informacyjnych i potrzeb współczesnych użytkowników bibliografii w 2008 r. zaprojektowano i zaimplementowano profesjonalny system informacji bibliograficznej językoznawstwa slawistycznego iSybislaw. Jest to nowoczesny system dostępny online zarówno dla indeksatorów, jak i dla użytkowników zewnętrznych. Struktura i funkcjonalność systemu iSybislaw pozwalają na stosowanie w bazie rozbudowanego opisu formalnego i rzeczowego, zaawansowanych opcji wyszukiwania dokumentów oraz zamieszczania pełnych tekstów dokumentów.
Źródło:
Studia z Filologii Polskiej i Słowiańskiej; 2014, 49; 44-58
2392-2435
0081-7090
Pojawia się w:
Studia z Filologii Polskiej i Słowiańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database for monitoring the spatial management plans of the Polish marine areas. Updating and practical use of data
Baza danych do monitoringu planów zagospodarowania przestrzennego polskich obszarów morskich. Uaktualnianie i praktyczne wykorzystanie danych
Autorzy:
Szydłowski, Ł.
Powiązania:
https://bibliotekanauki.pl/articles/111556.pdf
Data publikacji:
2018
Wydawca:
Instytut Morski w Gdańsku
Tematy:
spatial planning
monitoring
database
Geodatabase
system
model builder
data update
open source data
ArcGis
planowanie przestrzenne
baza danych
geobaza
uaktualnienie danych
ArcGIS
Opis:
Planning and marine spatial development are based on an exceptionally wide range of knowledge and information which are used in the process of creating plans and their later evaluation. The first type is spatial data describing the present state of the natural and anthropogenic environment within a widely understood spectrum. Second type data are statistical information describing spatial occurrence in the environment. Geoinformation within a planning process is hugely important, as the quality of spatial data influences decisions made and final results of planning work. Undoubtedly, efficient spatial database management and creating a compatible system to operate it are the key elements of effective work in a planning process. In Europe, the monitoring process together with creation of tools supporting database management is highly developed. There is a range of examples for the use of the spatial information systems in work linked to preparation and evaluation of spatial management plans at sea. Due to the specifics of works related to spatial planning in Poland, this paper presents a new solution for the future monitoring of the generated plans. The nature of this paper is determined by the local approach to taking advantage of the ArcGis software related with the use of a range of tools in the monitoring approach to plans of spatial management of the Polish marine areas. The purpose is to demonstrate a selected tool which is supposed to improve the planners’ work, from the point of view of the use of statistical data linked to the dynamics of changes in the coastal area. This is an exemplary use of the tool which might be modified at will, according to the needs of a user. Due to such a solution, the tool can be adjusted to the most of required data based on statistical tables.
Planowanie i zagospodarowanie przestrzeni morskiej opiera się na wyjątkowo szerokim zakresie wiedzy oraz informacji, które są wykorzystane w procesie tworzenia planów oraz ich późniejszej ewaluacji. Jednym rodzajem są dane przestrzenne opisujące aktualny stan środowiska naturalnego i antropogenicznego w szeroko pojętym spektrum. Geoinformacja jest niezwykle istotna w procesie planistycznym, gdyż jakość danych przestrzennych wpływa na podjęte decyzje i wyniki końcowe pracy planistycznej. Niewątpliwie sprawne zarządzanie bazą danych przestrzennych oraz tworzenie kompatybilnego systemu jej obsługi to kluczowy element efektywnej pracy w procesie planistycznym. W Europie proces monitoringu wraz z tworzeniem narzędzi wspomagających zarządzanie bazami danych jest wysoko rozwinięty. Istnieje szereg przykładów wykorzystywania systemów informacji przestrzennej w zakresie pracy związanej z przygotowaniem i ewaluacją planów zagospodarowania przestrzennego na morzu. Z uwagi na specyfikę prac w Polsce, poniższy tekst przedstawia nowe rozwiązanie dla przyszłego monitoringu powstałych planów. Charakter pracy określa regionalne podejście do wykorzystania możliwości oprogramowania ArcGis związanej z użyciem narzędzi w podejściu monitoringu planów zagospodarowania przestrzennego polskich obszarów morskich. Celem jest ukazanie wybranego narzędzia, mającego usprawnić pracę planistów, w ujęciu wykorzystania danych statystycznych związanych z dynamiką zmian strefy brzegowej. Jest to przykładowe wykorzystanie narzędzia, które może zostać dowolnie zmodyfikowane na potrzeby użytkownika. Dzięki takiemu rozwiązaniu narzędzie może zostać przystosowane do większości potrzebnych danych bazujących na tabelach statystycznych.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2018, 33, 1; 128-136
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kokpit menedżerski na urządzenia mobilne do monitorowania wydajności serwera bazodanowego – przykład empiryczny
Management dashboard for mobile devices to monitor database server – empirical example
Autorzy:
Sadowski, M.
Ziuziański, P.
Powiązania:
https://bibliotekanauki.pl/articles/323817.pdf
Data publikacji:
2018
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
instancja bazy danych
system bazodanowy
pulpit informacyjny
wizualizacja danych
urządzenia mobilne
kokpit menedżerski
database instance
database system
information dashboard
data visualization
mobile devices
performance dashboard
Opis:
Autorzy niniejszego artykułu wyodrębnili i scharakteryzowali kluczowe wskaźniki wydajności serwerów bazodanowych. Wymiar praktyczny niniejszego artykułu dotyczy budowy kokpitu menedżerskiego na urządzenia mobilne do monitorowania wydajności serwera bazodanowego Microsoft SQL Server opracowanego z wykorzystaniem Microsoft Mobile Report Publisher. Opisano metodologię budowy kokpitu i poddano ją ocenie.
The authors of this article have identified and characterized key performance indicators of database servers with a particular focus on Microsoft SQL Server. Practical part of this article concerns to the construction of dashboards on mobile devices to monitor performance of database server Microsoft SQL Server developed using Microsoft Mobile Report Publisher. Methodology of dashboard development has been described and evaluated.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2018, 117; 501-516
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Centralny Serwer Danych Technologicznych w JSW S.A.
Autorzy:
Kwaśnica, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/303801.pdf
Data publikacji:
2020
Wydawca:
Wydawnictwo Druk-Art
Tematy:
Jastrzębska Spółka Węglowa S.A.
system zarządzania bazą danych
górnictwo
database management system
mining
technological data
Opis:
W Jastrzębskiej Spółce Węglowej od ponad roku funkcjonuje zintegrowany system informatyczny do zarządzania danymi pochodzącymi z procesu produkcji. W artykule przedstawiono architekturę, zasadę działania oraz wyzwania związane z utrzymaniem ciągłości działania systemu wynikające bezpośrednio ze specyfiki branży górniczej.
Źródło:
Napędy i Sterowanie; 2020, 22, 1; 26-28
1507-7764
Pojawia się w:
Napędy i Sterowanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Baza danych jako naukowe narzędzie wykorzystywane w technologiach produkcji roślinnej
Database as a research tool used in technologies of crops production
Autorzy:
Šařec, O.
Šařec, P.
Dobek, T. K.
Powiązania:
https://bibliotekanauki.pl/articles/289164.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
baza danych
dane źródłowe
formularz
kryterium oceny
technologia produkcji
relation database
research
data
form
cultivation technology
Opis:
Przechowywanie i opracowywanie danych w ramach obszernych zadań badawczych wymaga wykorzystywania specjalnie tworzonych baz danych. W artykule przedstawiono jedno z możliwych rozwiązań dotyczących tworzenia bazy danych. W proponowanym rozwiązaniu zastosowano znany na rynku program Microsoft Accesss 2002. Program ten wykorzystano do zapisu obserwacji oraz wyników pomiarów badań prowadzonych w wytypowanych zakładach rolnych. Program ten umożliwia też zapisywanie wskaźników ekonomicznych i technologicznych wartości uzyskanych w produkcji roślinnej. Stworzone w bazie danych formularze i powiązania między nimi umożliwiają szybką ocenę analizowanych technologii oraz wybór najbardziej optymalnego wariantu dla danego regionu produkcyjnego oraz zakładu rolnego.
Storing and pre-processing data within the scope of a larger research task necessitates putting to use a custom-made database. A possible solution of this issue is demonstrated in this paper by an example of a relation database designed in MS Access for the field measurements and findings focused on economic and technological assessment of various technologies of stand establishment and cultivation of major production crops.
Źródło:
Inżynieria Rolnicza; 2007, R. 11, nr 2 (90), 2 (90); 271-277
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Możliwość monitorowania zmian środowiska z użyciem narzędzi GIS NA Przykładzie Słowińskiego Parku Narodowego
The possibility of environmental changes monitoring using GIS tools for Slowinski National Park
Autorzy:
Głowienka, E.
Michałowska, K.
Powiązania:
https://bibliotekanauki.pl/articles/130894.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
dane wieloczasowe
zdjęcia satelitarne
ortofotomapy
bazy danych
GIS
monitoring środowiska
multitemporal data
aerial photography
DTM
orthophotomaps
database
Opis:
W artykule przedstawiono metodykę przetwarzania i zastosowania wieloczasowych danych satelitarnych do monitorowania zmian wybranych elementów środowiska Słowińskiego Parku Narodowego (SPN). W pierwszym etapie prac obrazy Landsata z lat 1979 i 2000 poddano korekcji atmosferycznej, a następnie procesowi resamplingu piksela z 30 m na 60 i na odwrót. Obrazy LANDSATA (układ UTM) wykorzystano do wygenerowania obrazów: indeksu wegetacji NDVI. Na podstawie wygenerowanych kompozycji barwnych w barwach naturalnych i umownych, wyników klasyfikacji nienadzorowanej, wyników NDVI oraz analizy ortofotomap uzyskanych ze zdjęć lotniczych zdefiniowano siedem klas pokrycia terenu. Następnie w programie ENVI przeprowadzono klasyfikacje nadzorowana, której wyniki wykorzystano do analizy zmian pokrycia obszaru Parku. Uwzględniając zarówno rocznik jak i wielkość piksela na mapach pokrycia terenu przeanalizowano udział procentowy powierzchni poszczególnych klas. Bazując na obserwacjach wyników NDVI stwierdzono, e dynamika zmian w okresie analizowanego okresu dwudziestu jeden lat jest wyraźnie widoczna w przypadku najbardziej aktywnych elementów środowiska SPN jakimi są ruchome wydmy. Analiza map pokrycia terenu z lat 1979 i 2000 wykazała, iż zauważalne zmiany nastąpiły w przypadku lasów, których udział procentowy po 21 latach wzrósł o 4÷6%.
The article presents methodology of processing and application of multitemporal satellite data for the monitoring of changes in selected environment elements in the Słowinski National Park. In the first stage of work, Landsat images from 1979 and 2000 were subjected to atmospheric correction, and then to the process of pixel resampling from 30 m to 60 m, and vice versa. LANDSAT images (UTM arrangement) were utilized for generating images: NDVI vegetation index. Based on the generated colour compositions in natural and pre-arranged colours, results of non-supervised classification, NDVI results, and analysis of orthophotomaps obtained from air images, there were seven classes of area coverage defined. Next, using the ENVI programme, supervised classification was conducted, and its results were used for the analysis of changes in the Park area coverage. Taking into account both the year, in which images were made and the size of pixels on area coverage maps, the percentage share of areas of particular classes was analysed. Based on the review of NDVI results, it was found that the dynamics of changes in the analysed period of twenty-one years is clearly visible in the case of the most active elements of the Park environment, that is migrating dunes. The analysis of area coverage maps from 1979 and 2000 revealed that noticeable changes took place as regards forests, whose percentage share was increased by 4-6% after 21 years.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17a; 241-249
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Litologia szczegółowa w bazie danych geologicznych KGHM Polska Miedź S.A.
The detailed lithology in geological data base in KGHM Polska Miedź S.A.
Autorzy:
Kaczmarek, W.
Rożek, R.
Mrzygłód, M.
Jasiński, W.
Powiązania:
https://bibliotekanauki.pl/articles/170180.pdf
Data publikacji:
2014
Wydawca:
Poltegor-Instytut Instytut Górnictwa Odkrywkowego
Tematy:
rudy miedzi
litologia
opróbowanie złoża
baza danych
dane geologiczne
copper ore
lithology
deposit sampling
database
geological data
Opis:
Podczas trwającej ponad 50 lat eksploatacji złoża rud miedzi na monoklinie przedsudeckiej została zgromadzona ogromna ilość danych geologicznych i informacji o budowie geologicznej złoża, łitołogii skał złożowych oraz o parametrach jakościowych kopaliny. Dane uzyskane dzięki systematycznemu opróbowaniu złoża, wykonywanemu w wyrobiskach górniczych, są gromadzone z bazach danych geologicznych. Oznaczenia makroskopowe odmian litologicznych skał budujących złoże stosowane w praktyce geologicznej dotąd opierały się o określenia trzech głównych typów rud miedzi: ruda węglanowa (węglany - w), ruda łupkowa (lupki -1) i ruda piaskowcowa (piaskowce - p). Obecnie trwają prace zmierzające do zasilenia Bazy Danych Geologicznych (BDG) informacjami o tzw. szczegółowej łitołogii, co oznacza poszerzenie podstawowej nazwy skały (dolomit, lupek, piaskowiec) o dodatkowe cechy makroskopowe opisywane w postaci przymiotników np. piaskowiec ilasty.
During over 50 years of exploitation of the copper and silver deposits of Fore-Sudetic Monocline, the enormous amount of geological data was gathered, concerning geological framework, lithology of hoisting rocks and quality parameters of ore. The data acquired by systematic sampling in mining drifts are collect in geological data bases. The macroscopic descriptions of lithological variations of hoisting rocks, were based on three basic types of ores: carbonate ore, shale ore and sandstone ore. At present there are some activities initiated to introduce to Geological Data Base an extra information about detailed lithology. That means extending the basic name of hoisting rock (carbonate, shale, sandstone) of additional macroscopic features e.g. clayey sandstone
Źródło:
Górnictwo Odkrywkowe; 2014, 55, 2-3; 86-91
0043-2075
Pojawia się w:
Górnictwo Odkrywkowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pozyskiwanie i analiza szybkozmiennych danych technologicznych
Plant Data Capturing and Analyzing
Autorzy:
Świder, K.
Bednarek, M.
Powiązania:
https://bibliotekanauki.pl/articles/156324.pdf
Data publikacji:
2005
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
baza danych czasu rzeczywistego
zbieranie danych
analiza danych
proces diagnozowania
real-time database
data acquisition
diagnosing process
Opis:
W pracy rozważono systemy przemysłowe, w których pojawia się problem zbierania dużych ilości danych generowanych przez procesy technologiczne w stosunkowo krótkim czasie. Przedstawiono dostępne na rynku oprogramowanie, jakim jest przemysłowa baza danych IndustrializacjaSQL Server firmy Microsoft. Szczególną uwagę zwrócono na prezentację konkretnych zastosowań, m.in. w procesie diagnozowania.
The paper concerns the industrial data acquisition systems designated to collect data produced by technological process. The Wonderware IndustrialSQL Server based on MS SQL Server was introduced as an example of commercially available software for industrial data acquisition. In particular we focused on case studies of its practical applications such as diagnosing process.
Źródło:
Pomiary Automatyka Kontrola; 2005, R. 51, nr 1, 1; 66-68
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multi-layer computer system of GIS type for needs of local government units of urban areas
Wielowarstwowy system informatyczny typu GIS dla potrzeb jednostek samorządowych aglomeracji miejskich
Autorzy:
Klewski, A.
Sanecki, J.
Powiązania:
https://bibliotekanauki.pl/articles/360434.pdf
Data publikacji:
2010
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
GIS
system zarządzania zasobami
dane rastrowe
wielowarstwowa baza danych
resources management system
raster data
multi-layer database
Opis:
In the article authors present the structure of recourses management system in local government on example of one of the Varsovian district. Recourses are understanding as building and land (cadastral) data enriched by different accessible materials. The methodology of system construction, range of data as well as functions realized by the system were introduced. The architecture of a system is (with some modifications) the classical solution characteristic for systems of GIS type. Such a system is designed to support of economic, social and administrative decision making as well as is a ground to bring cadastral system into effect.
W artykule autorzy prezentują strukturę systemu zarządzania zasobami w jednostkach samorządowych na przykładzie jednej z dzielnic warszawskich. Zasoby rozumiane są jako dane ewidencyjne gruntów i budynków wzbogacone o inne dostępne materiały. Przedstawiono metodykę budowy systemu, zakres danych, jaki on obejmuje oraz funkcje, jakie spełnia dla użytkowników. Architektura systemu stanowi (z pewnymi modyfikacjami) klasyczne rozwiązanie charakterystyczne dla systemów typu GIS. System ten przeznaczony jest do wspomagania decyzji gospodarczych, społecznych i administracyjnych oraz stanowi podstawę do wprowadzenia katastru.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2010, 22 (94); 23-27
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
System Banku HYDRO : powstanie, funkcjonowanie i kierunki jego rozwoju w Państwowym Instytucie Geologicznym w latach 1972–2019
The HYDRO Bank system – functioning and development at the Polish Geological Institute in the years 1972–2019
Autorzy:
Skrzypczyk, Lesław
Felter, Agnieszka
Pergół, Sylwiusz
Palak-Mazur, Dorota
Forst, Szymon
Powiązania:
https://bibliotekanauki.pl/articles/2076086.pdf
Data publikacji:
2020
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
baza danych
wody gruntowe
historia hydrogeologii
Bank Danych HYDRO
database
groundwater
history of hydrogeology
HYDRO Data Bank
Opis:
An important task of the Polish Geological Institute acting as the state geological and hydrogeological surveys is to collect geological data and information for the entire country. One of the most important components of the Institute's data processing system is the HYDRO Bank, whose information resources include attribute and spatial information on groundwater intakes. Since its establishment in the early 1970s, the HYDRO Bank has been using IT high technologies. Currently, the database resources are being updated and made available exploiting the web application SPD PSH enabling users to access information in a controlled way using a web browser. The information from the database is the basis for the majority of national studies in the field of hydrogeology, cartography, environmental protection, and regional development, carried out by geological enterprises, research institutes, universities, and government administration.
Źródło:
Przegląd Geologiczny; 2020, 68, 5; 424--436
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Evaluation of the efficiency of integrated ERP systems and business intelligence tools based on the diagnostic cases in the MSE sector
Autorzy:
Drelichowski, L.
Powiązania:
https://bibliotekanauki.pl/articles/94967.pdf
Data publikacji:
2012
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
ERP class integration systems
business intelligence tools
data processing organization
database integration
data warehouse
system ERP
system ERP (Enterprise Resource Planning)
integracja danych
hurtownia danych
Opis:
In the paper, an evaluation of the efficiency of the application of ERP class integrated systems and BI tools was carried out, through analysis of two cases micro-and-small enterprises (MSEs). An analysis of the observed successes allowed precise definition of key factors in their successes or failures, in the scope of the efficiency of BI tools application in management. Confirmed rules for guaranteeing of unconditional compatibility of the contents of data warehouses with the transactional databases are, in the opinion of the author, a necessary condition for long-term success with BI application in decisions-making processes. The solutions proposed in the paper for a data processing organisation system were effectively verified over several years’ use at the POZKAL printing house in Inowroclaw. Such solutions force compatibility of transactional databases with data warehouse contents, an area often underestimated by the authors of other publications in this area.
Źródło:
Information Systems in Management; 2012, 1, 1; 14-24
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Próba opracowania symboli 3D wybranych obiektów trójwymiarowej wielorozdzielczej bazy topograficznej
The attempt to create 3D symbols of selected features for a three-dimensional multiresolution topographic database
Autorzy:
Cisło, U.
Powiązania:
https://bibliotekanauki.pl/articles/131058.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
baza danych topograficznych
baza wielorozdzielcza
dane 3D
symbole 3D
projektowanie 3D
topographic database
multiresolution database
3D data
3D symbols
3D designing
Opis:
Koncepcja Bazy Danych Topograficznych w postaci 3D (TBD 3D) opracowywana w ramach projektu „Konwersja obiektów Bazy Danych Topograficznych do postaci trójwymiarowej dla potrzeb dynamicznej geowizualizacji”, zakłada istnienie obiektów w trzech wymiarach na trzech poziomach szczegółowości (uogólnienia). W TBD 3D przewiduje się, że wybrane obiekty będą przedstawiane za pomocą symboli 3D na najbardziej szczegółowym poziomie (LoD2), gdzie obiekty będą odpowiadały 3 poziomowi uogólnienia TBD i wszystkie będą przedstawione za pomocą modelu znakowego. Zaprojektowane symbole 3D, ze względu na sposób pozyskiwania i prezentowania informacji wysokościowej obiektów, podzielono na trzy zasadnicze grupy. Pierwszą grupę stanowią symbole o zmiennej wysokości, znanej dla każdego obiektu np. z pomiaru. Druga grupa składa się z symboli o zmiennej, ale arbitralnie przyjętej wysokości lub głębokości. Natomiast w trzeciej grupie znalazły się symbole o stałej wysokości. Symbole 3D zaprojektowano zgodnie z przyjętą powszechnie konwencją kartograficzną oraz, w przypadku braku możliwości przeniesienia kształtu czy koloru przyjętego powszechnie znaku 2D do 3D, z wykorzystaniem poglądowości symboli. Ponadto w przedstawianym etapie badań zaprojektowano różne warianty symboli 3D. Opracowane symbole 3D (wszystkie warianty) w kolejnym etapie ww. projektu zostaną przetestowane w formie ankiety internetowej przez potencjalnych użytkowników pod kątem percepcji krajobrazu.
The design of a three-dimensional multiresolution topographic database (TBD 3D) assumes that all features in TBD 3D exist in three dimensions on three different Levels of Detail (LoD). At the most detailed level of TBD 3D (LoD2), selected features are expected to be represented by 3D symbols. The 3D symbols so designed were divided into three main groups on the basis of the method of obtaining them and their presentation of height information. The first main group consists of 3D symbols with changeable and known (e.g. from surveying) heights for each of the features. The second main group consists of 3D symbols with changeable, but arbitrary, heights or depths while in the third main group there are 3D symbols with a fixed height. All 3D symbols were designed using generally accepted cartographic conventions. Where it was impossible to use generally accepted 2D symbols in the third dimension, 3D symbols were based on observing the feature. In addition different alternatives were designed for selected features. The 3D symbols designed (all alternatives) will be surveyed by potential users on the Internet.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2009, 20; 57-65
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Integracja i przetwarzanie danych wieloczasowych w środowisku GIS
Integration and processing of multitemporal data in GIS environment
Autorzy:
Michałowska, K.
Głowienka, E.
Powiązania:
https://bibliotekanauki.pl/articles/1050717.pdf
Data publikacji:
2007
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
dane wieloczasowe
zdjęcia lotnicze
numeryczny model terenu
ortofotomapy
bazy danych
GIS
multitemporal data
aerial photography
DTM
orthophotomaps
database
Opis:
W artykule przedstawiono metodykę przetwarzania i integracji danych pochodzących z różnych źródeł i okresów. W pierwszym etapie prac prowadzonych w ramach projektu KBN Nr N304 077 31/3060 „Modelowanie przestrzenne zmian wybranych elementów środowiska Słowińskiego Parku Narodowego” dokonano przetworzenia archiwalnych i aktualnych zdjęć lotniczych pochodzących z lat 1951÷2004. Materiały fotogrametryczne posłużyły do przygotowania Numerycznego Modelu Terenu (NMT), a następnie wygenerowania ortofotomap dla wszystkich roczników. Ważnym źródłem informacji o badanym terenie były wektorowe mapy w układzie 1965 (m.in. warstwy tematyczne: geologia, hydrologia, flora, fauna i inne) oraz tabelaryczne dane opisowe dotyczące poszczególnych elementów środowiska SPN. Dane opisowe wymagały odpowiedniej obróbki i połączenia z tematycznymi mapami wektorowymi. W kolejnym etapie prac dokonano integracji wieloczasowych danych obrazowych dla badanego obszaru oraz warstw tematycznych w środowisku GeoMedia (GeoMedia Professional, GeoMedia Grid) umożliwiającym odczyt i przetwarzanie danych z różnych formatów. Zintegrowane dane przestrzenno-czasowe umożliwiły badania środowiska Parku. Cennym uzupełnieniem bazy danych były zdjęcia satelitarne. Obrazy z sensorów ASTER i LANDSAT (układ UTM) wykorzystano do wygenerowania obrazów: indeksu wegetacji, mapy pokrycia/użytkowania terenu oraz kompozycji barwnych. Przetwarzanie danych satelitarnych przeprowadzono w programie ENVI (Environment for Visualizing Images). W rezultacie utworzona baza danych pozwoliła na kompleksowe analizy zmian zachodzących na terenach SPN.
The paper presents the methodology for processing and integrating data that originate from various sources and periods. In the first stage of works conducted under the research project No. N304 077 31/3060 financed by the State Committee for Scientific Research and titled "Spatial Modelling of Changes in Selected Elements of the Słowinski National Park," archival and current aerial photos from 1951-2004 were subjected to processing. The photogrammetric material was then used to prepare a Digital Terrain Model (DTM), and next, to generate orthophotomaps for all annual files. As a result, particular DTMs became the grounds for analyses of changes in land configuration resulting from dynamic eolian processes that take place in the coastal zone and in the belt of migrating dunes, which exist within the Słowinski National Park (the SNP) territory. Vectorial map layers under the "1965" coordinate system constituted an important source of information on the investigated area (including, among other things, thematic layers: geodesy, topography, geology, hydrology, flora, fauna, and other – all in the dgn format), and the same about tabular descriptive data (the MS Access format), concerning particular elements of the SNP environment. The descriptive data required proper processing and combining with thematic vectorial maps. In another stage of research, multitemporal image data for the investigated area and thematic layers were integrated in GeoMedia (GeoMedia Professional, GeoMedia Grid) environment, which allows to read and process various format data. The integrated spatial and time data enabled a comprehensive examination of those factors, which contribute to constant changes in the Park landscape and environment. Satellite photos provided a valuable supplement to the database. Images from the ASTER and LANDSAT satellite (under the UTM system) were utilised to generate images of the vegetation index, land use/coverage maps, as well as colourful compositions. The satellite data was processed with the use of ENVI (Environment for Visualizing Image) software. Finally, the database created that way made it possible to perform complex analyses of changes occurring in the SNP area.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2007, 17b; 485-494
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza różnic pomiędzy modelami danych BDOT10K a TBD
The analysis of differences between BDOT10k and TBD data models
Autorzy:
Gotlib, D.
Powiązania:
https://bibliotekanauki.pl/articles/346091.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
baza danych topograficznych
TBD
BDOT10k
model danych przestrzennych
topografia
topographical database
model of spatial data
topography
Opis:
Cyfrowy zasób danych topograficznych w formie bazy danych przestrzennych tworzony jest w Polsce od 15 lat. W tym okresie poza pierwszymi danymi o charakterze testowym opracowane i udostępnione zostały dwie wersje bazy danych: Baza Danych Topograficznych (TBD) oraz Baza Danych Obiektów Topograficznych (BDOT10k). Obecnie w krajowym zasobie geodezyjno-kartograficznym są dostępne dane topograficzne dla całego terytorium Polski. Są one coraz powszechniej wykorzystywane. Niektórzy użytkownicy przyzwyczaili się do korzystania z danych zapisanych zgodnie z modelem TBD, inni natomiast zgodnie z modelem BDOT10k. Wiedza na temat różnic miedzy tymi modelami nie jest jednak powszechna. W artykule omówiono wyniki analizy różnic pomiędzy modelem pojęciowym TBD i BDOT10k oraz zasygnalizowano konsekwencje wprowadzonych zmian.
Digital topographic data as the spatial databases has been gathered in Poland for 15 years. During this period (excluding the first test dataset) two versions of the database: the Topographic Database (TBD) and the Database of Topographic Objects (BDOT10k) have been developed and made available. Currently, topographic data for the entire Poland are accessible in the national geodetic and cartographic resource . They have been increasingly used by many users. Some of them have become accustomed to the use of data recorded in accordance with the TBD model, while others – with the BDOT10k model. However, differences between these models are not well known. The article discusses the results of analysis of the differences between the TBD and BDOT10k conceptual models and points to the consequences of introduced changes.
Źródło:
Roczniki Geomatyki; 2015, 13, 4(70); 321-334
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generalizacja osadnictwa i sieci dróg bazy danych ogólnogeograficznych z wykorzystaniem systemu Clarity
Settlement and road network generalization in the general geographic database using the Clarity environment
Autorzy:
Karsznia, I.
Powiązania:
https://bibliotekanauki.pl/articles/130906.pdf
Data publikacji:
2009
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
generalizacja danych przestrzennych
baza danych obiektów ogólnogeograficznych
środowisko Clarity
generalization of spatial data
General Geographic Database
Clarity environment
Opis:
Zagadnieniu automatyzacji generalizacji danych przestrzennych poświęcono wiele miejsca w literaturze, analizując jego teoretyczne oraz praktyczne aspekty. W wielu instytucjach naukowych oraz komercyjnych prowadzone są badania zmierzające do pełnej automatyzacji procesu generalizacji, jednakże jak dotąd zostały one uwieńczone jedynie częściowym sukcesem. Obecnie najbardziej zaawansowanym systemem do automatycznej generalizacji map i danych przestrzennych jest system Clarity. Środowisko to zostało opracowane w rezultacie badań prowadzonych w ramach europejskiego projektu AGENT. Badania nad prototypem systemu prowadzone były w latach 1997-2000 przez jednostki naukowe: Krajowy Instytut Geograficzny oraz Instytut Geograficzny Politechniki w Grenoble (Francja), Uniwersytet w Edynburgu, Uniwersytet w Zurychu oraz firmę komercyjną 1Spatial z Wielkiej Brytanii. W wielu krajach (m. in. we Francji, Danii czy w Wielkiej Brytanii) Clarity wykorzystywane jest obecnie do produkcji map topograficznych. Celem prowadzonych badań jest określenie możliwości oraz ograniczeń automatyzacji generalizacji danych przestrzennych w wymienionym systemie, jak również propozycja rozszerzenia systemu o nowe narzędzia analiz przestrzennych oraz nowe algorytmy generalizacji. Podstawowym założeniem jest opracowanie zestawu czynności generalizacyjnych, w postaci bazy wiedzy kartograficznej, stanowiącej elementy podstaw metodycznych procesu. Zakres prowadzonych badań obejmuje generalizację sieci dróg i osadnictwa Bazy Danych Ogólnogeograficznych (BDO) ze skali 1:250 000 do skal mniejszych. W artykule zaproponowano aparat badawczy w postaci sekwencji czynności generalizacyjnych oraz jego implementację w środowisku Clarity. Wykorzystano w tym celu dostępne funkcje systemu, jak również opracowano (przy użyciu języka programowania Java) własne narzędzia analiz przestrzennych pozwalające na uzyskanie bardziej poprawnych, z kartograficznego punktu widzenia, wyników generalizacji. Weryfikacja zaproponowanego aparatu badawczego w omawianym środowisku programowym pozwoliła na sformułowanie następujących wniosków: W systemie Clarity, stanowiącym środowisko otwarte, w którym możliwe jest zaprogramowanie własnych algorytmów generalizacji oraz narzędzi analiz przestrzennych w większym stopniu możliwa jest kontrola procesu generalizacji oraz jego dostosowanie do potrzeb generalizacji danych przestrzennych małoskalowych.- Opracowanie narzędzia (tzw. link w źródłowej bazie danych) pozwoliło na wzbogacenie struktury bazy przez powiązanie ze sobą dwóch generalizowanych warstw tematycznych (sieci dróg oraz osadnictwa), a w konsekwencji na uzyskanie bardziej spójnych i poprawnych wyników generalizacji. - Zastosowanie narzędzi cluster settlements oraz action poligon erode pozwoliło na uzyskanie bardziej poprawnych efektów agregacji części miejscowości przedstawionych w postaci konturów w stosunku do poprzednich etapów badawczych. Wykonane badania pozwoliły na określenie możliwości oraz ograniczeń generalizacji wybranych elementów BDO, wskazanie zakresu przydatności systemu Clarity do generalizacji opracowań małoskalowych oraz zebranie zestawu czynności generalizacyjnych, w formie bazy wiedzy kartograficznej, stanowiącej elementy podstaw metodycznych procesu.
SUMMARY: The automation problem of spatial data generalization is widely considered in a literature from both theoretical and practical perspective. Numerous scientific centers as well as commercial enterprises have been involved in researches aimed on a full automation of generalization process however, until now such works were only partially successful. Nowadays, the most advanced system for automatic generalization of maps and spatial data is Clarity by 1Spatial. Such environment was discovered in the result of researches conducted within European project ‘AGENT’. The prototype of the above mentioned system were performed within years 1997 – 2000 by: National Geographical Institute both with Geographical Institute of the Polytechnic in Grenoble (France), University of Edinburgh, University of Zurich and commercial company 1Spatial from the United Kingdom. In many countries (ex. France, Denmark or in the UK) the Clarity software has been used in a production of topographic maps. The main purpose of the researches presented in the paper is defining possibilities and limitations of automation of spatial data generalization in the above mentioned software. Furthermore, there was also presented a proposition of modifying the system by adding new tools for spatial analyses both with new generalization algorithms. The basic assumption was to create a set of generalization steps in form of cartographical knowledge base which is crucial for methodical principles of the process. The scope of conducted researches covers generalization of roads network and a settlement in the General Geographic Database (GGD) from the scales of 1:250 000 to minor scales. In the article an approach has been proposed defined as sequences of generalization procedures and their implementation in the Clarity environment. To achieve this aim many available functions as well as new self-developed tools for spatial analysis (developed in Java programming language) were used. Such new tools make it possible to obtain significantly improved results - more correct from the cartographical point of view. Verification of such approach in the presented software leads to the following conclusions: - In the Clarity system - which is an open environment - it is possible to create selfdeveloped generalization algorithms and tools. It is also possible to check the generalization process in a more efficient way as well as its adjusting to demands of a spatial small-scale data generalization. - Discovering of a new tool (so called ‘link in source database’) made it possible to enrich the database’s structure by combining together two generalized thematic layers (road networks and settlement) and – in the consequence – to obtain more coherent and correct results of the generalization. - The use of cluster settlements and action polygon erode tools made it possible to get more correct aggregation effect of some settlements presented as contours comparing to the previous researches. The presented researches made it possible to define the possibilities and limitations of selected GGD elements, describing a level of usefulness of the Clarity system for small-scale generalization and finally, to collect sets of generalization procedures in the form of a cartographic knowledge base. It can be considered as the elements of methodical principles of the process.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2009, 19; 155-167
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A relational database performance considerations for numerical simulation backend storage
Autorzy:
Nazdrowicz, J.
Powiązania:
https://bibliotekanauki.pl/articles/397730.pdf
Data publikacji:
2015
Wydawca:
Politechnika Łódzka. Wydział Mikroelektroniki i Informatyki
Tematy:
flat file
relational database
numerical methods
data management
performance
plik płaski
relacyjna baza danych
metody numeryczne
zarządzanie danymi
wydajność
Opis:
Problems of effective numerical calculations in scientific applications are caused by non-optimal front-end application code or ineffective system of scientific data management at back-end. In this article author presents some aspects of performance problems when relational database is used as backend storage based on real cases. Presented examples come from simulated environments with large load and many queries executed. These examples can reflect real problems with data processing in numerical calculations on data extracted from MSSQL Server database.
Źródło:
International Journal of Microelectronics and Computer Science; 2015, 6, 3; 71-78
2080-8755
2353-9607
Pojawia się w:
International Journal of Microelectronics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Extracting and updating data performance during bulk numerical calculations in databases
Autorzy:
Nazdrowicz, J.
Powiązania:
https://bibliotekanauki.pl/articles/397776.pdf
Data publikacji:
2016
Wydawca:
Politechnika Łódzka. Wydział Mikroelektroniki i Informatyki
Tematy:
flat file
relational database
numerical methods
data management
performance
plik płaski
relacyjna baza danych
metody numeryczne
zarządzanie danymi
wydajność
Opis:
Nowadays, more complex engineering problems need to carry out increasingly complex numerical calculations. In order to obtain the results as soon as possible, engineers must simplify the physical model on the one hand, apply appropriately efficient infrastructure to carry out calculations on the other. This infrastructure includes both hardware and software. Problems in numerical calculations in scientific applications are often caused by non-optimal front-end application code implementation or by ineffective system of scientific data management at back-end. In this article author presents some aspects of performance problems when relational database is used as backend storage. Of course, the biggest problem in numerical computation processing is that the large amount of data stored on the storage area can slow down the entire computing system and in turn directly affects the computational efficiency. Presented examples come from simulated OLTP (Online Transactional Processing) environments with large load and many queries executed. These examples can reflect real problems with data processing in numerical calculations on data extracted from MSSQL Server database with large storage system connected.
Źródło:
International Journal of Microelectronics and Computer Science; 2016, 7, 4; 140-146
2080-8755
2353-9607
Pojawia się w:
International Journal of Microelectronics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On the Equivalence of Problem-Oriented Databases
Autorzy:
Lebiediewa, S.
Powiązania:
https://bibliotekanauki.pl/articles/908275.pdf
Data publikacji:
1999
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
baza danych
język operowania danymi
rozproszona baza danych
problem-oriented database
data manipulations language
distributed databases
equivalence of databases
Opis:
A comparison is made between problem-oriented databases for multistage decision making and general-purpose databases. An exemplary problem-oriented database IDEN for supporting the process of multistage identification is discussed in detail. An equivalence condition for problem-oriented databases is formulated and then the equivalence with respect to data structures and operations is proved for hierarchical, network and relational models of the IDEN database.
Źródło:
International Journal of Applied Mathematics and Computer Science; 1999, 9, 4; 965-977
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Network analyses with the use of spatial databases
Autorzy:
Budkowski, Szczepan
Powiązania:
https://bibliotekanauki.pl/articles/2175190.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
geographic information system
database
network analysis
space management
raster data model
vector data model
system informacji geograficznej
baza danych
gospodarka przestrzenna
analiza sieci
model wektorowy
model rastowy
Opis:
An analysis is the process of browsing and searching for specific information from an entire dataset. The simplest analysis that can be performed on the data is visual analysis. However, it does not provide absolute certainty as to correctness and quality. A more advanced way of selecting required data is computer-based analysis. Analytical operations are performed on the data entered into the computer. The user defines the query, and the program performs calculations and displays the answer on the monitor screen. The aim of this publication is to conduct network analyses with the use of spatial databases. Besides focusing on the analysis as the leading research method, the paper also adopts this method to analyze the literature on the subject. In addition, the paper points to the complementary roles of the raster model and the vector model, emphasizing their coexistence. The paper shows a variety of applications of GIS analyses, from simple buffers around selected areas, through selection, and the intersection of layers, to network analyses. The high degree of advancement of GIS tools allows to build advanced models in which analyses that go beyond the original application of the collected databases can be run.
Źródło:
Geomatics, Landmanagement and Landscape; 2022, 3; 93--102
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Spreadsheet as a means to support working time scheduling - data integrity in a spreadsheet tool
Autorzy:
Szczęśniak, Bartosz
Powiązania:
https://bibliotekanauki.pl/articles/326823.pdf
Data publikacji:
2019
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
business process improvement
database
relational data model
information process
MiRel
doskonalenie procesów biznesowych
baza danych
relacyjny model danych
proces informacyjny
Opis:
Spreadsheets are commonly used in nearly every organization. The tools created by their means may be used to support a multitude of diversified information processes handled in businesses. Such tools can be built in accordance with the concept of ‘Microtools Based on the Relational Data’. One of the problems that must be addressed while such a tool is being created is to ensure the integrity of the data stored in the tool. The article addresses a selection of solutions proposed and applied in this respect in a tool supporting a process in which the working time of maintenance department employees is scheduled.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2019, 135; 179-189
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja zastosowania arkusza kalkulacyjnego do wspomagania tworzenia dokumentów w procesie produkcji taśm blachy
Concept of a spreadsheet application supporting the creation of documents in the steel strip manufacturing process
Autorzy:
Szczęśniak, B.
Powiązania:
https://bibliotekanauki.pl/articles/113135.pdf
Data publikacji:
2013
Wydawca:
STE GROUP
Tematy:
arkusz kalkulacyjny
baza danych
relacyjny model danych
doskonalenie procesów
tworzenie dokumentów
spreadsheet
database
relational data model
process improvement
document creation
Opis:
W artykule zaprezentowano koncepcję narzędzia informatycznego wspomagającego tworzenie dokumentów w procesie produkcji taśm blachy. W pierwszej kolejności omówiono proces produkcyjny ze szczególnym uwzględnieniem wykorzystywanych w nim dokumentów. Dla danych znajdujących się w dokumentach, uwzględniając założoną funkcjonalności narzędzia, zaproponowano strukturę relacyjnej bazy danych. W dalszej kolejności szczegółowo przedstawiono rozwiązania pozwalające na utworzenie, bazującego na relacyjnej strukturze danych, narzędzia przy użyciu arkusza kalkulacyjnego.
The article provides a discussion on a concept of an information tool proposed to support the creation of documents in the steel strip manufacturing process. Firstly, the author has described the production process focusing on the documents it requires to be used. With reference to the data contained in the documents in question, a relational database structure has been proposed bearing in mind the tool’s functionality envisaged. What follows is an elaboration of specific solutions assumed to enable creation of a tool based on the relational structure of data using a spreadsheet.
Źródło:
Systemy Wspomagania w Inżynierii Produkcji; 2013, 2 (4); 133-151
2391-9361
Pojawia się w:
Systemy Wspomagania w Inżynierii Produkcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessing the quality of open spatial data for mobile location-based services research and applications
Autorzy:
Ciepłuch, B.
Mooney, P.
Jacob, R.
Zheng, J.
Winstanely, A.
Powiązania:
https://bibliotekanauki.pl/articles/130346.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
database
GIS
mapping
data mining
spatial infrastructure
Internet/Web
accuracy
metadata
baza danych
mapowanie
eksploracja danych
infrastruktura przestrzenna
dokładność
metadane
Opis:
New trends in GIS such as Volunteered Geographical Information (VGI), Citizen Science, and Urban Sensing, have changed the shape of the geoinformatics landscape. The OpenStreetMap (OSM) project provided us with an exciting, evolving, free and open solution as a base dataset for our geoserver and spatial data provider for our research. OSM is probably the best known and best supported example of VGI and user generated spatial content on the Internet. In this paper we will describe current results from the development of quality indicators for measures for OSM data. Initially we have analysed the Ireland OSM data in grid cells (5km) to gather statistical data about the completeness, accuracy, and fitness for purpose of the underlying spatial data. This analysis included: density of user contributions, spatial density of points and polygons, types of tags and metadata used, dominant contributors in a particular area or for a particular geographic feature type, etc. There greatest OSM activity and spatial data density is highly correlated with centres of large population. The ability to quantify and assess if VGI, such as OSM, is of sufficient quality for mobile mapping applications and Location-based services is critical to the future success of VGI as a spatial data source for these technologies.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2011, 22; 105-116
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
50 lat Centralnego Banku Danych Hydrogeologicznych – Banku HYDRO w Panstwowym Instytucie Geologicznym
50 years of the Central Hydrogeological Data Bank – HYDRO Data Bank at the Polish Geological Institute
Autorzy:
Pergół, Sylwiusz
Paszkiewicz, Aleksandra
Regulska, Magdalena
Przybycin, Magdalena
Forst, Szymon
Powiązania:
https://bibliotekanauki.pl/articles/20202688.pdf
Data publikacji:
2022
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
baza danych
wody gruntowe
historia hydrogeologii
bank danych HYDRO
udostępnianie informacji
database
groundwater
history of hydrogeology
HYDRO Data Bank
information sharing
Opis:
The year 2022 marks half a century since the establishment of HYDRO Bank. It is one of the most important components of the data processing system used by Polish Geological Institute which performs the duties of the state geological and hydrogeological survey. Since its conception in 1972, HYDRO Bank has been using information technology systems. Over the following years, teams of employees repeatedly modernized, expanded and updated the hydrogeological database. The information contained in the database is the basic source of data used for domestic studies in the fields of hydrogeology, cartography, environmental protection and government administration. There is another modernization planned for the upcoming years, along with continuous updates and increase in number of the collected data.
Źródło:
Przegląd Geologiczny; 2022, 70, 12; 877-882
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie wysokorozdzielczych danych obrazowych w opracowaniach kartograficznych do celów wojskowych
Very High Resolution Imagery Data in Cartographic Elaborations for Military Use
Autorzy:
Bauer, R.W.
Piotrowski, A.
Stępień, G.
Powiązania:
https://bibliotekanauki.pl/articles/204232.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Geograficzne
Tematy:
wysokorozdzielcze dane obrazowe
analizy geoprzestrzenne
baza danych georeferencyjnych
mapa obrazowa
very high resolution imagery data
geospatial analysis
georeferenced database
image map
Opis:
W artykule przedstawiono wykorzystanie wysokorozdzielczych danych obrazowych do celów wojskowych. Autorzy wskazali trzy zasadnicze obszary wykorzystania danych fotogrametrycznych i teledetekcyjnych, którymi są mapy wektorowe (bazy danych georeferencyjnych), analizy geoprzestrzenne oraz opracowania specjalne - mapy obrazowe (image maps). Przedstawiono zalety i ograniczenia ortofotomapy satelitarnej i innych opracowań specjalnych, wykonywanych i wykorzystywanych przez wojska NATO w warunkach pokoju oraz w strefie działań wojennych.
The article presents the application of very high resolution imagery data in military cartographic elaborations. Three basic areas of application photogrammetry and remote sensing data have been indicated: vector maps (georeferenced data bases), geospatial analysis and special elaborations - image maps. Basic vector data bases created by NATO using very high resolution imagery data are mainly Vmap bases (vector map bases) with detail levels corresponding to information resolution of particular scales of cartographic elaboration: LO -1:1 000 000, L1 - 1:250 000, L2 - 1:50 000 and L3 - 1:25 000. Military vector maps (Vmap) enable spatial analyses using topology of presented terrain objects and attributes assigned to them. The other data base elaborated as part of an international agreement (including Poland) which uses very high resolution satellite images is the basis created within the framework of the MGCP project (Multinational Geospatial Co-production Program), in which 32 countries currently participate. MGCP is a global basis. The idea of the project is to create data for regions of interest, areas of current and potential conflicts and threats. The characteristic feature of data in the MGCP project is the fact that they don't include a full range of objects required to create some kinds of maps, e.g. the topographic map. These data cannot be field verified and horizontal detail of object location should have an error of no more than 25 meters. Information concerning borders, their course and status can be treated differently in each country taking part in the program, so in order to avoid potential conflict of interest it has been decided not to include such data in MGCP. The article also presents special elaborations done during stability missions in Iraq and Afghanistan. Image maps have presently become basic cartographic material in regions of conflict and hazards. They also constitute the basis for conducting further analyses. They are special maps (which thus do not undergo strict standard limitations), so the information range, scale and sheet size are conformed to particular user needs and the task performed. Application of very high resolution area imageries on stability missions in war zones is common practice. This is done because of the particularities of climatic, meteorological, logistical and organizational conditions as well as safety precautions. The article characterizes kinds of image data used by the army while showing the possibilities of creating cartographic elaborations and conducting geospatial analyses on the basis of this data. Through current image data it is possible to create quick cartographic elaborations mainly used in war zones, but which are more and more often made useful in elaborations intended for use during times of peace. Usage of satellite images has led to the emergence of a new type of product - image maps. Their elaboration standards have a loosely defined reference system and content range. Their applications are limited, e.g. they cannot be used for precise navigation. The kind of realized task and map addressee requirements are decisive here.
Źródło:
Polski Przegląd Kartograficzny; 2013, T. 45, nr 1, 1; 25-35
0324-8321
Pojawia się w:
Polski Przegląd Kartograficzny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie baz danych w analizie danych historycznych sprzedaży na potrzeby klasyfikacji pozycji materiałowych i sterowania zapasami
The application of database for sale historical data analysis for the purpose of material items classification and stock control
Autorzy:
Habel, J.
Powiązania:
https://bibliotekanauki.pl/articles/339757.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Zarządzania Produkcją
Tematy:
analiza danych historycznych sprzedaży
klasyfikacja ABC/XYZ zapasów
baza danych
sale historical data analysis
ABC/XYZ classification of material items
database
Opis:
The idea of database for sale historical data analysis is presented in this paper. General description of material items classification using ABC/XYZ methods is also included. The main idea was to create open tool to enable fast data analysis. As a result, the logic scheme was developed and also implementation in MS Access 2010. Presented module includes: set of needed tables, user interface and many SQL queries and VBA macros. The structure of developed database is ready to test on any example. For testing purpose, the virtual company was defined, which produce the mix of velocity reducers. Into database was entered data about 38 products and 234 items (materials, parts). Moreover, author developed special VBA procedure which allows to random generation of sale historical data. In this procedure is possible to define: the range of dates (including work system, holidays etc.), the number of customers, the number of products, customer order details etc. Using this procedure, the sale historical data was generated including 5.5 years from 2008 till 2013. Example data analysis of sale in 2012 is also presented. By the set of cascade SQL queries the following results are generated automatically (based on recorded customer orders): daily quantity aggregation of products and its parts usage, weekly and monthly quantity aggregation of material items (parts) usage, ABC classification, XYZ classification. The database was tested also on real examples from industry. The simply design, easy adaptability to other tasks, fast data processing are the most advantages of developed database.
Źródło:
Zarządzanie Przedsiębiorstwem; 2015, 18, 4; 6-14
1643-4773
Pojawia się w:
Zarządzanie Przedsiębiorstwem
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: I. algebra and query language
Autorzy:
Widera, M.
Jeżewski, J.
Winiarczyk, R.
Wróbel, J.
Horoba, K.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/333189.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
The paper presents the algebra and declarative query language developed for fetal monitoring system MONAKO. At present, the system architecture is centralised. Recording, analyzing and visualization of data are carrying out in the central unit. Therefore, the system cannot scale in a simple manner. Presented solution enables to define query based on data streams that makes the updated answers currently available. Applying database management system that carries out its tasks based on presented assumptions enables the construction of monitoring system of distributed architecture
Źródło:
Journal of Medical Informatics & Technologies; 2003, 5; MI83-90
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: II. Application to signal processing
Autorzy:
Jeżewski, J.
Widera, M.
Winiarczyk, R.
Matonia, A.
Kupka, T.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/334015.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
Fetal monitoring system belongs to signal processing system class. The main functions of the system are signal acquisition from bedside monitors, on-line trace analysis and dynamic presentation of incoming data. Collected data set is controlled by centralised application. Relational database management system cannot process samples of high frequency biomedical signals on-line. Therefore, we decide to build our own data management system dedicated to stream processing that support continuous query. This paper describes a method of building a query plan based on proposed algebra. The presented example of application enables implementation of algorithm determining long- and short-term indices for fetal heart rate variability assessment on the basis of declarative query language. Our solution enables to define query based on data streams that make the updated answers currently available.
Źródło:
Journal of Medical Informatics & Technologies; 2003, 6; IT35-42
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A new data mining approach for power performance verification of an on-shore wind farm
Autorzy:
Castellani, F.
Garinei, A.
Terzi, L.
Astolfi, D.
Moretti, M.
Lombardi, A.
Powiązania:
https://bibliotekanauki.pl/articles/328750.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
wind energy
renewable energy
wind turbine performance
data mining
SCADA database
control systems
fault diagnosis
performance optimization
wind turbine power output
Opis:
Monitoring wind energy production is fundamental to improve the performances of a wind farm during the operational phase. In order to perform reliable operational analysis, data mining of all available information spreading out from turbine control systems is required. In this work a SCADA (Supervisory Control And Data Acquisition) data analysis was performed on a small wind farm and new post-processing methods are proposed for condition monitoring of the aerogenerators. Indicators are defined to detect the malfunctioning of a wind turbine and to select meaningful data to investigate the causes of the anomalous behaviour of a turbine. The operating state database is used to collect information about the proper power production of a wind turbine and a number map has been codified for converting the performance analysis problem into a purely numerical one. Statistical analysis on the number map clearly helps in detecting operational anomalies, providing diagnosis for their reasons. The most operationally stressed turbines are systematically detected through the proposal of two Malfunctioning Indices. Results demonstrate that a proper selection of the SCADA data can be very useful to measure the real performances of a wind farm and thus to define optimal repair/replacement and preventive maintenance policies that play a major role in case of energy production.
Źródło:
Diagnostyka; 2013, 14, 4; 35-42
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A method of ensuring data integrity in a data stream management system
Autorzy:
Widera, M.
Wróbel, J.
Widera, A.
Matonia, A.
Powiązania:
https://bibliotekanauki.pl/articles/333295.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
zarządzanie integralnością systemu baz danych
biomedyczne strumienie danych i przetwarzanie sygnałów
database management system integrity
biomedical data stream and signal processing
Opis:
Assurance of data integrity is one of the prerequisites for each computer system. The paper presents a method enabling on-line maintenance of stream data set integrity. This method is implemented in a data stream management system prototype designed to find application in a biomedical monitoring system. In the case of medical computer systems assurance of data integrity is particularly important for documenting formal results and for the patient's safety.
Źródło:
Journal of Medical Informatics & Technologies; 2004, 8; MM141-148
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Visual Basic jako narzędzie monitorowania i analizy pracy maszyn
Visual Basic as a Tool for Monitoring and Analyzing Machines
Autorzy:
Kęsek, M.
Powiązania:
https://bibliotekanauki.pl/articles/318633.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Przeróbki Kopalin
Tematy:
Visual Basic
analiza pracy maszyny
bazy danych
stopień wykorzystania maszyn
dane
informacja
analysis of machine operation
database
machine utilization
data
information
Opis:
W artykule przybliżono możliwości wykorzystania języka Visual Basic do analizy danych pochodzących z procesu produkcyjnego. Przedstawiono przykładowy program napisany w tym języku oraz omówiono jego funkcjonalność. W programie zawarto rozwiązania, które pozwalają monitorować i analizować część procesu produkcyjnego związaną z urabianiem węgla kamiennego. Artykuł prezentuje szereg koncepcji wykorzystania surowych danych pochodzących z czujników maszyny do uzyskiwania informacji, które mogą być przydatne w analizie jej pracy.
The article brought closer the possibility of using Visual Basic to analyze data from the manufacturing process. An example program written in this language is discussed and its functionality is discussed. The program includes solutions that allow you to monitor and analyze part of the production process associated with hard coal mining. The article presents a number of concepts for the use of raw data derived from sensor machines to obtain information that may be useful in analyzing its work.
Źródło:
Inżynieria Mineralna; 2017, R. 18, nr 2, 2; 195-200
1640-4920
Pojawia się w:
Inżynieria Mineralna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metodyczne aspekty tworzenia banku danych o hydrofizycznych charakterystykach gleb ornych Polski
Methodical aspects of data base creation of hydrophysical characteristics of Polish arable soils
Autorzy:
Walczak, R
Slawinski, C.
Witkowska-Walczak, B.
Powiązania:
https://bibliotekanauki.pl/articles/1630461.pdf
Data publikacji:
1999
Wydawca:
Polska Akademia Nauk. Instytut Agrofizyki PAN
Tematy:
Polska
gleby orne
charakterystyka hydrofizyczna
wlasciwosci hydrofizyczne
bazy danych
banki danych
Polska
arable soil
hydrophysical characteristics
hydrophysical property
database
data bank
Opis:
W pracy przedstawiono materiał i metodyke badań charakterystyk hydrofizycznych gleb ornych Polski będących podstawą do konstuowania bazy danych i tworzenia map ich właściwości.
In this paper the material and methods of investigations of hydrophysical characteristics of Polish arable soils were presented. On the base of this data the maps of water characteristics of Polish arable soils will be created.
Źródło:
Acta Agrophysica; 1999, 22; 245-251
1234-4125
Pojawia się w:
Acta Agrophysica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GIS data standard for environmental protection as applied in the development of protection plan drafts for “Natura 2000” marine protected areas
Standard danych GIS w ochronie przyrody w opracowaniu projektów planów ochrony morskich obszarów Natura 2000
Autorzy:
Pardus, J.
Powiązania:
https://bibliotekanauki.pl/articles/111429.pdf
Data publikacji:
2016
Wydawca:
Instytut Morski w Gdańsku
Tematy:
GIS data standard
SDGIS
natural environment database
Natura 2000 marine areas
standard danych GIS
baza danych przyrodniczych
morskie obszary Natura 2000
Opis:
Spatial databases constitute an essential part of scientific and research studies. As they enable gathered information to be ascribed to a specific geographical location, they contribute to the development of the knowledge base, as well as offering the opportunity to integrate it quickly with other datasets. The aim of this article is to present how a model for a spatial database was created in the process of protection plan drafts for the “Natura 2000” marine areas, basing on the GIS data standard for environmental protection developed in 2009. The paper specifies the problems which hindered its implementation, and the solutions which enabled the development of an aquatic ecosystem inventory within the scope set out in protection plans. The article also emphasises the need to apply a unified standard in environmental studies, and the necessity to refine and update it.
Bazy danych przestrzennych stanowią ważną część opracowań badawczo-naukowych. Dzięki możliwości przypisania zebranych informacji do lokalizacji geograficznej przyczyniają się nie tylko do rozbudowania bazy wiedzy, ale dają również sposobność szybkiej jej integracji z innymi zbiorami danych. Celem niniejszego artykułu jest przedstawienie w jaki sposób budowano model bazy danych przestrzennych przy opracowaniu projektów planów ochrony morskich obszarów Natura 2000 opierając się na przygotowanym w 2009 roku standardzie danych GIS w ochronie przyrody. W pracy wskazano problemy, które napotkano przy jego implementacji oraz opisano przyjęte rozwiązania, które pozwoliły dokonać inwentaryzacji przyrodniczej ekosystemu morskiego zgodnie z zakresem przewidzianym w planach ochrony. W artykule podkreślono również potrzebę stosowania jednolitego standardu w pracach przyrodniczych oraz konieczność jego dopracowania i aktualizacji.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2016, 31, 1; 110-116
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Handheld-Assisted Field Data Collection for Occupational Risk Assessment
Autorzy:
Vernez, D.
Poffet, J. M.
Besrour, A.
Powiązania:
https://bibliotekanauki.pl/articles/90613.pdf
Data publikacji:
2004
Wydawca:
Centralny Instytut Ochrony Pracy
Tematy:
occupational health and safety
hazard identification
risk assessment
field data collection
database
handheld
czynniki ryzyka
bazy danych
komputer
ocena ryzyka zawodowego
Opis:
A computerized handheld procedure is presented in this paper. It is intended as a database complementary tool, to enhance prospective risk analysis in the field of occupational health. The Pendragon forms software (version 3.2) has been used to implement acquisition procedures on Personal Digital Assistants (PDAs) and to transfer data to a computer in an MS-Access format. The data acquisition strategy proposed relies on the risk assessment method practiced at the Institute of Occupational Health Sciences (IST). It involves the use of a systematic hazard list and semi-quantitative risk assessment scales. A set of 7 modular forms has been developed to cover the basic need of field audits. Despite the minor drawbacks observed, the results obtained so far show that handhelds are adequate to support field risk assessment and follow-up activities. Further improvements must still be made in order to increase the tool effectiveness and field adequacy.
Źródło:
International Journal of Occupational Safety and Ergonomics; 2004, 10, 4; 399-410
1080-3548
Pojawia się w:
International Journal of Occupational Safety and Ergonomics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Bezpieczeństwo informacji w przypadku awarii lub katastrofy
Information security in the case of disaster or system malfunction
Autorzy:
Michalski, A.
Powiązania:
https://bibliotekanauki.pl/articles/324529.pdf
Data publikacji:
2012
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
informacja biznesowa
bezpieczeństwo danych
odtwarzanie bazy danych
awaria systemu
katastrofa
wadliwe działanie
business information
data safety
database restore
system failure
disaster
malfunction
Opis:
Dla współczesnej organizacji gospodarczej posiadane zasoby informacyjne stanowią jeden z najważniejszych czynników zapewnienia realizacji procesów biznesowych. Utrata danych w wyniku awarii systemu lub zaistniałej katastrofy najczęściej uniemożliwia powrót do prawidłowego funkcjonowania na rynku. W artykule przeanalizowano potencjalne przyczyny utraty informacji i omówiono sposoby zapobiegania utracie danych i ich odtwarzania w przypadku katastrofy.
In the contemporary enterprise all business processes can be carried out mainly thanks to company's information resources. Data loss in the case of disaster or system malfunction often results in disappearing the company from the market. In the paper possible causes of such scenario and methods how to prevent data loss and recover the system after disaster are presented.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2012, 61; 243-254
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Usage of dedicated data structures for URL databases in a large-scale crawling
Zastosowanie dedykowanych struktur danych w bazach adresów URL crawlingu dużej skali
Autorzy:
Dorosz, K.
Powiązania:
https://bibliotekanauki.pl/articles/305583.pdf
Data publikacji:
2009
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
przeglądanie sieci
robot internetowy
Berkeley DB
baza danych URL
repozytorium URL
struktury danych
crawling
crawler
large-scale
URL database
URL repository
data structures
Opis:
The article discuss usage of Berkeley DB data structures such as hash tables and b-trees for implementation of a high performance URL database. The article presents a formal model for a data structures oriented URL database, which can be used as an alternative for a relational oriented URL database.
W artykule omówiono zastosowanie struktur danych z pakietu Berkeley DB, takich jak: tablice z haszowaniem i b-drzewa do implementacji wysoko wydajnych baz danych adresów URL. Przedstawiono model formalny bazy danych zorientowanej na struktury pamieci, która może być alternatywa dla relacyjnie zorientowanej bazy danych linków URL.
Źródło:
Computer Science; 2009, 10; 7-17
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modele matematyczne związków topologicznych między obiektami przestrzennymi, ich implementacja w relacyjnych bazach danych oraz wykorzystanie do analiz przestrzennych danych geodezyjnych
Mathematical model of topological relations between spatial objects, theirs implementation within relational data bases as well as usage for spatial analyses of geodetic data
Autorzy:
Bielecka, E.
Powiązania:
https://bibliotekanauki.pl/articles/210807.pdf
Data publikacji:
2010
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
związki topologiczne
DI-9EM
analiza przestrzenna
dane geodezyjne
relacyjne bazy danych
topological relations
spatial analyses
DE-9IM
geodetic data
relational database
Opis:
W artykule przeanalizowano cztery systemy przeznaczone do zarządzania relacyjnymi bazami danych: Oracle 11g, PostgreSQL 8.3/PostGIS 1.3.3, SQL Server 2005 i 2008, MySQL, zwracając uwagę na zaimplementowane operatory topologiczne i ich zgodność ze specyfikacjami OGC. Nazwy i definicje stosowanych operatorów, poza bazą Oracle 11g, są zgodne ze standardami OGC i ISO. Jest to bardzo istotne ze względu na interoperacyjność relacyjnych baz danych, ponieważ gwarantuje poprawne i jednakowe rozumienie wyników relacji topologicznych uzyskanych za pomocą różnych narzędzi. Od kilkunastu lat wiele danych geodezyjnych jest udostępnianych użytkownikom tylko i wyłącznie w postaci cyfrowej. Zatem przekazanie klientowi zamówionych danych wymaga wyselekcjonowania z całego zbioru tylko tych, które spełniają wymagania określone w złożonym zapotrzebowaniu na dane. To z kolei nakłada na systemy bazodanowe zarządzające danymi geodezyjnymi pewne wymagania dotyczące wykonywania analiz przestrzennych, a mianowicie wspieranie minimum ośmiu operatorów topologicznych (equals - równość, disjoint - rozłączność, intersects - przecinanie, touches - styczność, crosses - krzyżowanie, within - zawieranie się w, contains - zawieranie i overlaps – nakładanie).
Recently, developers of data base management system implement tools for spatial data analyses within a relational data base. The advantage of usage of a relational database system for storing spatial data have a great potential, especially in data mining. The article presents the results of analysis of the implemented spatial operators and their conformance with ISO and OGC standards in four relational DBMS: Oracle 11g, PostgreSQL 8.3 /PostGIS 1.3.3, SQL Server 2005 and 2008, MySQL. The names and definitions of implemented topological operators, except Oracle 11g data base, are in conformity with standards. This is of utmost importance for interoperability, because it assures correct and identical understanding of the results obtained using different tools. For several years, a lot of geodetic data have been delivered to users in digital form. Therefore data transfer from a database to a client requires selection from an entire data base to a set corresponding to user requirements. This puts on SDMS some additional conditions such as supporting eight topological relationships (equals, disjoint, intersects, touches, crosses, within, contains and overlaps) between spatial data.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2010, 59, 2; 224-241
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie metod modyfikacji struktury bazy danych vmap l2
The elaboration of methods of vmap l2 database structure modification
Autorzy:
Bac-Bronowicz, J.
Kołodziej, A.
Kowalski, P. J.
Olszewski, R.
Powiązania:
https://bibliotekanauki.pl/articles/341307.pdf
Data publikacji:
2007
Wydawca:
Uniwersytet Przyrodniczy we Wrocławiu
Tematy:
infrastruktura danych przestrzennych (SDI)
systemy informacji geograficznej (GIS)
baza danych topograficznych
VMap L2
spatial data infrastructure (SDI)
Geographic Information Systems (GIS)
topographic database
Opis:
W państwowym zasobie geodezyjno-kartograficznym znajdują się następujące bazy danych przestrzennych: Baza Danych Ogólnogeograficznych, VMap L2, Vmap L3 oraz Baza Danych Topograficznych. Tylko jedna z tych baz - VMap L2 może obecnie odgrywać rolę bazy referencyjnej, ponieważ jest opracowana dla obszaru całego kraju, a ponadto zakres i szczegółowość treści odpowiada klasycznej mapie topograficznej. Jednak praktyczne wykorzystanie danych cyfrowych VMap jest ograniczone ze względu na skomplikowaną strukturę (224 klasy obiektów pogrupowanych w 8 kategorii) oraz brak mechanizmów automatycznej wizualizacji kartograficznej. W artykule przedstawiono propozycję uproszczenia struktury bazy danych VMap L2 dla celów analiz i wizualizacji kartograficznej. Opisano 3 podstawowe metody integracji danych. Przeprowadzone z wykorzystaniem systemów informacji geograficznej eksperymenty umożliwiły wybór jednej z metod: integracji wg kryterium podobieństwa z zachowaniem unikalnych typów geometrycznych. Chociaż baza VMap L2 w strukturze użytkowej nie pozbawiona jest pewnych wad, to spełnia postawione na wstępie założenia.
The state geodesic and cartographic resources include the following spatial databases: General Geographic Database, VMap L2, VMap L3 and Topographic Database. Only one of those databases - the VMap Level 2 base may at present serve as a reference database, since it covers the whole territory of Poland and its scope and level of detail is equivalent to the classical topographic map. Yet, the practical use of the VMap digital data is limited on account of the complex structure (224 feature classes grouped in eight categories) and the lack of automatic cartographic visualisation. This paper presents a proposal of VMap L2 database structure simplification for analyses and visualization purposes. There are three main methods of data integration described. The database modification experiments carried out with the use of GIS software allowed to choose one of them: according to the similarity of object characteristics with geometric type preservation. Although the usable structure of VMap L2 database is not free of drawbacks, it does meet the requirements laid down in the introduction.
Źródło:
Acta Scientiarum Polonorum. Geodesia et Descriptio Terrarum; 2007, 6, 2; 27-39
1644-0668
Pojawia się w:
Acta Scientiarum Polonorum. Geodesia et Descriptio Terrarum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparative analysis of the empirical seismic vulnerability of typical structures in multiple intensity zones
Autorzy:
Li, S. Q.
Yu, T. L.
Chen, Y. S.
Powiązania:
https://bibliotekanauki.pl/articles/230122.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
sejsmiczność
porównanie podatności
analiza podatności
dane empiryczne
baza danych sejsmicznych
MDI
struktura typowa
seismicity
vulnerability comparison
vulnerability analysis
empirical data
seismic database
typical structure
Opis:
To study the difference in seismic vulnerability of multiple typical structures in multiple intensity zones, the seismic damage of 7099 buildings of Dujiangyan masonry structure (MS), reinforced concrete structure (RC) and bottom frame seismic wall masonry (BFM) in the 2008 Wenchuan earthquake in China is summarized and analysed. First, a statistical analysis of the data is carried out, the empirical seismic vulnerability matrix and model curves are established by considering the number of storeys, the age and the fortification factors.The vulnerability curves of the cumulative exceeding probability of the empirical seismic damage and the grade of the seismic damage in multiple intensity zones are shown. The mean damage index vulnerability matrix model is proposed and verified using the empirical seismic damage matrix of typical structures.
Źródło:
Archives of Civil Engineering; 2019, 65, 3; 167-183
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
MARD – Maritime Academic Resource Database
Autorzy:
Laczynski, B.
Powiązania:
https://bibliotekanauki.pl/articles/116763.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Morski w Gdyni. Wydział Nawigacyjny
Tematy:
Maritime Academic Resource Database (MARD)
International Association of Maritime Universities (IAMU)
Data Base
Matrix Form
IAMU Members Institutions
Lecturers Qualifications
Academic Level
research experience
Opis:
IAMU (International Association of Maritime Universities) was established fifteen years ago. For this moment IAMU content close to 60 Members Institution. One of the research activities in years 2012- 2014 was: preparing the algorithm for collect and analyze the necessary information and convert it into Matrix form. Both: IAMU MEMBERS INSTITUTION DATABASE and HUMAN RESOURCE DATABASE include comparison indicators such as academic degree, teaching subjects, qualifications, research experience and so on. In opinion of group of researchers new established database should be very useful and helpful in field of cooperation between IAMU Members Institutions.
Źródło:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation; 2014, 8 no. 4; 591-595
2083-6473
2083-6481
Pojawia się w:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Uszczegółowienie bazy danych CORINE Land Cover
Expending of CORINE Land Cover data base
Autorzy:
Adamski, R.
Ciołkosz, A.
Powiązania:
https://bibliotekanauki.pl/articles/204345.pdf
Data publikacji:
2006
Wydawca:
Polskie Towarzystwo Geograficzne
Tematy:
baza danych CORINE Land Cover
CLC-90
CLC-2000
czwarty poziom legendy
uszczegółowienie baz danych
CORINE Land Cover database
expending data base
CLC-90 base
Opis:
W artykule omówiono zagadnienie zwiększenia szczegółowości wydzieleń zawartych w bazach danych opracowanych w ramach programu CORINE Land Cover poprzez zastosowanie mniejszego pola jednostki kartowania i wprowadzenie czwartego poziomu wydzieleń. Porównano zawartość baz danych CORINE Land Cover z nową, szczegółową bazą opracowaną dla powiatu radziejowskiego przy wykorzystaniu tego samego źródła informacji, czyli zdjęć wykonanych przez satelitę Landsat.
The databases prepared within the CORINE Land Cover (CLC) program do not meet the requirements of most national users because of their low spatial resolution. The authors of the article decided to increase this resolution from 25 ha to 2 ha. As the source of information they used the same satellite images which were the basis of CLC database. For an example they chose the area of agricultural Radziejów district (powiat) in central Poland. In CLC-90 base which represents land cover in this region there are 187 polygons with the average size of 324.2 ha representing 13 forms of terrain cover. After having changed the spatial resolution to 2 ha the number of distinguished terrain forms rose to 20. The number of polygons increase to 967 while their average area decreased to 63 ha. In order to make the database more detailed the fourth level of legend was also introduced. It made it possible to increase the number of distinguished forms of terrain cover to 34. A comparison of the data bases prepared for the year 1990 (CLC-90) at the turn of the centuries showed in Radziejów district some minor changes in land cover, which took place on the area of about 147 ha and were represented by only two polygons. At the same time the comparison of detailed data bases showed that those changes covered the area of over 1500 ha and were represented with 297 polygons.
Źródło:
Polski Przegląd Kartograficzny; 2006, T. 38, nr 3, 3; 226-232
0324-8321
Pojawia się w:
Polski Przegląd Kartograficzny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database and bigdata processing system for analysis of AIS messages in the netBaltic research project
Autorzy:
Lewczuk, M.
Cichocki, P.
Woźniak, J.
Powiązania:
https://bibliotekanauki.pl/articles/1940559.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
AIS
NMEA data
Maria DB SQL database
cache mechanism
virtualization
net Baltic project
dane NMEA
baza danych MariaDB SQL
mechanizm pamięci podręcznej
wirtualizacja
projekt sieci Baltic
Opis:
A specialized database and a software tool for graphical and numerical presentation of maritime measurement results has been designed and implemented as part of the research conducted under the netBaltic project (Internet over the Baltic Sea – the implementation of a multi-system, self-organizing broadband communications network over the sea for enhancing navigation safety through the development of e-navigation services.) The developed software allows tracing graphs of radio-connections between shore stations and vessels (offshore units), based on historical data including the traffic of ships and their specific parameters collected on the Baltic Sea during the last four years. It also enables preparation of data for network simulation experiments using AIS (Automatic Identification of Ships) and GPS (Global Positioning System) loggers installed on shore stations and vessels, taking into account a number of input parameters, such as: time range, coast station selection, ship flags based on MMSI numbers and types and ranges of possible communication technologies used (WiFi, WiMax, Radwin, LTE,etc.). The created tool has a multi-layer architecture that utilizes the Maria DB SQL database, the Apache2 WEB server, and a number of PHP applications. The runtime environment has been built on Linux Debian version 8 and the HP C7000 cluster of the 16 CPU x86_64 architecture. The modularity of the application allows parallel processing and, therefore, optimization of the computing cluster. The database contains more than 70 million records which enables simulation of various topologies (with multi-hop transmissions) and network operations depending on the transmission techniques being used. The database is fully scalable, and allows easy adding of further data collected during subsequent measurement sessions. Additionally, the use of virtualization tools facilitates the future migration to more efficient processing environments, in case of a significant increase in the volume of data. The data recorded in the database allows calculation of statistics for the surveyed networks, and determining the incidence of potential network nodes (e.g. by flag) complete with their available communication techniques – information which is important in determining structures of possible multi-hop networks and their performance. The software finds routes for datagrams according to accepted criteria and exports results to a network traffic simulator, and as such is an important part of the framework used for planning next measurement campaigns and determining which communications equipment would be more suitable for vessels.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 321-331
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Practical aspects of computer-based clinical decision support systems
Autorzy:
Ossowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/332898.pdf
Data publikacji:
2002
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
zasada diagnostyczna
reguła w bazie danych
eksploracja danych
optymalna klasyfikacja
komputerowy system diagnostyczny
diagnostic principle
rule in database
data mining
optimal classification
computer-based diagnostic system
Opis:
The general problem of computer-based clinical decision support systems is considered. A class of rules in medical databases characteristic for therapeutic decisions has been distinguished. The necessity of application of a complete set of data for learning computerised systems of decision support has been pointed out. Rough set approach is applied to the analysis of the problem. An illustrative example of application of the presented results in the treatment of endometrial and breast cancer is given.
Źródło:
Journal of Medical Informatics & Technologies; 2002, 3; MI61-69
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problems with assessing safety of vulnerable road users based on traffic accident data
Problemy z oceną bezpieczeństwa niechronionych uczestników ruchu na podstawie danych o wypadkach drogowych
Autorzy:
Olszewski, P.
Osińska, B.
Szagała, P.
Skoczyński, P.
Zielińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/230391.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
bezpieczeństwo ruchu drogowego
uczestnik ruchu niechroniony
wypadek drogowy
baza CARE
jakość danych
statystyka wypadków
road safety
vulnerable road user
accident
data quality
CARE database
accident statistics
Opis:
The problem of poor quality of traffic accident data assembled in national databases has been addressed in European project InDeV. Vulnerable road users (pedestrians, cyclists, motorcyclists and moped riders) are especially affected by underreporting of accidents and misreporting of injury severity. Analyses of data from the European CARE database shows differences between countries in accident number trends as well as in fatality and injury rates which are difficult to explain. A survey of InDeV project partners from 7 EU countries helped to identify differences in their countries in accident and injury definitions as well as in reporting and data checking procedures. Measures to improve the quality of accident data are proposed such as including pedestrian falls in accident statistics, precisely defining minimum injury and combining police accident records with hospital data.
Artykuł przedstawia częściowe wyniki projektu InDeV, którego celem jest pogłębiona analiza przyczyn wypadków z niechronionymi uczestnikami ruchu (NUR). W ramach projektu zbadano jakość i spójność danych o wypadkach drogowych gromadzonych w krajach UE na podstawie raportów policyjnych. Problem zaniżonej liczby wypadków oraz niewłaściwego określania ich ciężkości dotyczy w szczególności NUR (pieszych, rowerzystów, motocyklistów i motorowerzystów). Wykonano analizy statystyczne oparte o dane pochodzące z europejskiej bazy o wypadkach drogowych CARE. Analiza ujawniła trudne do wytłumaczenia różnice pomiędzy krajami, zarówno w odniesieniu do trendów liczby wypadków, jak i wskaźników ofiar śmiertelnych i rannych.
Źródło:
Archives of Civil Engineering; 2016, 62, 4/II; 149-168
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Model rozwoju mączniaka rzekomego (Pseudoperonospora humuli) - aplikacja internetowa
Downy mildew development model (Pseudoperonospora humuli) - internet application
Autorzy:
Zaliwski, A. S.
Pietruch, C.
Powiązania:
https://bibliotekanauki.pl/articles/288148.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
mączniak rzekomy
chmiel
model ochrona
dane pogodowe
system wspomagania decyzji
internetowa aplikacja bazodanowa
downy mildew
plant protection model
weather data
decision support system
Internet database application
Opis:
Przedstawiono internetową aplikację służącą do oceny zagrożenia plantacji chmielu mączniakiem rzekomym. Do budowy aplikacji wykorzystano model rozwoju mączniaka rzekomego, opracowany w Instytucie Chmielarskim w Hüll (Bawaria - Niemcy) i walidowany w Polsce w 1988 roku. Zagrożenie ocenia się na podstawie analizy warunków sprzyjających rozwojowi choroby, określonych przez wartości tzw. pięciodobowego indeksu zagrożenia. Do obliczenia indeksu służą dobowe dane pogodowe (temperatura i wilgotność względna powietrza oraz suma opadu atmosferycznego). Aplikacja oblicza indeks zagrożenia na podstawie danych pogodowych z ostatnich jedenastu dni pobranych z 27 stacji agrometeorologicznych IUNG-PIB. Użytkownik wybiera stację z mapy lub z listy wyboru i wartości indeksu zagrożenia są przedstawiane na wykresie. W przypadku wystąpienia w kolejnych jedenastu dniach indeksu zagrożenia o wartości krytycznej równej lub większej niż 500 pkt, model zaleca wykonanie zabiegu ochrony roślin. Dla wybranych stacji generowane są także pliki tekstowe z danymi pogodowymi, które użytkownik może wykorzystać do kompleksowej analizy warunków sprzyjających rozwojowi mączniaka rzekomego w systemie wspomagania decyzji ProgChmiel.
An Internet application for the estimation of the risk from downy mildew in hop gardens is presented. The downy mildew development model, elaborated at the Hop Institute in Hüll (Bavaria in Germany) and validated in Poland in 1988 was used in the application. The risk is estimated on the basis of an analysis of the conditions favourable for the disease development, determined by the socalled five-day risk index. To calculate the index daily weather data are used (temperature, relative air humidity and precipitation sum). The application calculates the risk index for the latest eleven days from the data from 27 IUNG-PIB's agro-meteorological stations. The users are presented with a graph of the risk index values, after having selected a station from the map or from the drop-down list. In the case of the index being equal to or greater than the critical value of 500 pt in the last eleven consecutive days, the model recommends performing a protection treatment. For the selected stations the text files with weather data in the ProgChmiel DSS format are available. These can be utilised for a more comprehensive analysis of the conditions conducive to the development of downy mildew.
Źródło:
Inżynieria Rolnicza; 2012, R. 16, nr 4, t. 1, 4, t. 1; 457-464
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies