Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "SQL" wg kryterium: Temat


Tytuł:
Fuzzy SQL queries in standard SQL database
Autorzy:
Kudłacik, P.
Powiązania:
https://bibliotekanauki.pl/articles/333473.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
fuzzy SQL
fuzzy database
fuzzy sets
SQL
rozmyte bazy danych
zbiory rozmyte
Opis:
Uncertain queries are very common in many areas of human activity. The problem can be seen particularly in medicine, where expressions like ”very high”, ”low”, ”normal” are commonly used in order to describe different information. However, the most popular data repositories do not allow to form imprecise queries in order to filter information. Therefore, the paper proposes an extension to the standard SQL language allowing anybody to profit from fuzzy database using any SQL engine. The existing approaches employ different mechanisms in order to allow the user to perform fuzzy queries on a database. The most complex solutions modify the database engine itself. However, such approach is strongly bound to the modified server version and must be updated with any development of the original server. Nevertheless, there is possible to store fuzzy information using for instance columns of regular relational database. Therefore, this approach proposes extensions to the query language allowing to use fuzzy information in a query and provides a parser transforming a fuzzy query into a standard SQL. Thus, the database server version is irrelevant. The solution is provided as a module written in multi-platform Java language using popular JDBC database connection.
Źródło:
Journal of Medical Informatics & Technologies; 2016, 25; 28-37
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The optimization of SQL queries by means of drawing up query diagrams
Optymalizacja zapytań SQL metodą sporządzania diagramów zapytań
Autorzy:
Witan, K.
Powiązania:
https://bibliotekanauki.pl/articles/305916.pdf
Data publikacji:
2011
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
optymalizacja zapytań
język SQL
relacyjne bazy danych
query optimization
SQL language
relational database
Opis:
A poorly performing database application not only costs users time, but also has an impact on other applications running on the same computer or the same network. The best method to manage with this problem is performing SQL tuning. There are two basic issues to focus on during tuning: how to find and interpret the execution plan of an SQL statement and how to change a SQL query to get a specific alternate execution plan. But most important is how to find the optimal execution plan for the query to use. This article describes a timesaving method developed for finding the optimum execution plan - rapidly and systematically - regardless of the complexity of the SQL query or the database platform being used. It explains how to understand and control SQL execution plan and how to diagram SQL queries to deduce the best execution plan for a query.
Niewłaściwie skonstruowane aplikacje bazodanowe nie tylko wymagają poświęcenia nadmiernej ilości czasu na ich obsługę, lecz mają także wpływ na inne aplikacje funkcjonujące na tym samym komputerze, lub w tej samej sieci. Najlepszą metodą pozwalającą na rozwiązanie powyższego problemu, jest przeprowadzenie optymalizacji zapytań. Istnieją dwie podstawowe kwestie na których należy się skoncentrować w trakcie optymalizacji: jak znaleźć i zinterpretować plan wykonania dla zapytania SQL, oraz jak zmodyfikować zapytanie SQL, aby uzyskać określony alternatywny plan wykonania. Jednak najistotniejsze jest jak znaleźć optymalny plan wykonania dla konkretnego zapytania. Bieżący artykuł opisuje metodę, charakteryzującą się niską czasochłonnością, opracowaną w celu wyznaczenia optymalnego planu wykonania - szybko i systematycznie - niezależnie od poziomu złożoności zapytania SQL, lub rodzaju użytej platformy bazodanowej. Wyjaśnia on jak zrozumieć i kontrolować plan wykonania SQL, a także jak opracować diagram zapytania, umożliwiający wybór najlepszego planu wykonania dla zapytania.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2011, 7; 61-68
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of data of organic farms with the use of non-standard reports in Gekko software
Analiza danych gospodarstw ekologicznych z wykorzystaniem raportów niestandardowych w programie Gekko
Autorzy:
Cupiał, M.
Szeląg-Sikora, A.
Powiązania:
https://bibliotekanauki.pl/articles/93767.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
software
organic farm
reporting
SQL language
program komputerowy
gospodarstwo ekologiczne
sprawozdawczość
język SQL
Opis:
Gekko software is designed to keep reporting in organic farms, which is required by supervising institutions. The program enables collection in its base, data, which are required from a farmer and additional information as well. Based on these data, reports and lists are generated in the program. However, beside standard lists, the software enables programming by a user his calculations. These calculations enable generating unpredicted lists in a standard version of the software. Gekko software was developed within the National Centre for Research and Development (NCBiR ) project No NR 12-0165-10/2010 titled "Innovative influence of technology and information manage-ment supporting system on production efficiency in organic farms."
Program Gekko przeznaczony jest do prowadzenia w gospodarstwach ekologicznych sprawozdawczości wymaganej przez instytucje nadzorujące. Program umożliwia gromadzenie w swojej bazie, danych wymaganych od rolnika, a także informacji dodatkowych. Na podstawie tych danych generowane są w programie raporty i zestawienia. Jednak poza standardowymi zestawieniami, program umożliwia programowanie przez użytkownika własnych obliczeń. Te obliczenia umożliwiają wygenerowanie zestawień nieprzewidzianych w standardowej wersji oprogramowania. Program Gekko opracowany został w ramach projektu NCBiR Nr NR12-0165-10 pt.: „Innowacyjne oddziaływanie techniki i technologii oraz informatycznego wspomagania zarządzania na efektywność produkcji w gospodarstwach ekologicznych”.
Źródło:
Agricultural Engineering; 2014, 18, 2; 47-53
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accelerating SELECT WHERE and SELECT JOIN queries on a GPU
Autorzy:
Pietroń, M.
Russek, P.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305797.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
SQL
CUDA
relational databases
GPU
Opis:
This paper presents implementations of a few selected SQL operations using the CUDA programming framework on the GPU platform. Nowadays, the GPU’s parallel architectures give a high speed-up on certain problems. Therefore, the number of non-graphical problems that can be run and sped-up on the GPU still increases. Especially, there has been a lot of research in data mining on GPUs. In many cases it proves the advantage of offloading processing from the CPU to the GPU. At the beginning of our project we chose the set of SELECT WHERE and SELECT JOIN instructions as the most common operations used in databases. We parallelized these SQL operations using three main mechanisms in CUDA: thread group hierarchy, shared memories, and barrier synchronization. Our results show that the implemented highly parallel SELECT WHERE and SELECT JOIN operations on the GPU platform can be significantly faster than the sequential one in a database system run on the CPU.
Źródło:
Computer Science; 2013, 14 (2); 243-252
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of SQL as a tool supporting the implementation of a method of attribute significance analysis based on soft reduction of attributes in the rough set theory
Użycie języka SQL jako narzędzie wspomagające implementację metody analizy istotności atrybutów w oparciu o miękką redukcję atrybutów w teorii zbiorów przybliżonych
Autorzy:
Nozdrzykowski, Ł.
Wróbel, M.
Powiązania:
https://bibliotekanauki.pl/articles/250371.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy TTS
Tematy:
SQL language
rough set theory
attributes reduction
język SQL
teoria zbiorów przybliżonych
redukcja atrybutów
Opis:
The article presents a way to quickly implement a method of analyzing the significance of attributes by using soft reduction of conditional attributes in the rough set theory. The analysis is a universal instrument for testing the significance of attributes and may be successfully used in many fields, including transport. It uses the rules that can be considered useful and allows reducing those attributes that do not cause a significant decrease in the number of rules generating entirely certain rules. At the same time it is a rapid mechanism of analyzing large data sets such as encoded attributes of rules. For implementation purposes we propose to use the mechanisms of modern relational databases and the capabilities presently offered by the SQL language, including its expansion with conditional CASE queries.
W artykule przedstawiono sposób na szybką implementację metody analizy istotności atrybutów poprzez wykorzystanie miękkiej redukcji atrybutów warunkowy w teorii zbiorów przybliżonych. Analiza ta wykorzystuje reguły, które można uznać za użyteczne i pozwala na redukcję atrybutów, które nie powodują znacznego spadku liczby reguł generujących całkowicie pewne reguły. Jest przy tym szybkim mechanizmem analizy dużych zbiorów danych jakim są zakodowane atrybuty reguł. Do celów implementacyjnych zaproponowano wykorzystanie mechanizmów współczesnych relacyjnych baz danych oraz możliwości jakie obecnie daje język SQL, w tym rozbudowanie go o zapytania warunkowe typu CASE.
Źródło:
TTS Technika Transportu Szynowego; 2016, 12; 172-176
1232-3829
2543-5728
Pojawia się w:
TTS Technika Transportu Szynowego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of SQL Injection Detection Techniques
Autorzy:
Singh, J. P.
Powiązania:
https://bibliotekanauki.pl/articles/375681.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
SQL Injection
runtime monitoring
Static Analysis
Opis:
SQL Injection is one of the vulnerabilities in OWASP's Top Ten List forWeb Based Application Exploitation. These type of attacks take place on Dynamic Web applications as they interact with databases for various operations. Current Content Management System like Drupal, Joomla or Wordpress have all information stored in their databases. A single intrusion into these type of websites can lead to overall control of websites by an attacker. Researchers are aware of basic SQL Injection attacks, but there are numerous SQL Injection attacks which are yet to be prevented and detected. Over here, we present the extensive review for the Advanced SQL Injection attack such as Fast Flux SQL Injection, Compounded SQL Injection and Deep Blind SQL Injection. We also analyze the detection and prevention using the classical methods as well as modern approaches. We will be discussing the Comparative Evaluation for prevention of SQL Injection.
Źródło:
Theoretical and Applied Informatics; 2016, 28, 1-2; 37-55
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimisation analysis of Transact-SQL queries based on indexes
Analiza optymalizacji kwerend języka Transact-SQL opartych o indeksy
Autorzy:
Hodun, D.
Skublewska-Paszkowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/408092.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
Transact-SQL
optimization
queries
optymalizacja
zapytania
Opis:
The article presents a discussion of the optimisation methods involving the modification of query syntax on the example of the use of indexes that served for the application of the methods in practice, and the presentation and analysis of the test results and their comparison. All the queries were made in a Microsoft SQL Server Management Studio 2014 environment, using the AdventureWorksDW2012 test database provided by Microsoft. The object of the research were SELECT queries, which consequently returned the desired set of output data.
Artykuł obejmuje omówienie metod optymalizacji polegających na modyfikacji składni zapytań na przykładzie wykorzystania indeksów, które posłużyły do zastosowania metod w praktyce, a także przedstawienie i analizę otrzymanych wyników badań i ich porównanie. Wszystkie zapytania zostały wykonane w środowisku Microsoft SQL Server Management Studio 2014 przy użyciu bazy testowej, udostępnionej przez firmę Microsoft, AdventureWorksDW2012. Obiektem badań były zapytania SELECT, które w rezultacie zwracały pożądany zbiór danych wynikowych.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 3; 29-32
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realization of a system of efficient querying of hierarchical data transformed into a quasi-relational model
Autorzy:
Furmanek, A.
Tokaj, J.
Marcjan, R.
Siwik, L.
Powiązania:
https://bibliotekanauki.pl/articles/305395.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
XML
SQL
hierarchical data
relational model
Opis:
Extensible Markup Language was mainly designed to easily represent documents; however, it has evolved and is now widely used for the representation of arbitrary data structures. There are many Application Programming Interfaces (APIs) to aid software developers with processing XML data. There are also many languages for querying and transforming XML, such as XPath or XQuery, which are widely used in this field. However, because of the great flexibility of XML documents, there are no unified data storing and processing standards, tools, or systems. On the other hand, a relational model is still the most-commonly and widely used standard for storing and querying data. Many Database Management Systems consist of components for loading and transforming hierarchical data. DB2 pureXML or Oracle SQLX are some of the most-recognized examples. Unfortunately, all of them require knowledge of additional tools, standards, and languages dedicated to accessing hierarchical data (for example, XPath or XQuery). Transforming XML documents into a (quasi)relational model and then querying (transformed) documents with SQL or SQL–like queries would significantly simplify the development of data-oriented systems and applications. In this paper, an implementation of the SQLxD query system is proposed. The XML documents are converted into a quasi-relational model (preserving their hierarchical structure), and the SQL–like language based on SQL-92 allows for efficient data querying.
Źródło:
Computer Science; 2016, 17 (3); 353-369
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The influence of indexing methods on effective functioning of the database
Autorzy:
Barczak, A.
Zacharczuk, D.
Korzeniecka, A.
Powiązania:
https://bibliotekanauki.pl/articles/92938.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
database optimization
T-SQL
MS Server
indices
Opis:
The article describes the different types of indexes. Their characteristic determines whether and when they can be used to improve database performance. Then studies are performed using different indices for different situations. The conclusions of the study can be serve as a guide to correct use of indexes.
Źródło:
Studia Informatica : systems and information technology; 2013, 1-2(17); 5-18
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Indexes selection for blocks of related SQL queries
Autorzy:
Boroński, R.
Powiązania:
https://bibliotekanauki.pl/articles/117981.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
indexes selection for blocks of related SQL queries
Opis:
This paper discusses the problem of minimizing the response time for a given database workload by a proper choice of indexes. The main objective of our contribution is to illustrate the database queries as a group and search for good indexes for the group instead of an individual query. We present queries block relation conditions for applying the concept of grouped queries index selection. In three experimental tests we provide measurements on the quality of the recommended approach.
Źródło:
Applied Computer Science; 2012, 8, 2; 3-21
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
CLASSIFICATION OF POLISH HOUSEHOLDS BASED ON THEIR INCOMES BY MEANS OF DECISION TREES
Autorzy:
Karpio, Andrzej
Koszela, Grzegorz
Orłowski, Arkadiusz
Łukasiewicz, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/452905.pdf
Data publikacji:
2014
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
income distribution
high incomes
classification trees
entropy
SQL Server
Opis:
Classification trees included in SQL Server 2008R2 Analysis Services package have been used to classify Polish households based on their incomes. The analysis has been performed by means of the three algorithms and their effectiveness has been measured. Using the best algorithm a groups of households with the lowest and the largest incomes have been distinguished. The most important attributes describing households with the lowest and the largest incomes were identified and discussed.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2014, 15, 2; 403-413
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of the attribute significance analysis with the use of soft reduction of attributes in the rough set theory on the basis of the SQL mechanisms
Autorzy:
Nozdrzykowski, Ł.
Nozdrzykowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/114726.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
rough set theory
data analysis
soft reduction of attributes
SQL implementation
Opis:
This article presents a way to use databases supporting the SQL and PL/SQL in the implementation of a method of attribute significance analysis with the use of soft reduction of attributes in the rough set theory. A number of SQL queries are presented, which facilitate the implementation. The original mechanisms presented previously [1] are supplemented with queries which facilitate the execution of attribute coding. The authors present a complete implementation of the method, from the coding of attributes to the determination of the significance of conditional attributes. Application of queries to the database eliminates the necessity to build data grouping and data mining mechanisms and calculation of repetitions of identical rules in the reduced decision rule space. Without the support of a database, the creation of universal data grouping and data mining mechanisms which could be used with any number of attributes is a challenging task.
Źródło:
Measurement Automation Monitoring; 2017, 63, 1; 10-14
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database and bigdata processing system for analysis of AIS messages in the netBaltic research project
Autorzy:
Lewczuk, M.
Cichocki, P.
Woźniak, J.
Powiązania:
https://bibliotekanauki.pl/articles/1940559.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
AIS
NMEA data
Maria DB SQL database
cache mechanism
virtualization
net Baltic project
dane NMEA
baza danych MariaDB SQL
mechanizm pamięci podręcznej
wirtualizacja
projekt sieci Baltic
Opis:
A specialized database and a software tool for graphical and numerical presentation of maritime measurement results has been designed and implemented as part of the research conducted under the netBaltic project (Internet over the Baltic Sea – the implementation of a multi-system, self-organizing broadband communications network over the sea for enhancing navigation safety through the development of e-navigation services.) The developed software allows tracing graphs of radio-connections between shore stations and vessels (offshore units), based on historical data including the traffic of ships and their specific parameters collected on the Baltic Sea during the last four years. It also enables preparation of data for network simulation experiments using AIS (Automatic Identification of Ships) and GPS (Global Positioning System) loggers installed on shore stations and vessels, taking into account a number of input parameters, such as: time range, coast station selection, ship flags based on MMSI numbers and types and ranges of possible communication technologies used (WiFi, WiMax, Radwin, LTE,etc.). The created tool has a multi-layer architecture that utilizes the Maria DB SQL database, the Apache2 WEB server, and a number of PHP applications. The runtime environment has been built on Linux Debian version 8 and the HP C7000 cluster of the 16 CPU x86_64 architecture. The modularity of the application allows parallel processing and, therefore, optimization of the computing cluster. The database contains more than 70 million records which enables simulation of various topologies (with multi-hop transmissions) and network operations depending on the transmission techniques being used. The database is fully scalable, and allows easy adding of further data collected during subsequent measurement sessions. Additionally, the use of virtualization tools facilitates the future migration to more efficient processing environments, in case of a significant increase in the volume of data. The data recorded in the database allows calculation of statistics for the surveyed networks, and determining the incidence of potential network nodes (e.g. by flag) complete with their available communication techniques – information which is important in determining structures of possible multi-hop networks and their performance. The software finds routes for datagrams according to accepted criteria and exports results to a network traffic simulator, and as such is an important part of the framework used for planning next measurement campaigns and determining which communications equipment would be more suitable for vessels.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 321-331
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Overview and implementing sql server high availability solutions
Autorzy:
Bleja, M.
Powiązania:
https://bibliotekanauki.pl/articles/94781.pdf
Data publikacji:
2016
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
high availability
windows clusters
availability group
failover cluster instance
database mirroring
log shipping
SQL Server
baza danych
serwer bazodanowy
Opis:
The paper presents the concepts related to the design of high availability solutions for Microsoft SQL (MS SQL) Server database servers. MS SQL Server from version 2012 offers a new capability called AlwaysOn which is aimed at reducing downtime of servers or databases during a failure. It includes several mechanisms such as Failover Cluster Instances, Availability Groups, Database mirroring, Log shipping. The paper presents the implementation of some of these concepts in our prototype. We also compare these mechanisms focusing on their aptitude in contemporary information systems.
Źródło:
Information Systems in Management; 2016, 5, 4; 463-472
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database for integration of information in distributed data exchange system elements of Border Guard
Baza danych dla potrzeb integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej
Autorzy:
Kaczmarek, S.
Młynarczuk, M.
Sac, M.
Powiązania:
https://bibliotekanauki.pl/articles/221903.pdf
Data publikacji:
2015
Wydawca:
Akademia Marynarki Wojennej. Wydział Dowodzenia i Operacji Morskich
Tematy:
database
SQL
database client
exchange system
Maritime Border Guard
baza danych
klient bazy danych
system wymiany
Morska Straż Graniczna
Opis:
The paper presents the database solution for integration of information in distributed data exchange system elements of the Polish Border Guard. The proposed database solution is described in the context of data exchange system elements which control position and store identification data of vessels (fishing, sports and sailing boats) and other suspicious objects on the territorial sea, sea-coast and the internal sea-waters controlled by Maritime Polish Border Guard. The paper presents the general architecture of the data exchange system ele-ments of Border Guard, the general MapServer architecture as a component of the Border Guard system. To explain the challenges being faced during implementation the conceptual model of database is also presented. Moreover main functionalities of database client and functional tests results are described.
W artykule zaprezentowano bazę danych dla potrzeb integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej. Proponowane rozwiązanie bazy danych zostało przedstawione w kontekście elementów systemu umożliwiających kontrolę położenia i przechowanie danych identyfikujących statki (rybackie, sportowe, żaglówki) i inne podejrzane obiekty na morzu terytorialnym, na brzegu morza i w obszarze morskich wód wewnętrznych patrolowanych przez Morski Oddział Straży Granicznej. Przedstawiono ogólną architekturę systemu wymiany danych Straży Granicznej i ogólną architekturę MapServera — kluczowego elementu systemu wymiany danych. Istotę problemu i wyzwania, jakim należało sprostać, poparto modelem konceptualnym bazy danych. W artykule zaprezentowano również główne funkcje klienta bazy danych oraz wyniki testów funkcjonalnych.
Źródło:
Zeszyty Naukowe Akademii Marynarki Wojennej; 2015, R. 56 nr 3 (202), 3 (202); 33-46
0860-889X
Pojawia się w:
Zeszyty Naukowe Akademii Marynarki Wojennej
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies