Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "SQL Database" wg kryterium: Temat


Wyświetlanie 1-14 z 14
Tytuł:
Analiza porównawcza wydajności czasowej zapytań bazodanowych w języku C#
Comparative analysis of the time performance of database queries in C# language
Autorzy:
Nowicki, Tomasz
Tomczak, Sebastian
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/2055100.pdf
Data publikacji:
2022
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
C#
Entity Framework Core
SQL Database
Prepared Statement
.NET Framework
Opis:
Na świecie istnieje duża liczba aplikacji komputerowych wykorzystujących bazy danych celem utrwalania, przetwarzania i wykorzystania danych, co przekłada się na wiele różnych sposobów obsługi tychże baz. Trudno jest więc wybrać rozwiązanie spełniające potrzeby użytkownika. W niniejszym artykule porówanano pod kątem wydajności trzy rozwiązania dla języka C#: szkielet aplikacji Entity Framework Core, zapytania SQL przesyłane w postaci jednego łańcucha znaków, oraz sparametryzowane zapytania Prepared Statement. Uzyskane w toku badań wyniki pozwoliły określić, że najszybszym rozwiązaniem jest wykorzystanie niesparametryzowanego zapytania SQL. Wykorzystanie Entity Framework Core jest najwolniejszym z trzech badanych rozwiązań.
There are many computer applications in the world that use databases to store, process, and use data. That translates into many different ways of handling these databases. It is therefore difficult to choose a solution that meets the needs of the user. This article compares three C# solutions in terms of time efficiency: the Entity Framework Core application framework, pure SQL queries, and parameterized Prepared Statement queries. The results obtained in the course of the research has shown that the fastest solution is the use of non-parameterised SQL queries. The use of Entity Framework Core is the slowest of the three tested solutions.
Źródło:
Journal of Computer Sciences Institute; 2022, 22; 8--12
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda importu danych eksploatacyjnych urządzeń sterowania ruchem kolejowym do bazy danych
Method of importing operational data of railway traffic control devices into the database
Autorzy:
Nowakowski, Waldemar
Bojarczak, Piotr
Łukasik, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/316942.pdf
Data publikacji:
2019
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
urządzenia sterowania ruchem kolejowym
sterowanie ruchem kolejowym
diagnostyka
baza MS SQL
railway traffic control devices
diagnostics
MS SQL database
Opis:
Urządzenia sterowania ruchem kolejowym odpowiadają za bezpieczne i sprawne prowadzenie ruchu kolejowego. Mimo ciągłego rozwoju tych urządzeń, podobnie jak inne urządzenia techniczne, ulegają one uszkodzeniom. Ze względu jednak na fakt, że urządzenia sterowania ruchem kolejowym są związane z bezpieczeństwem, wymaga się od nich nie tylko określonej niezawodności, ale również braku niedopuszczalnego ryzyka. Bardzo duża liczba urządzeń sterowania ruchem kolejowym, różnorodność ich typów, rozmaitość rozwiązań technicznych, a także określona awaryjność powodują duże utrudnienie w zapewnieniu sprawności tych urządzeń. Dlatego też ich eksploatacja musi być wspierana przez diagnostykę techniczną. Uzyskane w wyniku diagnostyki technicznej informacje o zmianach stanu technicznego urządzeń są przechowywane w określonych zbiorach danych, przy czym w przypadku poszczególnych zakładów linii kolejowych PKP PLK S.A. są to najczęściej arkusze kalkulacyjne Excel pakietu Microsoft Office. Autorzy artykułu zaproponowali przeniesienie tych danych do relacyjnej bazy MS SQL za pomocą opracowanego w tym celu autorskiego oprogramowania.
Railway control devices are responsible for the safe and efficient operation of railway traffic. Despite the continuous development of these devices, like other technical solutions, they are being damaged. However, since railway control devices are safety-related, they are not only required to be reliable, but also to be free from unacceptable risks. The very large number of control devices, the variety of their types, the variety of technical solutions, as well as the specific failure rate make it very difficult to ensure the efficiency of these equipment. Therefore, their operation must be supported by technical diagnostics. Information obtained as a result of technical diagnostics about changes in the technical condition of devices is stored in specific data sets. However, in the case of individual railway lines plants of PKP PLK S.A. these are most often Excel spreadsheets of Microsoft Office. The authors of the article proposed to transfer these data to the MS SQL relational database with the use of proprietary software developed for this purpose.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2019, 20, 6; 223-228
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database and bigdata processing system for analysis of AIS messages in the netBaltic research project
Autorzy:
Lewczuk, M.
Cichocki, P.
Woźniak, J.
Powiązania:
https://bibliotekanauki.pl/articles/1940559.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
AIS
NMEA data
Maria DB SQL database
cache mechanism
virtualization
net Baltic project
dane NMEA
baza danych MariaDB SQL
mechanizm pamięci podręcznej
wirtualizacja
projekt sieci Baltic
Opis:
A specialized database and a software tool for graphical and numerical presentation of maritime measurement results has been designed and implemented as part of the research conducted under the netBaltic project (Internet over the Baltic Sea – the implementation of a multi-system, self-organizing broadband communications network over the sea for enhancing navigation safety through the development of e-navigation services.) The developed software allows tracing graphs of radio-connections between shore stations and vessels (offshore units), based on historical data including the traffic of ships and their specific parameters collected on the Baltic Sea during the last four years. It also enables preparation of data for network simulation experiments using AIS (Automatic Identification of Ships) and GPS (Global Positioning System) loggers installed on shore stations and vessels, taking into account a number of input parameters, such as: time range, coast station selection, ship flags based on MMSI numbers and types and ranges of possible communication technologies used (WiFi, WiMax, Radwin, LTE,etc.). The created tool has a multi-layer architecture that utilizes the Maria DB SQL database, the Apache2 WEB server, and a number of PHP applications. The runtime environment has been built on Linux Debian version 8 and the HP C7000 cluster of the 16 CPU x86_64 architecture. The modularity of the application allows parallel processing and, therefore, optimization of the computing cluster. The database contains more than 70 million records which enables simulation of various topologies (with multi-hop transmissions) and network operations depending on the transmission techniques being used. The database is fully scalable, and allows easy adding of further data collected during subsequent measurement sessions. Additionally, the use of virtualization tools facilitates the future migration to more efficient processing environments, in case of a significant increase in the volume of data. The data recorded in the database allows calculation of statistics for the surveyed networks, and determining the incidence of potential network nodes (e.g. by flag) complete with their available communication techniques – information which is important in determining structures of possible multi-hop networks and their performance. The software finds routes for datagrams according to accepted criteria and exports results to a network traffic simulator, and as such is an important part of the framework used for planning next measurement campaigns and determining which communications equipment would be more suitable for vessels.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 321-331
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ mechanizmu indeksowania danych na szybkość realizacji zapytań SQL
Impact of data indexing on the speed of execution of SQL queries
Autorzy:
Gryglewicz-Kacerka, W.
Kacerka, J.
Powiązania:
https://bibliotekanauki.pl/articles/266837.pdf
Data publikacji:
2015
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
indeksowanie
wydajność zapytań SQL
bazy danych
indexing
query performance SQL
database
Opis:
Przedmiotem pracy jest analiza doświadczalna wpływu wybranych metod indeksowania na czas wykonania polecenia SQL. Badaniom poddano bazę testową wydzieloną z rzeczywistego systemu bankowego. Pomiary czasu wykonania zapytania SQL wykonano dla tabel zawierających do 1000000 rekordów. Badania przeprowadzono dla tabel nie zawierających indeksów oraz tabel zawierających indeksy. Do badań wykorzystano relacyjny system zarządzania bazą danych oparty na Oracle 9. Wyniki badań doświadczalnych pozwoliły na modernizację pracy systemu bankowego.
The subject of the study is to analyse the impact of selected experimental methods of crawling on the execution time of SQL commands. The study involved test database separate from the actual banking system. Measurements runtime SQL queries made for tables containing up to 1000000 records. The study was conducted for tables that do not contain indexes and tables with indexes. The study used relational database management system based on Oracle. The experimental results have enabled the modernization work of the banking system. Analysis of the results showed that the use of indices in most of the cases can significantly reduce the waiting time for the results of SQL queries, especially for tables containing a large amount of records. In the cases studied to reduce the time it was even more than 6few hundred times.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2015, 47; 59-62
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The influence of indexing methods on effective functioning of the database
Autorzy:
Barczak, A.
Zacharczuk, D.
Korzeniecka, A.
Powiązania:
https://bibliotekanauki.pl/articles/92938.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
database optimization
T-SQL
MS Server
indices
Opis:
The article describes the different types of indexes. Their characteristic determines whether and when they can be used to improve database performance. Then studies are performed using different indices for different situations. The conclusions of the study can be serve as a guide to correct use of indexes.
Źródło:
Studia Informatica : systems and information technology; 2013, 1-2(17); 5-18
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzy SQL queries in standard SQL database
Autorzy:
Kudłacik, P.
Powiązania:
https://bibliotekanauki.pl/articles/333473.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
fuzzy SQL
fuzzy database
fuzzy sets
SQL
rozmyte bazy danych
zbiory rozmyte
Opis:
Uncertain queries are very common in many areas of human activity. The problem can be seen particularly in medicine, where expressions like ”very high”, ”low”, ”normal” are commonly used in order to describe different information. However, the most popular data repositories do not allow to form imprecise queries in order to filter information. Therefore, the paper proposes an extension to the standard SQL language allowing anybody to profit from fuzzy database using any SQL engine. The existing approaches employ different mechanisms in order to allow the user to perform fuzzy queries on a database. The most complex solutions modify the database engine itself. However, such approach is strongly bound to the modified server version and must be updated with any development of the original server. Nevertheless, there is possible to store fuzzy information using for instance columns of regular relational database. Therefore, this approach proposes extensions to the query language allowing to use fuzzy information in a query and provides a parser transforming a fuzzy query into a standard SQL. Thus, the database server version is irrelevant. The solution is provided as a module written in multi-platform Java language using popular JDBC database connection.
Źródło:
Journal of Medical Informatics & Technologies; 2016, 25; 28-37
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie systemów bazodanowych Oracle 19c, SQL Server 2019, Post-greSQL 12 oraz MySQL 8
Oracle 19c, SQL Server 2019, Postgresql 12 and MySQL 8 database sys-tems comparison
Autorzy:
Solarz, Arkadiusz
Szymczyk, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/1427691.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
relational database
performance
SQL
relacyjne bazy danych
wydajność
Opis:
W artykule przedstawiona została analiza porównawcza czterech technologii bazodanowych. Komercyjne systemy Oracle Database i SQL Server porównane są z darmowymi systemami do zarządzania bazą danych: PostgreSQL i MySQL. Systemy te dsotępne są na rynku od kilkunastu lat, do testów i porównania wybrane zostały wersje wydane w 2019 roku. Na potrzeby analizy porównawczej zaprojektowano oraz utworzono schemat bazy danych. Następnie opracowano scenariusze testowe. Przygotowane zostały one w oparciu o najpopularniejsze operacje wykonywane z wykorzystaniem systemów bazodanowych.
This article presents a comparative analysis of four popular database technologies. Commercial Oracle Database and SQL Server systems have been compared with open source database management systems: PostgreSQL and MySQL. These systems have been available on the market for over a dozen years. Versions released in 2019 were selected for testing and comparison. For the purposes of the comparative analysis, a database schema was developed and instantiated. Then, test scenarios have been developed. They have been prepared on the basis of the most popular operations performed with the use of database systems.
Źródło:
Journal of Computer Sciences Institute; 2020, 17; 373-378
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The optimization of SQL queries by means of drawing up query diagrams
Optymalizacja zapytań SQL metodą sporządzania diagramów zapytań
Autorzy:
Witan, K.
Powiązania:
https://bibliotekanauki.pl/articles/305916.pdf
Data publikacji:
2011
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
optymalizacja zapytań
język SQL
relacyjne bazy danych
query optimization
SQL language
relational database
Opis:
A poorly performing database application not only costs users time, but also has an impact on other applications running on the same computer or the same network. The best method to manage with this problem is performing SQL tuning. There are two basic issues to focus on during tuning: how to find and interpret the execution plan of an SQL statement and how to change a SQL query to get a specific alternate execution plan. But most important is how to find the optimal execution plan for the query to use. This article describes a timesaving method developed for finding the optimum execution plan - rapidly and systematically - regardless of the complexity of the SQL query or the database platform being used. It explains how to understand and control SQL execution plan and how to diagram SQL queries to deduce the best execution plan for a query.
Niewłaściwie skonstruowane aplikacje bazodanowe nie tylko wymagają poświęcenia nadmiernej ilości czasu na ich obsługę, lecz mają także wpływ na inne aplikacje funkcjonujące na tym samym komputerze, lub w tej samej sieci. Najlepszą metodą pozwalającą na rozwiązanie powyższego problemu, jest przeprowadzenie optymalizacji zapytań. Istnieją dwie podstawowe kwestie na których należy się skoncentrować w trakcie optymalizacji: jak znaleźć i zinterpretować plan wykonania dla zapytania SQL, oraz jak zmodyfikować zapytanie SQL, aby uzyskać określony alternatywny plan wykonania. Jednak najistotniejsze jest jak znaleźć optymalny plan wykonania dla konkretnego zapytania. Bieżący artykuł opisuje metodę, charakteryzującą się niską czasochłonnością, opracowaną w celu wyznaczenia optymalnego planu wykonania - szybko i systematycznie - niezależnie od poziomu złożoności zapytania SQL, lub rodzaju użytej platformy bazodanowej. Wyjaśnia on jak zrozumieć i kontrolować plan wykonania SQL, a także jak opracować diagram zapytania, umożliwiający wybór najlepszego planu wykonania dla zapytania.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2011, 7; 61-68
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wydajności systemów bazodanowych: MySQL, MS SQL, PostgreSQL w kontekście aplikacji internetowych
Performance analysis of selected database systems: MySQL, MS SQL, PostgerSQL in the context of web applications
Autorzy:
Lachewicz, Katarzyna
Powiązania:
https://bibliotekanauki.pl/articles/98150.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
MySQL
MS SQL
PostgreSQL
wydajność baz danych
database performance
Opis:
Głównym celem niniejszego artykułu jest weryfikacja, który z trzech systemów bazodanowych: MySQL, MS SQL, PostgeSQL, jest najbardziej wydajny w kontekście aplikacji internetowych. W artykule zawarto informacje dotyczące wykorzystanych systemów bazodanowych, jednakże kluczowym elementem artykułu są badania wydajności baz danych. Zostały one wykonane w oparciu o aplikację, której najważniejszym zadaniem jest wykonywanie zapytań do bazy danych. Program został zbudowany w oparciu o najnowsze technologie, takie jak framework Spring, biblioteka Hibernate oraz interfejs JDBC.
The main purpose of this article is to check which database: MySQL, MS SQL, PostgerSQL is the most efficient for Internet applications. This work contains information about the databases used, but the most important part of this article is database performance research. They are based on an application whose main task was database queries. The program was created based on new technologies, such as the Spring framework, the Hibernate library and JDBC Interface.
Źródło:
Journal of Computer Sciences Institute; 2020, 14; 94-100
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dialekty języka SQL w implementacjach Oracle oraz MS SQL Server
Autorzy:
Olczyk, D.
Powiązania:
https://bibliotekanauki.pl/articles/91339.pdf
Data publikacji:
2007
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
język SQL
relacyjne bazy danych
System Zarządzania Bazą Danych
SZBD
SQL language
relational databases
database management system
DBMS
Opis:
W artykule przedstawiono podstawowe informacje na temat relacyjnych baz danych definiując najbardziej istotne pojęcia oraz odwołując się do historii powstawania standardów w tej dziedzinie wiedzy informatycznej. Wychodząc od kryteriów Codda na relacyjną bazę danych omówiono różnice między bazą danych a Systemem Zarządzania Bazą Danych, a także sformułowano główne funkcje SZBD. Po krótkiej klasyfikacji języka SQL służącego do manipulacji bazami danych przedstawiono w części zasadniczej różnice i podobieństwa w tymże języku w różnych implementacjach skupiając się na produktach komercyjnych (MS SQL Server, Oracle) z niewielkimi odwołaniami do systemów typu OpenSource (MySQL, PostgreSQL). Porównania dokonano na trzech płaszczyznach: typy danych, polecenia oraz funkcje języka SQL. W końcowej części artykułu zaprezentowano prace dyplomowe prowadzone w MILA College (obecnie Warszawska Wyższa Szkoła Informatyki) obejmujące zagadnienia transformacji kodu SQL-owego między poszczególnymi dialektami oraz tworzenia pakietów ułatwiających pracę programistów baz danych w środowisku wieloproduktowym.
In the article, basic information about databases are presented, including defining the most crucial notions and referring to the history of emerging standards in that field of IT knowledge. Starting from Codd’s database criteria, the differences between a database and DataBase Management System (DBMS) are elaborated on. The main functions of DBMS are also clarified. Upon the short classification of SQL, which is used to manipulate databases, the main differences and similarities between different software are presented, focusing on commercial products (MS SQL Server, Oracle) with some references to Open Source systems (MySQL, PostgreSQL). The comparison was made in three areas: data type, commands and SQL function. In the final part of the article, dissertations from the MILA College (currently Warsaw School of Computer Science) are presented. They all refer to the transformation of SQL code between particular dialects as well as creating packages to make the job of database makers easier in a multiproduct environment.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2007, 2, 2; 77-91
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podstawowe i złożone polecenia SQL w implementacjach MS SQL Server 2008
Autorzy:
Stankiewicz, J.
Powiązania:
https://bibliotekanauki.pl/articles/91487.pdf
Data publikacji:
2010
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
strukturalny język zapytań
SQL
zarządzanie bazami danych
structured query language
database management
Opis:
W artykule w oparciu o wcześniej utworzoną bazę danych zostały sformułowane przykładowe zapytania SQL-owe w implementacji MS SQL Server 2008. Pokazano różne możliwości pisania poleceń manipulujących danymi w bazach. Zaprezentowano zapytania generujące wyniki w formatach relacyjnych i nierelacyjnych i omówiono przykłady zadań nietypowych, pozornie bardzo trudnych i złożonych oraz niebanalnych rozwiązań wykorzystujących możliwości języka SQL.
The article presents examples of SQL queries in the implementation of MS SQL Server 2008, basing on a database created beforehand. It presents different possibilities of creating commands to manipulate data in the databases. It presents queries generating results in relational and nonrelational formats. It also presents not typical tasks, with complex and original solutions using SQL language.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2010, 4, 4; 113-136
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database for integration of information in distributed data exchange system elements of Border Guard
Baza danych dla potrzeb integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej
Autorzy:
Kaczmarek, S.
Młynarczuk, M.
Sac, M.
Powiązania:
https://bibliotekanauki.pl/articles/221903.pdf
Data publikacji:
2015
Wydawca:
Akademia Marynarki Wojennej. Wydział Dowodzenia i Operacji Morskich
Tematy:
database
SQL
database client
exchange system
Maritime Border Guard
baza danych
klient bazy danych
system wymiany
Morska Straż Graniczna
Opis:
The paper presents the database solution for integration of information in distributed data exchange system elements of the Polish Border Guard. The proposed database solution is described in the context of data exchange system elements which control position and store identification data of vessels (fishing, sports and sailing boats) and other suspicious objects on the territorial sea, sea-coast and the internal sea-waters controlled by Maritime Polish Border Guard. The paper presents the general architecture of the data exchange system ele-ments of Border Guard, the general MapServer architecture as a component of the Border Guard system. To explain the challenges being faced during implementation the conceptual model of database is also presented. Moreover main functionalities of database client and functional tests results are described.
W artykule zaprezentowano bazę danych dla potrzeb integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej. Proponowane rozwiązanie bazy danych zostało przedstawione w kontekście elementów systemu umożliwiających kontrolę położenia i przechowanie danych identyfikujących statki (rybackie, sportowe, żaglówki) i inne podejrzane obiekty na morzu terytorialnym, na brzegu morza i w obszarze morskich wód wewnętrznych patrolowanych przez Morski Oddział Straży Granicznej. Przedstawiono ogólną architekturę systemu wymiany danych Straży Granicznej i ogólną architekturę MapServera — kluczowego elementu systemu wymiany danych. Istotę problemu i wyzwania, jakim należało sprostać, poparto modelem konceptualnym bazy danych. W artykule zaprezentowano również główne funkcje klienta bazy danych oraz wyniki testów funkcjonalnych.
Źródło:
Zeszyty Naukowe Akademii Marynarki Wojennej; 2015, R. 56 nr 3 (202), 3 (202); 33-46
0860-889X
Pojawia się w:
Zeszyty Naukowe Akademii Marynarki Wojennej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ewaluacja metodyki prowadzenia analiz przestrzennych w wieloreprezentacyjnej bazie danych topograficznych
Evaluation of methodology of spatial analysis in multirepresentation database
Autorzy:
Olszewski, R.
Fiedukowicz, A.
Powiązania:
https://bibliotekanauki.pl/articles/346479.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
analiza przestrzenna
wielorozdzielcza baza danych
MRDB
SQL
topografia
spatial analyses
multiresolution database
topography
Opis:
Mapy od wieków stanowią narzędzie modelowania i obrazowania przestrzeni geograficznej. W miarę rozwoju technik kartograficznych możliwe stawało się coraz szersze wykorzystanie map, dalece wykraczające poza ich pierwotne funkcje lokalizacyjne. Rozwijająca się w XX wieku kartograficzna metoda badań (KMB) umożliwia badanie fizycznej przestrzeni za pomocą mapy, traktowanej jako model tejże przestrzeni. Jednym z podstawowych narzędzi informatycznych stosowanych w technologii GIS jest język SQL, pozwalający na tworzenie sformalizowanych zapytań, które umożliwiają selekcję, agregację i analizę informacji zgromadzonych w bazie danych. Zastosowanie SQL umożliwia także poznanie charakterystyk wyselekcjonowanych obiektów (wynikających tak z geometrii, jak i z atrybutów im przypisanych). Zastosowanie analizy danych przestrzennych wykorzystującej składnię SQL w sposób pośredni umożliwia więc badanie przestrzeni geograficznej. Wyniki analizy informacji geograficznej ściśle zależą od poziomu uogólnienia danych źródłowych (skali mapy czy poziomu szczegółowości bazy danych - LoD). Celem autorów było sprawdzenie na ile wyniki analizy uzyskane poprzez wykorzystanie różnych poziomów informacyjnych wielorozdzielczej bazy danych topograficznych są wiarygodne i miarodajne. Autorzy prowadząc badania zastosowali „klasyczną metodykę” KMB posługując się nowoczesnymi narzędziami GIS. Zunifikowane analizy przestrzenne zostały zrealizowane dla różnych poziomów szczegółowości danych źródłowych (TOPO10 i TOPO250) i różnych obszarów testowych. Uzyskane wyniki wskazują, iż zmiana poziomu szczegółowości bazy danych może bardzo istotnie wpływać na otrzymywany rezultat analizy, co może prowadzić do błędnej oceny i interpretacji wyników.
For ages maps have been the tool for modeling and representation of geographic space. As cartographic techniques were developed, maps became useful in much wider aspects then only for the original function of object localization. The Cartographic Research Method allows studies on physical space using map, treated as model of this space. One of the basic information tools used in GIS technology is SQL (Structured Query Language), language which is used for creation of formalised queries allowing for selection, aggregation and analysis of information collected in database. Application of SQL is also used to learn about characteristics of selected objects which can come from both geometry and attributes ascribed to them. Therefore, the use of spatial data analysis by applying SQL allows for indirect studies on geographic space. Results of analysis of geographic space are closely connected with the level of detail (LoD) or scale of the source data. The authors’ goal was to check how reliable are results received by analyzing different LoD of multiresolution topographic database. The authors used the “classic methodology” of Cartographic Research Method by applying modern analytical tools in GIS. Unified analysis were used for various LoD (TOPO10 and TOPO250) and different test areas. Obtained results show that changing LoD may strongly influence the results of the analysis, which can lead to their wrong evaluation and interpretation.
Źródło:
Roczniki Geomatyki; 2013, 11, 5(62); 87-98
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Overview and implementing sql server high availability solutions
Autorzy:
Bleja, M.
Powiązania:
https://bibliotekanauki.pl/articles/94781.pdf
Data publikacji:
2016
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
high availability
windows clusters
availability group
failover cluster instance
database mirroring
log shipping
SQL Server
baza danych
serwer bazodanowy
Opis:
The paper presents the concepts related to the design of high availability solutions for Microsoft SQL (MS SQL) Server database servers. MS SQL Server from version 2012 offers a new capability called AlwaysOn which is aimed at reducing downtime of servers or databases during a failure. It includes several mechanisms such as Failover Cluster Instances, Availability Groups, Database mirroring, Log shipping. The paper presents the implementation of some of these concepts in our prototype. We also compare these mechanisms focusing on their aptitude in contemporary information systems.
Źródło:
Information Systems in Management; 2016, 5, 4; 463-472
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-14 z 14

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies