Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "SQL" wg kryterium: Temat


Tytuł:
Wpływ mechanizmu indeksowania danych na szybkość realizacji zapytań SQL
Impact of data indexing on the speed of execution of SQL queries
Autorzy:
Gryglewicz-Kacerka, W.
Kacerka, J.
Powiązania:
https://bibliotekanauki.pl/articles/266837.pdf
Data publikacji:
2015
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
indeksowanie
wydajność zapytań SQL
bazy danych
indexing
query performance SQL
database
Opis:
Przedmiotem pracy jest analiza doświadczalna wpływu wybranych metod indeksowania na czas wykonania polecenia SQL. Badaniom poddano bazę testową wydzieloną z rzeczywistego systemu bankowego. Pomiary czasu wykonania zapytania SQL wykonano dla tabel zawierających do 1000000 rekordów. Badania przeprowadzono dla tabel nie zawierających indeksów oraz tabel zawierających indeksy. Do badań wykorzystano relacyjny system zarządzania bazą danych oparty na Oracle 9. Wyniki badań doświadczalnych pozwoliły na modernizację pracy systemu bankowego.
The subject of the study is to analyse the impact of selected experimental methods of crawling on the execution time of SQL commands. The study involved test database separate from the actual banking system. Measurements runtime SQL queries made for tables containing up to 1000000 records. The study was conducted for tables that do not contain indexes and tables with indexes. The study used relational database management system based on Oracle. The experimental results have enabled the modernization work of the banking system. Analysis of the results showed that the use of indices in most of the cases can significantly reduce the waiting time for the results of SQL queries, especially for tables containing a large amount of records. In the cases studied to reduce the time it was even more than 6few hundred times.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2015, 47; 59-62
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza możliwości obrony przed atakami SQL Injection
Analysis of the defending possibilities against SQL Injection attacks
Autorzy:
Byzdra, Chrystian
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/98124.pdf
Data publikacji:
2019
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
wstrzyknięcie kodu SQL
ochrona
sprawdzanie danych wejściowych
SQL injection
prevention
input validation
Opis:
W artykule scharakteryzowano różne metody ochrony bazy danych oraz typy ataków SQL Injection. Są to wyjątkowo niebezpieczne ataki, ponieważ zagrażają poufności wrażliwych danych. W celu szczegółowej analizy metod ochrony i sposobów ataków zostały wykonane symulacje ataków i obrony w językach : C#, PHP, Java. Na podstawie wyników symulacji dla poszczególnych języków porównano skuteczność oraz wydajność metod ochrony bazy danych.
The article describes various protection methods of database and types of SQL Injection attacks. These are extremely dangerous attacks because they threaten the confidentiality of sensitive data. In order to analyze in detail protection methods and methods of attacks, simulations of attacks and defence were performed in the following languages: C #, PHP, Java. Based on the simulation results for particular languages, the effectiveness and efficiency of database protection methods were compared.
Źródło:
Journal of Computer Sciences Institute; 2019, 13; 339-344
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzy SQL queries in standard SQL database
Autorzy:
Kudłacik, P.
Powiązania:
https://bibliotekanauki.pl/articles/333473.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
fuzzy SQL
fuzzy database
fuzzy sets
SQL
rozmyte bazy danych
zbiory rozmyte
Opis:
Uncertain queries are very common in many areas of human activity. The problem can be seen particularly in medicine, where expressions like ”very high”, ”low”, ”normal” are commonly used in order to describe different information. However, the most popular data repositories do not allow to form imprecise queries in order to filter information. Therefore, the paper proposes an extension to the standard SQL language allowing anybody to profit from fuzzy database using any SQL engine. The existing approaches employ different mechanisms in order to allow the user to perform fuzzy queries on a database. The most complex solutions modify the database engine itself. However, such approach is strongly bound to the modified server version and must be updated with any development of the original server. Nevertheless, there is possible to store fuzzy information using for instance columns of regular relational database. Therefore, this approach proposes extensions to the query language allowing to use fuzzy information in a query and provides a parser transforming a fuzzy query into a standard SQL. Thus, the database server version is irrelevant. The solution is provided as a module written in multi-platform Java language using popular JDBC database connection.
Źródło:
Journal of Medical Informatics & Technologies; 2016, 25; 28-37
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The optimization of SQL queries by means of drawing up query diagrams
Optymalizacja zapytań SQL metodą sporządzania diagramów zapytań
Autorzy:
Witan, K.
Powiązania:
https://bibliotekanauki.pl/articles/305916.pdf
Data publikacji:
2011
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
optymalizacja zapytań
język SQL
relacyjne bazy danych
query optimization
SQL language
relational database
Opis:
A poorly performing database application not only costs users time, but also has an impact on other applications running on the same computer or the same network. The best method to manage with this problem is performing SQL tuning. There are two basic issues to focus on during tuning: how to find and interpret the execution plan of an SQL statement and how to change a SQL query to get a specific alternate execution plan. But most important is how to find the optimal execution plan for the query to use. This article describes a timesaving method developed for finding the optimum execution plan - rapidly and systematically - regardless of the complexity of the SQL query or the database platform being used. It explains how to understand and control SQL execution plan and how to diagram SQL queries to deduce the best execution plan for a query.
Niewłaściwie skonstruowane aplikacje bazodanowe nie tylko wymagają poświęcenia nadmiernej ilości czasu na ich obsługę, lecz mają także wpływ na inne aplikacje funkcjonujące na tym samym komputerze, lub w tej samej sieci. Najlepszą metodą pozwalającą na rozwiązanie powyższego problemu, jest przeprowadzenie optymalizacji zapytań. Istnieją dwie podstawowe kwestie na których należy się skoncentrować w trakcie optymalizacji: jak znaleźć i zinterpretować plan wykonania dla zapytania SQL, oraz jak zmodyfikować zapytanie SQL, aby uzyskać określony alternatywny plan wykonania. Jednak najistotniejsze jest jak znaleźć optymalny plan wykonania dla konkretnego zapytania. Bieżący artykuł opisuje metodę, charakteryzującą się niską czasochłonnością, opracowaną w celu wyznaczenia optymalnego planu wykonania - szybko i systematycznie - niezależnie od poziomu złożoności zapytania SQL, lub rodzaju użytej platformy bazodanowej. Wyjaśnia on jak zrozumieć i kontrolować plan wykonania SQL, a także jak opracować diagram zapytania, umożliwiający wybór najlepszego planu wykonania dla zapytania.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2011, 7; 61-68
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza możliwości obrony przed atakami SQL Injection
Analysis of protection capabilities against SQL Injection attacks
Autorzy:
Krawczyński, Bogdan
Marucha, Jarosław
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/98402.pdf
Data publikacji:
2018
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
wstrzykiwanie kodu SQL
bezpieczeństwo danych
podatność aplikacji
SQL Injection
data security
application vulnerability
Opis:
Publikacja dotyczy ataków SQL Injection, które stanowią jedno z głównych zagrożeń w cyberprzestrzeni. W oparciu o badania literaturowe dokonano klasyfikacji ataków SQL Injection. Celem pracy było przeprowadzenie analizy możliwości obrony przed atakami SQL Injection. Metodykę badawczą oparto na autorskiej aplikacji, zaimplementowanej w technologii JSP (JavaServer Pages) z wykorzystaniem serwera baz danych MySQL.
Publication refers to SQL Injection attacks whose are one of the most dangerous in a cyberspace. Based on a literature studies, classification of the SQL Injection attacks was prepared. The purpose of the work was to analyse of protections effectiveness against SQL Injection attacks. Research method has been based on author application, which was implemented in JSP (JavaServer Pages) technology using MySQL database server.
Źródło:
Journal of Computer Sciences Institute; 2018, 7; 150-157
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of data of organic farms with the use of non-standard reports in Gekko software
Analiza danych gospodarstw ekologicznych z wykorzystaniem raportów niestandardowych w programie Gekko
Autorzy:
Cupiał, M.
Szeląg-Sikora, A.
Powiązania:
https://bibliotekanauki.pl/articles/93767.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
software
organic farm
reporting
SQL language
program komputerowy
gospodarstwo ekologiczne
sprawozdawczość
język SQL
Opis:
Gekko software is designed to keep reporting in organic farms, which is required by supervising institutions. The program enables collection in its base, data, which are required from a farmer and additional information as well. Based on these data, reports and lists are generated in the program. However, beside standard lists, the software enables programming by a user his calculations. These calculations enable generating unpredicted lists in a standard version of the software. Gekko software was developed within the National Centre for Research and Development (NCBiR ) project No NR 12-0165-10/2010 titled "Innovative influence of technology and information manage-ment supporting system on production efficiency in organic farms."
Program Gekko przeznaczony jest do prowadzenia w gospodarstwach ekologicznych sprawozdawczości wymaganej przez instytucje nadzorujące. Program umożliwia gromadzenie w swojej bazie, danych wymaganych od rolnika, a także informacji dodatkowych. Na podstawie tych danych generowane są w programie raporty i zestawienia. Jednak poza standardowymi zestawieniami, program umożliwia programowanie przez użytkownika własnych obliczeń. Te obliczenia umożliwiają wygenerowanie zestawień nieprzewidzianych w standardowej wersji oprogramowania. Program Gekko opracowany został w ramach projektu NCBiR Nr NR12-0165-10 pt.: „Innowacyjne oddziaływanie techniki i technologii oraz informatycznego wspomagania zarządzania na efektywność produkcji w gospodarstwach ekologicznych”.
Źródło:
Agricultural Engineering; 2014, 18, 2; 47-53
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accelerating SELECT WHERE and SELECT JOIN queries on a GPU
Autorzy:
Pietroń, M.
Russek, P.
Wiatr, K.
Powiązania:
https://bibliotekanauki.pl/articles/305797.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
SQL
CUDA
relational databases
GPU
Opis:
This paper presents implementations of a few selected SQL operations using the CUDA programming framework on the GPU platform. Nowadays, the GPU’s parallel architectures give a high speed-up on certain problems. Therefore, the number of non-graphical problems that can be run and sped-up on the GPU still increases. Especially, there has been a lot of research in data mining on GPUs. In many cases it proves the advantage of offloading processing from the CPU to the GPU. At the beginning of our project we chose the set of SELECT WHERE and SELECT JOIN instructions as the most common operations used in databases. We parallelized these SQL operations using three main mechanisms in CUDA: thread group hierarchy, shared memories, and barrier synchronization. Our results show that the implemented highly parallel SELECT WHERE and SELECT JOIN operations on the GPU platform can be significantly faster than the sequential one in a database system run on the CPU.
Źródło:
Computer Science; 2013, 14 (2); 243-252
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of SQL as a tool supporting the implementation of a method of attribute significance analysis based on soft reduction of attributes in the rough set theory
Użycie języka SQL jako narzędzie wspomagające implementację metody analizy istotności atrybutów w oparciu o miękką redukcję atrybutów w teorii zbiorów przybliżonych
Autorzy:
Nozdrzykowski, Ł.
Wróbel, M.
Powiązania:
https://bibliotekanauki.pl/articles/250371.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy TTS
Tematy:
SQL language
rough set theory
attributes reduction
język SQL
teoria zbiorów przybliżonych
redukcja atrybutów
Opis:
The article presents a way to quickly implement a method of analyzing the significance of attributes by using soft reduction of conditional attributes in the rough set theory. The analysis is a universal instrument for testing the significance of attributes and may be successfully used in many fields, including transport. It uses the rules that can be considered useful and allows reducing those attributes that do not cause a significant decrease in the number of rules generating entirely certain rules. At the same time it is a rapid mechanism of analyzing large data sets such as encoded attributes of rules. For implementation purposes we propose to use the mechanisms of modern relational databases and the capabilities presently offered by the SQL language, including its expansion with conditional CASE queries.
W artykule przedstawiono sposób na szybką implementację metody analizy istotności atrybutów poprzez wykorzystanie miękkiej redukcji atrybutów warunkowy w teorii zbiorów przybliżonych. Analiza ta wykorzystuje reguły, które można uznać za użyteczne i pozwala na redukcję atrybutów, które nie powodują znacznego spadku liczby reguł generujących całkowicie pewne reguły. Jest przy tym szybkim mechanizmem analizy dużych zbiorów danych jakim są zakodowane atrybuty reguł. Do celów implementacyjnych zaproponowano wykorzystanie mechanizmów współczesnych relacyjnych baz danych oraz możliwości jakie obecnie daje język SQL, w tym rozbudowanie go o zapytania warunkowe typu CASE.
Źródło:
TTS Technika Transportu Szynowego; 2016, 12; 172-176
1232-3829
2543-5728
Pojawia się w:
TTS Technika Transportu Szynowego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wydajności relacyjnych baz danych SQL Server, MySQL oraz PostgreSQL z zastosowaniem aplikacji webowej i frameworku Laravel
Performance comparison of relational databases SQL Server, MySQL and PostgreSQL using a web application and the Laravel framework
Autorzy:
Wodyk, Rafał
Skublewska-Paszkowska, Maria
Powiązania:
https://bibliotekanauki.pl/articles/1427570.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
framework Laravel
SQL Server
MySQL
PostgreSQL
Opis:
Wiele implementacji baz danych jest wspieranych przez szkielety aplikacji, które mogą rzutować na ich wydajność. Artykuł przedstawia porównanie wydajności relacyjnych baz danych SQL Server, MySQL oraz PostgreSQL na pod-stawie aplikacji napisanej w języku PHP z wykorzystaniem frameworku Laravel. Pod uwagę wzięty został czas wyko-nania różnego typu zapytań, zarówno prostych, jak również z użyciem konkatenacji kolumn oraz tabel. Otrzymane wyniki zostały poddane wielowymiarowej analizie. Otrzymywane wyniki dla takich samych struktur baz danych różniły się w zależności od wykonywanych operacji na bazach. Patrząc na całokształt przeprowadzonych badań można dojść do wniosku, że w przypadku baz danych, w których liczba rekordów nie jest zbyt duża (do 1000 rekordów) oraz parametry techniczne urządzenia, na którym uruchomiona jest baza są klasy niskiej bądź średniej bardzo dobrze wypada MySQL.
Many database implementations are supported by application frameworks that can affect their performance. The paper presents a comparison of the performance of SQL Server, MySQL and PostgreSQL relational databases based on an application written in PHP using the Laravel framework. The time of performance for various types of queries, both simple and using column and table concatenation was evaluated. The obtained results for the same database structures differed depending on the operations performed on the databases. Looking at the entirety of the research conducted, it can be concluded that in the case of databases in which the number of records is not too large (up to 1000 records) and the technical parameters of the device on which the database is running are of low or medium class, MySQL performs very well.
Źródło:
Journal of Computer Sciences Institute; 2020, 17; 358-364
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of SQL Injection Detection Techniques
Autorzy:
Singh, J. P.
Powiązania:
https://bibliotekanauki.pl/articles/375681.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
SQL Injection
runtime monitoring
Static Analysis
Opis:
SQL Injection is one of the vulnerabilities in OWASP's Top Ten List forWeb Based Application Exploitation. These type of attacks take place on Dynamic Web applications as they interact with databases for various operations. Current Content Management System like Drupal, Joomla or Wordpress have all information stored in their databases. A single intrusion into these type of websites can lead to overall control of websites by an attacker. Researchers are aware of basic SQL Injection attacks, but there are numerous SQL Injection attacks which are yet to be prevented and detected. Over here, we present the extensive review for the Advanced SQL Injection attack such as Fast Flux SQL Injection, Compounded SQL Injection and Deep Blind SQL Injection. We also analyze the detection and prevention using the classical methods as well as modern approaches. We will be discussing the Comparative Evaluation for prevention of SQL Injection.
Źródło:
Theoretical and Applied Informatics; 2016, 28, 1-2; 37-55
1896-5334
Pojawia się w:
Theoretical and Applied Informatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimisation analysis of Transact-SQL queries based on indexes
Analiza optymalizacji kwerend języka Transact-SQL opartych o indeksy
Autorzy:
Hodun, D.
Skublewska-Paszkowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/408092.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
Transact-SQL
optimization
queries
optymalizacja
zapytania
Opis:
The article presents a discussion of the optimisation methods involving the modification of query syntax on the example of the use of indexes that served for the application of the methods in practice, and the presentation and analysis of the test results and their comparison. All the queries were made in a Microsoft SQL Server Management Studio 2014 environment, using the AdventureWorksDW2012 test database provided by Microsoft. The object of the research were SELECT queries, which consequently returned the desired set of output data.
Artykuł obejmuje omówienie metod optymalizacji polegających na modyfikacji składni zapytań na przykładzie wykorzystania indeksów, które posłużyły do zastosowania metod w praktyce, a także przedstawienie i analizę otrzymanych wyników badań i ich porównanie. Wszystkie zapytania zostały wykonane w środowisku Microsoft SQL Server Management Studio 2014 przy użyciu bazy testowej, udostępnionej przez firmę Microsoft, AdventureWorksDW2012. Obiektem badań były zapytania SELECT, które w rezultacie zwracały pożądany zbiór danych wynikowych.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2017, 7, 3; 29-32
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Realization of a system of efficient querying of hierarchical data transformed into a quasi-relational model
Autorzy:
Furmanek, A.
Tokaj, J.
Marcjan, R.
Siwik, L.
Powiązania:
https://bibliotekanauki.pl/articles/305395.pdf
Data publikacji:
2016
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
XML
SQL
hierarchical data
relational model
Opis:
Extensible Markup Language was mainly designed to easily represent documents; however, it has evolved and is now widely used for the representation of arbitrary data structures. There are many Application Programming Interfaces (APIs) to aid software developers with processing XML data. There are also many languages for querying and transforming XML, such as XPath or XQuery, which are widely used in this field. However, because of the great flexibility of XML documents, there are no unified data storing and processing standards, tools, or systems. On the other hand, a relational model is still the most-commonly and widely used standard for storing and querying data. Many Database Management Systems consist of components for loading and transforming hierarchical data. DB2 pureXML or Oracle SQLX are some of the most-recognized examples. Unfortunately, all of them require knowledge of additional tools, standards, and languages dedicated to accessing hierarchical data (for example, XPath or XQuery). Transforming XML documents into a (quasi)relational model and then querying (transformed) documents with SQL or SQL–like queries would significantly simplify the development of data-oriented systems and applications. In this paper, an implementation of the SQLxD query system is proposed. The XML documents are converted into a quasi-relational model (preserving their hierarchical structure), and the SQL–like language based on SQL-92 allows for efficient data querying.
Źródło:
Computer Science; 2016, 17 (3); 353-369
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
System informatyczny wspomagający weryfikację wiedzy studentów wykorzystujący obiektowość SQL Server 2005
Information system supporting students knowledge verification, which uses the SQL Server 2005 objects
Autorzy:
Mueller, W.
Kluza, T.
Boniecki, P.
Powiązania:
https://bibliotekanauki.pl/articles/291917.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
modelowanie obiektowe
system rozproszony
CLR-SQL Server 2005
object modelling
distributed system
CLR - SQL Server 2005
Opis:
Specyfika kształcenia na kierunku Technika Rolnicza i Leśna, mająca między innymi swoje źródło w różnorodności zdobywanej wiedzy, wymusza odmienność procesu weryfikacji wiedzy studentów. W ramach tego procesu powinna być i jest sprawdzana umiejętność rozwiązywania przez słuchaczy różnego typu zadań obliczeniowo-projektowych. Umieszczenie tego typu pytań, przy jednoczesnym zagwarantowaniu zindywidualizowanego ich charakteru z punktu widzenia zdającego, w istniejącym systemie informatycznym EDUIR, pozwalającym na automatyzację procesu weryfikacji, wymagało rozbudowy tej aplikacji. Doposażono ją w nowy moduł, który wykorzystując technologie NET i możliwości obiektowe systemu SQL Server 2005, pozwala na tworzenie zindywidualizowanych zadań w ramach realizowanego testu oraz na późniejszą weryfikacją uzyskanych odpowiedzi.
The character of education at the specialisation of Agricultural and Forest Technology, which among others has its source in diversity of acquired knowledge, forces using a different process for students' knowledge verification. Students' skills in solving various types of computational and design tasks should be and are checked within the scope of this process. The process of adding questions of this type (and at the same time guaranteeing their individualised character from point of view of a student passing the exam) to the existing EDUIR information system, which allows to automate verification process, required to have this application extended. A new module was added to it, allowing to create individualised tasks in the scope of the test in progress and to verify obtained responses later. This is due to the fact that the module makes use of the NET technologies and object- related potential of the SQL Server 2005 system.
Źródło:
Inżynieria Rolnicza; 2007, R. 11, nr 8 (96), 8 (96); 179-184
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza środowiska geograficznego zlewni górnej Parsęty w oparciu o metody geoinformacyjne
Analysis of the geographical environment of the upper Parsęta catchment based on geoinformation methods
Autorzy:
Dmowska, A.
Powiązania:
https://bibliotekanauki.pl/articles/295122.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geomorfologów Polskich
Tematy:
charakterystyki fizyczno-geograficzne
cyfrowe materiały kartograficzne
metody geoinformacyjne
zapytania przestrzenne SQL
PostgreSQL/PostGIS
environmental characteristic
digital cartographic data
geoinformation methods
Spatial SQL
Postgre-SQL/PostGIS
Opis:
Celem niniejszego opracowania jest zwrócenie uwagi na możliwości wykorzystania dostępnych cyfrowych materiałów kartograficznych w analizie zróżnicowania środowiska geograficznego wybranego obszaru. Analizę wykonano dla 10 zlewni cząstkowych wydzielonych w obrębie zlewni górnej Parsęty. Zlewnie cząstkowe opisano pod względem wybranych cech geometrycznych, charakterystyk hydrograficznych, charakterystyk morfometrycznych rzeźby terenu oraz charakterystyk środowiskowych. Charakterystyki zlewni wyliczono na podstawie dostępnych cyfrowych materiałów kartograficznych, wykorzystując metody geoinformacyjne.
The aim of this paper is to highlight the utility of available digital cartographic materials in the analysis of environmental diversity of the selected geographic area. An analysis is carried for 10 subcatchments in the upper Parsęta. The subcatchments are described by geometric features, hydrological characteristics, morphometric characteristics and environmental characteristics. Subcatchments characteristics are calculated based on an available digital cartographic data using geoinformation methods.
Źródło:
Landform Analysis; 2012, 20; 21-30
1429-799X
Pojawia się w:
Landform Analysis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dane przestrzenne w bazach danych systemu Microsoft SQL Server 2008 R2 - wprowadzenie
Autorzy:
Potasiński, P.
Powiązania:
https://bibliotekanauki.pl/articles/91413.pdf
Data publikacji:
2010
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
bazy relacyjne
dane przestrzenne
system Microsoft SQL Server
relational databases
spatial data
Microsoft SQL Server system
Opis:
Bazy relacyjne coraz częściej zawierają dane, które nie pasują do koncepcji relacyjności. Decydując się na implementację w swych produktach tych nierelacyjnych typów danych producenci systemów zarządzania bazami danych kierują się głównie chęcią skrócenia i uproszczenia procesów tworzenia aplikacji wykorzystujących bazy danych. Niniejszy artykuł wprowadza w tematykę danych przestrzennych dostępnych w systemie Microsoft SQL Server 2008 R2. Owe typy danych stanowią doskonały przykład implementacji nierelacyjnych typów danych w relacyjnych bazach danych.
Today the relational databases contain data that do not fit the relational concept more often than several years ago. By implementation of non-relational data types in their products manufacturers of database management systems wish to shorten and simplify the application development processes. This article introduces the spatial data types available in Microsoft SQL Server 2008 R2. These data types are an excellent example of the implementation of non-relational data types in relational databases.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2010, 4, 4; 159-167
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dialekty języka SQL w implementacjach Oracle oraz MS SQL Server
Autorzy:
Olczyk, D.
Powiązania:
https://bibliotekanauki.pl/articles/91339.pdf
Data publikacji:
2007
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
język SQL
relacyjne bazy danych
System Zarządzania Bazą Danych
SZBD
SQL language
relational databases
database management system
DBMS
Opis:
W artykule przedstawiono podstawowe informacje na temat relacyjnych baz danych definiując najbardziej istotne pojęcia oraz odwołując się do historii powstawania standardów w tej dziedzinie wiedzy informatycznej. Wychodząc od kryteriów Codda na relacyjną bazę danych omówiono różnice między bazą danych a Systemem Zarządzania Bazą Danych, a także sformułowano główne funkcje SZBD. Po krótkiej klasyfikacji języka SQL służącego do manipulacji bazami danych przedstawiono w części zasadniczej różnice i podobieństwa w tymże języku w różnych implementacjach skupiając się na produktach komercyjnych (MS SQL Server, Oracle) z niewielkimi odwołaniami do systemów typu OpenSource (MySQL, PostgreSQL). Porównania dokonano na trzech płaszczyznach: typy danych, polecenia oraz funkcje języka SQL. W końcowej części artykułu zaprezentowano prace dyplomowe prowadzone w MILA College (obecnie Warszawska Wyższa Szkoła Informatyki) obejmujące zagadnienia transformacji kodu SQL-owego między poszczególnymi dialektami oraz tworzenia pakietów ułatwiających pracę programistów baz danych w środowisku wieloproduktowym.
In the article, basic information about databases are presented, including defining the most crucial notions and referring to the history of emerging standards in that field of IT knowledge. Starting from Codd’s database criteria, the differences between a database and DataBase Management System (DBMS) are elaborated on. The main functions of DBMS are also clarified. Upon the short classification of SQL, which is used to manipulate databases, the main differences and similarities between different software are presented, focusing on commercial products (MS SQL Server, Oracle) with some references to Open Source systems (MySQL, PostgreSQL). The comparison was made in three areas: data type, commands and SQL function. In the final part of the article, dissertations from the MILA College (currently Warsaw School of Computer Science) are presented. They all refer to the transformation of SQL code between particular dialects as well as creating packages to make the job of database makers easier in a multiproduct environment.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2007, 2, 2; 77-91
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The influence of indexing methods on effective functioning of the database
Autorzy:
Barczak, A.
Zacharczuk, D.
Korzeniecka, A.
Powiązania:
https://bibliotekanauki.pl/articles/92938.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
database optimization
T-SQL
MS Server
indices
Opis:
The article describes the different types of indexes. Their characteristic determines whether and when they can be used to improve database performance. Then studies are performed using different indices for different situations. The conclusions of the study can be serve as a guide to correct use of indexes.
Źródło:
Studia Informatica : systems and information technology; 2013, 1-2(17); 5-18
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza możliwości optymalizacji zapytań SQL
Analysis of the possibilities of optimizing SQL queries
Autorzy:
Rymarski, Piotr
Kozieł, Grzegorz
Powiązania:
https://bibliotekanauki.pl/articles/2055121.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
SQL
zapytanie
optymalizacja
analiza
query
optimization
analysis
Opis:
Większość obecnie istniejących aplikacji internetowych działa w oparciu o relacyjne systemy baz danych. Komunikacja z nimi jest możliwa poprzez instrukcje zapisywane w Structured Query Language (SQL). Niniejsza publikacja prezentuje najbardziej popularne systemy do zarządzania relacyjnymi bazami danych oraz opisuje powszechne sposoby optymalizacji zapytań SQL. Wykorzystując środowisko badawcze, w którym zaimportowano część bazy danych serwisu imdb.com oraz silniki OracleDb, MySQL, Microsoft SQL Server i PostgreSQL wykonano szereg scenariuszy testowych. Celem było sprawdzenie zmiany wydajności zapytań SQL wynikających z modyfikacji składni przy zachowaniu rezultatu, wpływu organizacji bazy danych, indeksowania oraz zaawansowanych mechanizmów, mającychna celu wzrost efektywności wykonywanych operacji, dostarczanych w wykorzystanych systemach. Testy zostały przeprowadzone przy pomocy autorskiej aplikacji napisanej w języku Java z wykorzystaniem szkieletu programistycznego Hibernate.
Most of today's web applications run on relational database systems. Communication with them is possible through statements written in Structured Query Language (SQL). This paper presents the most popular relational database management systems and describes common ways to optimize SQL queries. Using the research environment based on fragment of the imdb.com database, implementing OracleDb, MySQL, Microsoft SQL Server and PostgreSQL engines, a number of test scenarios were performed. The aim was to check the performance changes of SQL queries resulting from syntax modication while maintaining the result, the impact of database organization, indexing and advanced mechanisms aimed at increasing the eciency of operations performed, delivered in the systems used. The tests were carried out using a proprietary application written in Java using the Hibernate framework.
Źródło:
Journal of Computer Sciences Institute; 2021, 19; 151--158
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wieloplatformowy system archiwizacji danych informatycznych
The multi-platform computer data backup system
Autorzy:
Wrzesień, M.
Olejnik, Ł.
Ryszawa, P.
Powiązania:
https://bibliotekanauki.pl/articles/276817.pdf
Data publikacji:
2012
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
archiwizacja
synchronizacja
SQL
rsync
rsnapshot
archiving
synchronization
Opis:
Zaprezentowano wieloplatformowy system archiwizacji danych informatycznych w organizacji wyposażonej w sieć informatyczną. Istotą i celem niniejszego rozwiązania jest zapewnienie bezpieczeństwa danych komputerowych, które są przetwarzane w takich systemach operacyjnych jak Linux, Windows, NetWare, z wykorzystaniem zintegrowanego systemu archiwizacji, który komunikuje się z powyższymi OS. Współpracujące z tymi systemami (serwerami) komputery są zarówno stacjonarne, jak i mobilne. Komputery mobilne zostały wyposażone w narzędzia umożliwiające użytkownikowi synchronizację tych komputerów z serwerem archiwizującym. Synchronizacja następuje samoczynnie po dołączeniu ich do sieci informatycznej, po uprzedniej pracy zdalnej. Podczas archiwizowania jest stosowana zasada, że w systemie informatycznym serwerowi archiwizującemu organizacji zapewniono dostęp o najwyższych uprawnieniach do pełnych danych informatycznych. W celu umożliwienia właściwego pobierania danych przez serwer archiwizujący, wszystkie systemy OS są wyposażone w narzędzia, które umożliwiają autoryzowany, jednokierunkowy dostęp do ich systemów poprzez ten serwer. Ze względów bezpieczeństwa, podczas pobierania danych, jak również podczas komunikacji z innymi systemami OS, połączenia serwera archiwizującego z innymi systemami powinny być szyfrowane.
The multi-platform computer data backup system in an organization equipped with a computer network is presented. The essence and purpose of this arrangement is to ensure the security of computer data which are processed in such operating systems as Linux, Windows, NetWare, using an integrated archiving system which communicates with the above OS systems Compatible with these systems (servers) computers are both stationary and mobile. Mobile computers are equipped with tools that enable users to synchronize those PCs to the server archiving. Synchronization occurs when you attach them to the computer network, after first working remotely. While archiving is applied the principle that in the organization computer system, archiving server has access to all computer data with the highest privileges. In order to allow proper collection of data by the archive server, all OS systems are equipped with tools that enable authorized, one-way access to the systems in the organization through this server. For security reasons, when retrieving data, as well as when communicating with other OS systems, archiving server connection to other systems should be encrypted.
Źródło:
Pomiary Automatyka Robotyka; 2012, 16, 2; 312-316
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda importu danych eksploatacyjnych urządzeń sterowania ruchem kolejowym do bazy danych
Method of importing operational data of railway traffic control devices into the database
Autorzy:
Nowakowski, Waldemar
Bojarczak, Piotr
Łukasik, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/316942.pdf
Data publikacji:
2019
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
urządzenia sterowania ruchem kolejowym
sterowanie ruchem kolejowym
diagnostyka
baza MS SQL
railway traffic control devices
diagnostics
MS SQL database
Opis:
Urządzenia sterowania ruchem kolejowym odpowiadają za bezpieczne i sprawne prowadzenie ruchu kolejowego. Mimo ciągłego rozwoju tych urządzeń, podobnie jak inne urządzenia techniczne, ulegają one uszkodzeniom. Ze względu jednak na fakt, że urządzenia sterowania ruchem kolejowym są związane z bezpieczeństwem, wymaga się od nich nie tylko określonej niezawodności, ale również braku niedopuszczalnego ryzyka. Bardzo duża liczba urządzeń sterowania ruchem kolejowym, różnorodność ich typów, rozmaitość rozwiązań technicznych, a także określona awaryjność powodują duże utrudnienie w zapewnieniu sprawności tych urządzeń. Dlatego też ich eksploatacja musi być wspierana przez diagnostykę techniczną. Uzyskane w wyniku diagnostyki technicznej informacje o zmianach stanu technicznego urządzeń są przechowywane w określonych zbiorach danych, przy czym w przypadku poszczególnych zakładów linii kolejowych PKP PLK S.A. są to najczęściej arkusze kalkulacyjne Excel pakietu Microsoft Office. Autorzy artykułu zaproponowali przeniesienie tych danych do relacyjnej bazy MS SQL za pomocą opracowanego w tym celu autorskiego oprogramowania.
Railway control devices are responsible for the safe and efficient operation of railway traffic. Despite the continuous development of these devices, like other technical solutions, they are being damaged. However, since railway control devices are safety-related, they are not only required to be reliable, but also to be free from unacceptable risks. The very large number of control devices, the variety of their types, the variety of technical solutions, as well as the specific failure rate make it very difficult to ensure the efficiency of these equipment. Therefore, their operation must be supported by technical diagnostics. Information obtained as a result of technical diagnostics about changes in the technical condition of devices is stored in specific data sets. However, in the case of individual railway lines plants of PKP PLK S.A. these are most often Excel spreadsheets of Microsoft Office. The authors of the article proposed to transfer these data to the MS SQL relational database with the use of proprietary software developed for this purpose.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2019, 20, 6; 223-228
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Indexes selection for blocks of related SQL queries
Autorzy:
Boroński, R.
Powiązania:
https://bibliotekanauki.pl/articles/117981.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
indexes selection for blocks of related SQL queries
Opis:
This paper discusses the problem of minimizing the response time for a given database workload by a proper choice of indexes. The main objective of our contribution is to illustrate the database queries as a group and search for good indexes for the group instead of an individual query. We present queries block relation conditions for applying the concept of grouped queries index selection. In three experimental tests we provide measurements on the quality of the recommended approach.
Źródło:
Applied Computer Science; 2012, 8, 2; 3-21
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie systemów bazodanowych Oracle 19c, SQL Server 2019, Post-greSQL 12 oraz MySQL 8
Oracle 19c, SQL Server 2019, Postgresql 12 and MySQL 8 database sys-tems comparison
Autorzy:
Solarz, Arkadiusz
Szymczyk, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/1427691.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
relational database
performance
SQL
relacyjne bazy danych
wydajność
Opis:
W artykule przedstawiona została analiza porównawcza czterech technologii bazodanowych. Komercyjne systemy Oracle Database i SQL Server porównane są z darmowymi systemami do zarządzania bazą danych: PostgreSQL i MySQL. Systemy te dsotępne są na rynku od kilkunastu lat, do testów i porównania wybrane zostały wersje wydane w 2019 roku. Na potrzeby analizy porównawczej zaprojektowano oraz utworzono schemat bazy danych. Następnie opracowano scenariusze testowe. Przygotowane zostały one w oparciu o najpopularniejsze operacje wykonywane z wykorzystaniem systemów bazodanowych.
This article presents a comparative analysis of four popular database technologies. Commercial Oracle Database and SQL Server systems have been compared with open source database management systems: PostgreSQL and MySQL. These systems have been available on the market for over a dozen years. Versions released in 2019 were selected for testing and comparison. For the purposes of the comparative analysis, a database schema was developed and instantiated. Then, test scenarios have been developed. They have been prepared on the basis of the most popular operations performed with the use of database systems.
Źródło:
Journal of Computer Sciences Institute; 2020, 17; 373-378
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie przestrzennych typów danych do tworzenia raportów
Using spatial data types in reports
Autorzy:
Markus, J.
Powiązania:
https://bibliotekanauki.pl/articles/91381.pdf
Data publikacji:
2012
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
przestrzenne typy danych
Microsoft SQL
SSRS
spatial data types
Opis:
Do Microsoft SQL 2008 wprowadzono przestrzenne typy danych: geometryczny i geograficzny. Są dostępne narzędzia, pozwalające na odpytywanie typów przestrzennych i rysowania na ich podstawie map. Wiele map można zaimportować do tabeli Microsoft SQL 2008 (lub nowszego) z plików shp. Dla kolumn z typem danych: geography i geometry mogą być tworzone indeksy przestrzenne w celu przyspieszenia zapytań. W Microsoft SQL Server Reporting Services 2008R2 wprowadzono możliwość tworzenia raportów na mapie. Do tworzenia raportów na mapie możemy wykorzystać wbudowane mapy, mapy z plików shp lub zapytanie SQL do tabeli z kolumną z danymi przestrzennymi. W celu stworzenia wykresu na mapie musimy powiązać dane przestrzenne z danymi biznesowymi za pomocą wspólnego klucza. Jeśli dane geograficzne są z zapytania SQL, możemy w tym zapytaniu powiązać je z tabelami biznesowymi za pomocą relacji, według naturalnych kluczy, jeśli jest zdefiniowany klucz obcy, albo bazując na kolumnach zawierających ten sam typ danych oraz te same informacje pozwalające je wykorzystać jako klucz łączący. W plikach shp występują atrybuty, które możemy wykorzystać do powiązania danych przestrzennych z biznesowymi, np. miasto, województwo, kraj.
Started Microsoft SQL 2008 Server there is geometry and geography date type, that are spatials type. There are tools to query spatials and base on the paint maps. Most maps we can import from shp files to Microsoft SQL 2008 (or newer) tables. We can create spatial index on columns with geometry or geography data type to speed query. In Microsoft SQL 2008R2 Server Reporting Services (or newer) we can create reports on maps. We can create map reports based on builded maps, shp files or query to SQL table with spatial columns. We have to join spatial date with bisnes date on any key. If spatial date are in SQL query we can join based on reference relation, natural if there is foreign key constraint, else based on column with the same date type and the same information. In shp files there are attributes that we can join with date in bisnes date query example city, country or region.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2012, 6, 8; 119-128
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wydajności systemów bazodanowych: MySQL, MS SQL, PostgreSQL w kontekście aplikacji internetowych
Performance analysis of selected database systems: MySQL, MS SQL, PostgerSQL in the context of web applications
Autorzy:
Lachewicz, Katarzyna
Powiązania:
https://bibliotekanauki.pl/articles/98150.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
MySQL
MS SQL
PostgreSQL
wydajność baz danych
database performance
Opis:
Głównym celem niniejszego artykułu jest weryfikacja, który z trzech systemów bazodanowych: MySQL, MS SQL, PostgeSQL, jest najbardziej wydajny w kontekście aplikacji internetowych. W artykule zawarto informacje dotyczące wykorzystanych systemów bazodanowych, jednakże kluczowym elementem artykułu są badania wydajności baz danych. Zostały one wykonane w oparciu o aplikację, której najważniejszym zadaniem jest wykonywanie zapytań do bazy danych. Program został zbudowany w oparciu o najnowsze technologie, takie jak framework Spring, biblioteka Hibernate oraz interfejs JDBC.
The main purpose of this article is to check which database: MySQL, MS SQL, PostgerSQL is the most efficient for Internet applications. This work contains information about the databases used, but the most important part of this article is database performance research. They are based on an application whose main task was database queries. The program was created based on new technologies, such as the Spring framework, the Hibernate library and JDBC Interface.
Źródło:
Journal of Computer Sciences Institute; 2020, 14; 94-100
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
CLASSIFICATION OF POLISH HOUSEHOLDS BASED ON THEIR INCOMES BY MEANS OF DECISION TREES
Autorzy:
Karpio, Andrzej
Koszela, Grzegorz
Orłowski, Arkadiusz
Łukasiewicz, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/452905.pdf
Data publikacji:
2014
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
income distribution
high incomes
classification trees
entropy
SQL Server
Opis:
Classification trees included in SQL Server 2008R2 Analysis Services package have been used to classify Polish households based on their incomes. The analysis has been performed by means of the three algorithms and their effectiveness has been measured. Using the best algorithm a groups of households with the lowest and the largest incomes have been distinguished. The most important attributes describing households with the lowest and the largest incomes were identified and discussed.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2014, 15, 2; 403-413
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies