Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "optymalizacja danych" wg kryterium: Temat


Tytuł:
Przyśpieszanie procesu pobierania danych logistycznych
Autorzy:
Busłowska, Eugenia
Powiązania:
https://bibliotekanauki.pl/articles/1825987.pdf
Data publikacji:
2017-12-31
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
Bazy danych, Optymalizacja, Efektywność
Opis:
Niniejsza publikacja przedstawia metody pozwalające na przyśpieszenie procesu dostępu do baz danych zawierających bardzo duże ilości danych logistycznych. Proces przyśpieszania pociąga za sobą poprawność etapów tworzenia relacyjnej bazy danych. W artykule wskazano, dlaczego proces optymalizacyjny powinien być realizowany wieloetapowo i zaczynać się na etapie projektu biznesowego. Analiza wymagań i projekt schematu bazy danych, uwzględniający wytyczne tworzenia relacyjnych baz danych, w znacznym stopniu eliminują problemy z wydajnością. Efektywność dostępu do danych można wspomóc optymalizując zapytania. Zaprezentowane przykłady pokazują, jak zapytania mogą zostać przekształcone, by były wykonane w możliwie najkrótszym czasie.
Źródło:
Zeszyty Naukowe Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach; 2017, 42, 115; 41-46
2082-5501
Pojawia się w:
Zeszyty Naukowe Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A new perspective for the application of the activity based costing method in manufacturing companies using mes class systems
Nowa perspektywa zastosowania metody Activity Based Costing w firmach produkcyjnych wykorzystujących systemy klasy MES
Autorzy:
Hadław, Maciej
Żabiński, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/1182269.pdf
Data publikacji:
2020
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
Activity Based Costing
MES
data collection optimization
optymalizacja gromadzenia danych
Opis:
Celem niniejszego artykułu jest omówienie nowej perspektywy praktycznego wykorzystania metody Activity Based Costing do rozliczania kosztów w firmach produkcyjnych wykorzystujących nowoczesne systemy klasy MES. W omawianym przykładzie wykorzystano dane pochodzące z firmy z branży metalowej. Zaprezentowano, jak wykorzystanie oprogramowania służącego do automatycznej rejestracji danych z maszyn może w dużym stopniu wyeliminować wady metody Activity Based Costing oraz przyczynić się do znacznej optymalizacji w zakresie kalkulacji kosztów produktu. Obliczenia wykonano na przykładzie jednej maszyny produkcyjnej realizującej trzy różne zlecenia produkcyjne. Wykazano, że działanie na styku IT i analiz finansowych może przynieść pożądane korzyści w zakresie automatyzacji analizy danych oraz eliminacji błędów ludzkich dzięki wykorzystaniu platform sprzętowo-programowych integrujących najnowsze rozwiązania z zakresu IT i automatyki przemysłowej.
Źródło:
Informatyka Ekonomiczna; 2020, 2 (56); 30-42
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
TLS point cloud as a data surce for multi-lod of 3D models
Autorzy:
Klapa, Przemysław
Powiązania:
https://bibliotekanauki.pl/articles/2124677.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
data optimisation
point cloud
TLS
LOD
3D modelling
optymalizacja danych
chmura punktów
modelowanie 3D
Opis:
The development of science and technology had a strong impact on all branches of engineering, including geodesy and the possibility of acquiring and processing measurement data. The best example of this is the Terrestrial Laser Scanning, whih can perform measurements in the form of a multi-million-point cloud. The cloud, representing places and objects, becomes a spatial database. The current problem in engineering is no longer data acquisition and processing, but information excess and redundancy. The solution to this problem is optimisation, which is the process of reducing the amount of data. It should implement its assumptions in such a way as to remove or reduce unnecessary information without losing the information presented by an object. This issue is particularly important in the process of using point clouds in 3D modelling at various levels of detail. The appropriate levels of the LOD0–LOD4 model require a different type of data: on the one hand ensuring the obtainment of the appropriate accuracy class in the study, and on the other hand, the data source should not contain too detailed information that is unnecessary for the study, which makes the work harder and slows it down due to the need to operate on a huge amount of redundant information Therefore, the purpose of this paper is to determine the scope of work on the optimisation of the point cloud in order to adjust its number and quality to the needs of individual LODs. The results of the work allowed to determine the scope of data unification for the respective precision groups of 3D models generating.
Rozwój nauki i techniki wpłynął mocno na wszystkie gałęzie inżynierii, w tym również na geodezję oraz możliwości pozyskiwania i przetworzenia danych pomiarowych. Najlepszym tego przykładem jest naziemnym skaning laserowym, który realizuje pomiar w postaci wielomilionowej chmury punktów. Chmura ta, będącą reprezentacją miejsc i obiektów, staje się przestrzenną bazą danych. Aktualnym problem w inżynierii nie jest już pozyskiwanie i przetwarzanie danych, a natomiast nadmiarowością i redundancja informacji. Rozwiązaniem tego problemu jest optymalizacja, czyli proces zmniejszenia ilości danych. Powinien on w taki sposób realizować swoje założenia, aby usunąć bądź zredukować zbędne informacje bez straty informacji prezentowanej przez obiekt. To zagadnienie szczególnie istotne jest w procesie wykorzystania chmur punktów w modelowaniu 3D na różnych poziom szczegółowości. Odpowiednie poziomy modelu LOD0-LOD4 wymagają innego rodzaju danych z jednej strony zapewniających uzyskanie odpowiedniej klasy dokładnościowej opracowaniu, z drugiej źródło danych nie powinno zawierać zbyt szczegółowych informacji, niepotrzebnych dla opracowania, co utrudnia i spowalnia pracę z uwagi na konieczność operowania na ogromnej liczbie nadmiarowych informacji. Dlatego celem niniejszej pracy jest określenie zakresu prowadzonych prac nad optymalizacją chmury punktów, celem dostosowania jej liczby oraz jakości dla potrzeb poszczególnych poziomów szczegółowości LoD. Wyniki prac pozwoliły określić zakres unifikacji danych dla odpowiednich grup dokładnościowych generowania modeli 3D.
Źródło:
Geomatics, Landmanagement and Landscape; 2022, 2; 63-73
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Benefits of an application of evolutionary strategy in the process of test data generation
Korzyści wynikające z zastosowania strategii ewolucyjnych w procesie generowania danych testowych
Autorzy:
Żukowicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/1206329.pdf
Data publikacji:
2016
Wydawca:
STE GROUP
Tematy:
evolutionary strategies
test data
test data quality criteria
optimization test data
strategie ewolucyjne
dane testowe
kryteria jakości danych testowych
optymalizacja danych testowych
Opis:
The aim of the article is to highlight the advantages that can be obtained through the use of evolutionary strategy in software testing, specifically in the process of test data generation. The first chapter introduces the reader to the topic of the article. Presents information of the problem of software quality, test data fitness and quality criteria. The second chapter provides an overview of the publication in which is described the test data generation problem by using evolutionary strategies. In this chapter there are presented, different approaches to address the optimization problem of test data selection. The third chapter sets out the advantages which in the opinion of the author result from the application of evolutionary strategy in the process of test data generation. In this section have been drawn conclusions from the article, from books listed in the bibliography. The author of the article presents advantages of evolutionary strategy too as a person, which tests a software in practise. The last chapter in addition to summaries and conclusions, proposes the author to suggest in which issues related to testing could be used evolutionary strategies.
Celem artykułu jest podkreślenie zalet, które można uzyskać poprzez zastosowanie strategii ewolucyjnych w testowaniu, a konkretnie w procesie generowania danych testowych. Pierwszy rozdział wprowadza czytelnika do tematu artykułu. Prezentuje informacje na temat problemu jakości, przydatności danych testowych oraz kryteria jakości danych testowych. Drugi rozdział stanowi przegląd publikacji, w których poruszony jest problem generowania danych testowych za pomocą strategii ewolucyjnych. Zaprezentowane są w tym rozdziale różne podejścia rozwiązujące problem optymalizacji danych testowych. Trzeci rozdział przedstawia korzyści, które zdaniem autora wynikają z zastosowania strategii ewolucyjnych w procesie generowania danych testowych. Wyciągnięte również zostały wnioski z artykułu, książek wymienionych w bibliografii oraz autora artykułu, jako osoby testującej praktycznie. Ostatni rozdział oprócz podsumowania i wniosków, zawiera propozycje autora sugerujące dla jakich problemów związanych z testowaniem warto zastosować strategie ewolucyjne.
Źródło:
Management Systems in Production Engineering; 2016, 2 (22); 106-109
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of data processing for requesting observation systems
Optymalizacja przetwarzania danych dla zapytań systemów obserwacji przestrzeni powietrznej
Autorzy:
Svyd, I. V.
Obod, A. I.
Maltsev, O. S.
Pavlova, D. B.
Mongo, B. V.
Powiązania:
https://bibliotekanauki.pl/articles/407652.pdf
Data publikacji:
2018
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
data processing optimization
requesting observation system
optymalizacja przetwarzania danych
system przesłuchań
transponder lotniczy
Opis:
The article discusses how to optimize the data when it detects air targets by requesting observation systems. Two schemes for the detection of air objects, differing in the order of the operation of deciphering the aircraft responders' response signals, were investigated. It is shown that performing the operation of decoding the signals of the aircraft responder after the operation of detecting the air object makes it possible to improve the quality of data processing of the requesting observation systems. The influence of the aircraft responder readiness coefficient and the probability of suppression of signals in the answer channel on the probability of detection of air objects was researched.
Artykuł dotyczy optymalizacji przetwarzania danych podczas wykrywania obiektów powietrznych poprzez żądanie systemów nadzoru. Zbadano dwa schematy wykrywania obiektów powietrznych, różniące się kolejnością operacji odczytywania sygnałów odpowiedzi statków powietrznych. Pokazano, że wykonanie operacji deszyfrowania sygnałów transponderów statku powietrznego po uruchomieniu wykrywania obiektów powietrznych pozwala poprawić jakość przetwarzania danych zapytań systemów nadzoru. Zbadano wpływ współczynnika gotowości statku powietrznego i prawdopodobieństwa tłumienia sygnałów w kanale odpowiedzi na prawdopodobieństwo wykrycia obiektów powietrznych.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2018, 8, 1; 56-59
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic tuning framework for parallelized programs
Iteracyjny kompilator zrównoleglający oraz optymalizujący lokalność danych
Autorzy:
Burak, D.
Radziewicz, M.
Wierciński, T.
Powiązania:
https://bibliotekanauki.pl/articles/153574.pdf
Data publikacji:
2010
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
kompilator zrównoleglający
optymalizacja lokalności danych
kompilacja iteracyjna
algorytm DES
OpenMP
parallelized compiler
data locality optimization
iterative compilation
Data Encryption Standard
Opis:
Complexity of computers has grown tremendously in recent years, because, among others, multi-processor and multi-core architectures are in widespread use. Parallelized programs should run on multi-core processors to use the most of its computing power. Exploiting parallel compilers for automatic parallelization and data locality optimization of sequential programs reduces costs of software. In this paper there is described the WIZUTIC Compiler Framework developed in the Faculty of Computer Science and Information Technology of the West Pomeranian University of Technology. The application uses the source code of the PLUTO parallel compiler developed in the Ohio State University by Uday Bondhugula. The simulated annealing method and the Bees algorithm are used for finding proper transformations of the source code for given program features. The experimental study results using the Data Encryption Standard (DES) algorithm are described and the speed-ups of encryption and decryption processes are presented.
W artykule przedstawiono autorski kompilator zrównoleglający oraz optymalizujący lokalność danych- WIZUTIC oraz jego wykorzystanie do skrócenia czasu przetwarzania algorytmu szyfrowania DES. Do utworzenia kompilatora WIZUTIC transformującego kod źródłowy zapisany w języku C ze źródła do źródła wykorzystano kody źródłowe kompilatora PLUTO autorstwa Uday'a Bondhuguli służącego do optymalizacji lokalności danych z zastosowaniem transformacji tiling oraz zrównoleglenia pętli programowych z wykorzystaniem gruboziarnistej równoległości. W procesie kompilacji wykorzystano technikę kompilacji iteracyjnej oraz dwie metody optymalizacji: symulowane wyżarzanie (SA) oraz algorytm pszczół (BA) służące do określenia odpowiedniego rozmiaru bloku transformacji tiling. Przedstawiono wyniki badań eksperymentalnych dla algorytmu DES pracującego w trybie ECB. Badania przeprowadzona z zastosowaniem maszyny 8-procesorowej Quad Core Intel Xeon Processor Model E7310, kompilatora GCC GNU z wykorzystaniem standardu OpenMP w wersji 3.0 oraz narzędzia do profilowania kodu Intel VTune.
Źródło:
Pomiary Automatyka Kontrola; 2010, R. 56, nr 12, 12; 1526-1528
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Projektowanie aplikacji i interakcja z użytkownikiem
Planning applications and interaction user
Autorzy:
Molga, Agnieszka
HAMELA, Artur
PAWŁOWSKI, Damian
Powiązania:
https://bibliotekanauki.pl/articles/446107.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Rzeszowski
Tematy:
aplikacje internetowe
projektowanie interfejsu użytkownika
interakcja z użytkownikiem
bezpieczeństwo aplikacji
optymalizacja bazy danych
paradygmaty programowania
web application
user interface design
user experience
application security
database optimization
Opis:
W projektowaniu aplikacji należy uwzględnić wiele czynników, m.in. projektowanie interakcji. Projektowanie interakcji skupia się na tworzeniu interfejsów, systemów w ścisłym związku z bada-niem zachowań użytkownika. W artykule przedstawiono sposoby projektowania nowoczesnych aplikacji internetowych. Odbiorcami publikacji mogą być programiści aplikacji internetowych, jak również projektan-ci UI oraz UX.
Designing the application include many factors for instance interaction design. Interaction de-sign focuses on creating interfaces, systems, in close connection with the study user behavior. The article presents ways of design a modern web applications. The recipients of the publication may be developers of web applications as well as UI and UX designers.
Źródło:
Dydaktyka informatyki; 2017, (12)2017; 233-241
2083-3156
Pojawia się w:
Dydaktyka informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Niektóre problemy przygotowania danych do optymalizacji planu pozyskania drewna
Nekotorye problemy podgotovki dannykh dlja optimalizacii plana zagotovki drevesiny
Some problems of data preparation for optimizing the plan of wood harvesting
Autorzy:
Klapec, B.
Powiązania:
https://bibliotekanauki.pl/articles/810774.pdf
Data publikacji:
1988
Wydawca:
Polskie Towarzystwo Leśne
Tematy:
lesnictwo
pozyskiwanie drewna
plan pozyskiwania drewna
optymalizacja
opracowanie danych
Źródło:
Sylwan; 1988, 132, 04
0039-7660
Pojawia się w:
Sylwan
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimizing data transmission in communication systems which use magnetic couplings
Optymalizacja transmisji danych w systemach łączności wykorzystujących „sprzężenia magnetyczne”
Autorzy:
Jackiewicz, T.
Nowak, R.
Wiśniewski, G.
Powiązania:
https://bibliotekanauki.pl/articles/1361932.pdf
Data publikacji:
2015
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
optymalizacja transmisji danych
sprzężenia magnetyczne
propagacja fal elektromagnetycznych
propagacja sygnału w szybie kopalnianym
górniczy system łączności
optimizing data transmission
magnetic couplings
propagation of electromagnetic waves
signal propagation in a shaft
mining communication system
Opis:
Communication systems which make use of magnetic couplings are systems in which the transformation of signals is conducted through induction elements. These elements transfer and receive energy from the transportation unit. A good example of such a solution is a shaft communication and signal system which sends a transmission signal through ferromagnetic couplers by means of head ropes or balancing ropes. This type of communication has, undoubtedly, some advantages, such as high reliability and uncomplicated exploitation. Yet, there are some limitations related to the employed bandwidth. The article discusses important issues related to shaft communication and presents methods which allow to make maximum use of available transmission channels.
Mianem łączności wykorzystującej sprzężenia magnetyczne przyjęto nazywać systemy, w których transformacja sygnału odbywa się poprzez elementy indukcyjne, które przekazują i odbierają energię z ośrodka transportującego. Dobrym przykładem takiego rozwiązania jest system łączności i sygnalizacji szybowej, który poprzez sprzęgacze ferromagnetyczne przesyła za pomocą lin nośnych bądź wyrównawczych sygnał transmisyjny. Tego typu łączność oprócz swych niewątpliwych zalet, jakimi są duża niezawodność i prostota eksploatacji, posiada również swoje ograniczenia związane z zastosowanym pasmem przenoszenia. W artykule przedstawione zostaną rozważania i pokazane metody pozwalające na maksymalne wykorzystanie dostępnych kanałów transmisyjnych.
Źródło:
Mining – Informatics, Automation and Electrical Engineering; 2015, 53, 3; 25-30
2450-7326
2449-6421
Pojawia się w:
Mining – Informatics, Automation and Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Efficient storage, retrieval and analysis of poker hands: An adaptive data framework
Autorzy:
Gorawski, M.
Lorek, M.
Powiązania:
https://bibliotekanauki.pl/articles/330018.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
big data
storage model design
data architecture
data access
path optimization
zbiór danych
architektura danych
udostępnianie danych
optymalizacja obszaru
Opis:
In online gambling, poker hands are one of the most popular and fundamental units of the game state and can be considered objects comprising all the events that pertain to the single hand played. In a situation where tens of millions of poker hands are produced daily and need to be stored and analysed quickly, the use of relational databases no longer provides high scalability and performance stability. The purpose of this paper is to present an efficient way of storing and retrieving poker hands in a big data environment. We propose a new, read-optimised storage model that offers significant data access improvements over traditional database systems as well as the existing Hadoop file formats such as ORC, RCFile or SequenceFile. Through index-oriented partition elimination, our file format allows reducing the number of file splits that needs to be accessed, and improves query response time up to three orders of magnitude in comparison with other approaches. In addition, our file format supports a range of new indexing structures to facilitate fast row retrieval at a split level. Both index types operate independently of the Hive execution context and allow other big data computational frameworks such as MapReduce or Spark to benefit from the optimized data access path to the hand information. Moreover, we present a detailed analysis of our storage model and its supporting index structures, and how they are organised in the overall data framework. We also describe in detail how predicate based expression trees are used to build effective file-level execution plans. Our experimental tests conducted on a production cluster, holding nearly 40 billion hands which span over 4000 partitions, show that multi-way partition pruning outperforms other existing file formats, resulting in faster query execution times and better cluster utilisation.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2017, 27, 4; 713-726
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielokryterialne zadanie optymalizacji schematu agregatów w hurtowniach danych
Multi-objective optimization of multidimensional aggregates schema
Autorzy:
Mazurek, M.
Powiązania:
https://bibliotekanauki.pl/articles/305832.pdf
Data publikacji:
2009
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
hurtownia danych
OLAP
wielowymiarowe agregaty
optymalizacja
data warehouse
multidimensional aggregates
optimization
Opis:
Dominującą technologią wykorzystywaną do zwiększenia wydajności dużych hurtowni danych są, wyliczane w oparciu o dane szczegółowe, agregaty, w tym mające postać wielowymiarowych kostek. Mechanizmy przepisywania zapytań pozwalają na znacznie szybsze wyznaczenie odpowiedzi na zapytanie w oparciu o mniejsze agregaty niż w przypadku odwołań do źródłowych tabel hurtowni. Do kluczowych parametrów opisujących schemat wielowymiarowych agregatów należą czas odpowiedzi na zapytania użytkownika, czas aktualizacji danych w schemacie w oparciu o nowe dane w hurtowni oraz przestrzeń dyskowa wymagana do przechowywania agregatów. Przedstawione zostało dwukryterialne sformułowanie zadania optymalizacji, w którym jako ograniczenie przyjęty został czas aktualizacji danych. Pozostałe dwie zmienne tworzą wektor kryteriów. Wyznaczony został zbiór rozwiązań optymalnych w sensie Pareto oraz zaproponowano metodę znalezienia jednoznacznego rozwiązania w oparciu o punkt idealny.
The most popular technology used to increase performance of large data warehouses is multidimensional aggregates computed from high-resolution data. Query-rewriting techniques allows significantly shorter user query response time, when comparing query evaluation on base tables in data warehouse and smaller in size aggregates. There are three key parameters of multidimensional schema - query response time, time needed to refresh data in the schema and disk space required for storage of multidimensional structures. In paper multicriteria optimization problem was formulated, in which data refresh time is a constraint, and the remaining two measures are objectives. As a result of multi-run single-objective task computations, Pareto-optimal set of points is shown. The satisfactory solution might be found based on a distance to ideal point.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2009, 4; 35-40
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The optimization of SQL queries by means of drawing up query diagrams
Optymalizacja zapytań SQL metodą sporządzania diagramów zapytań
Autorzy:
Witan, K.
Powiązania:
https://bibliotekanauki.pl/articles/305916.pdf
Data publikacji:
2011
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
optymalizacja zapytań
język SQL
relacyjne bazy danych
query optimization
SQL language
relational database
Opis:
A poorly performing database application not only costs users time, but also has an impact on other applications running on the same computer or the same network. The best method to manage with this problem is performing SQL tuning. There are two basic issues to focus on during tuning: how to find and interpret the execution plan of an SQL statement and how to change a SQL query to get a specific alternate execution plan. But most important is how to find the optimal execution plan for the query to use. This article describes a timesaving method developed for finding the optimum execution plan - rapidly and systematically - regardless of the complexity of the SQL query or the database platform being used. It explains how to understand and control SQL execution plan and how to diagram SQL queries to deduce the best execution plan for a query.
Niewłaściwie skonstruowane aplikacje bazodanowe nie tylko wymagają poświęcenia nadmiernej ilości czasu na ich obsługę, lecz mają także wpływ na inne aplikacje funkcjonujące na tym samym komputerze, lub w tej samej sieci. Najlepszą metodą pozwalającą na rozwiązanie powyższego problemu, jest przeprowadzenie optymalizacji zapytań. Istnieją dwie podstawowe kwestie na których należy się skoncentrować w trakcie optymalizacji: jak znaleźć i zinterpretować plan wykonania dla zapytania SQL, oraz jak zmodyfikować zapytanie SQL, aby uzyskać określony alternatywny plan wykonania. Jednak najistotniejsze jest jak znaleźć optymalny plan wykonania dla konkretnego zapytania. Bieżący artykuł opisuje metodę, charakteryzującą się niską czasochłonnością, opracowaną w celu wyznaczenia optymalnego planu wykonania - szybko i systematycznie - niezależnie od poziomu złożoności zapytania SQL, lub rodzaju użytej platformy bazodanowej. Wyjaśnia on jak zrozumieć i kontrolować plan wykonania SQL, a także jak opracować diagram zapytania, umożliwiający wybór najlepszego planu wykonania dla zapytania.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2011, 7; 61-68
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A declarative approach to shop orders optimization
Autorzy:
Wikarek, Jarosław
Sitek, Paweł
Jagodziński, Mieczysław
Powiązania:
https://bibliotekanauki.pl/articles/117721.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
MRP II
linear optimization
relational databases
ECLiPSe-CLP
optymalizacja liniowa
relacyjne bazy danych
Opis:
The paper presents the problem of material requirements planning with optimization of load distribution between work centers and workers’ groups. Moreover, it discusses the computational example for shop orders optimization. The data for this example were taken from the relational database. The method of Constraint Logic Programming (CLP) for shop orders optimization has been suggested. Using Constraint Logic Programming, the constraints may be directly introduced to the problem declaration, which is equivalent to the source code of the program. The ECLiPSe-CLP software system has been presented. It allows for solving optimization problems concerning dimensions greater than in the case of the professional mathematical programming solver “LINGO”. The application of ECLiPSe-CLP in accessing data from relational databases has been presented.
Źródło:
Applied Computer Science; 2019, 15, 4; 5-15
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Lodowcowa epoka archiwizowania zasobów
The ice age of data archiving
Autorzy:
Kamińska, Anna Małgorzata
Powiązania:
https://bibliotekanauki.pl/articles/474520.pdf
Data publikacji:
2018
Wydawca:
Wydawnictwo Uniwersytetu Śląskiego
Tematy:
Amazon Glacier
Archiwa danych
Azure Archive Blob Storage
Bezpieczeństwo danych
Dostępność danych
Optymalizacja kosztów
Technologie składowania danych
Cost optimization
Data archives
Data availability
Data security
Data storage technologies
Opis:
Będąc uczestnikami społeczeństwa informacyjnego, stajemy się konsumentami i producentami coraz większej ilości informacji. Ich duża część ma ogromne znaczenie dla prawidłowej realizacji procesów gospodarczych i administracyjnych oraz kształtowania postaw społecznych, kulturowych czy estetycznych, i dlatego ich ochrona staje się sprawą wagi kluczowej. W artykule autorka wyjaśnia, dlaczego archiwizowanie zasobów w formach cyfrowych wiąże się z ochroną tych zasobów w długiej perspektywie czasu. Następnie omawia cechy, jakie powinny posiadać archiwa długoterminowej ochrony danych, i przedstawia technologie pozwalające na optymalne kosztowo budowanie tych archiwów. Mimo że technologie te są trudne do bezpośredniego zastosowania przez małe i średnie podmioty, to oferta kierowana przez dostawców usług chmurowych umożliwia przechowywanie danych w sposób bezpieczny i korzystny kosztowo. Artykuł kończy propozycja architektury archiwum długoterminowego wykorzystującego usługi dostawców trzecich, poświęcone składowaniu danych
Being a part of the information society, we become consumers and producers of more and more information. A large part of it is crucial for the proper implementation of economic and administrative processes, as well as for the shaping of social, cultural or aesthetic attitudes, and therefore data protection becomes a matter of basic importance. In this article, the author explains why archiving resources in digital formats gives good opportunities to protect them in the long term. It defines the features that archives of long-term data preservation should have, and technologies that enable cost-effective building of these systems. Although these technologies are difficult to directly implement by small and medium-sized entities, the offer directed by cloud service providers enables data storage in a safe and cost-effective manner. The article concludes with proposal of the archiving system architecture using third party services dedicated to long-term data storage
Źródło:
Nowa Biblioteka. Usługi, Technologie Informacyjne i Media; 2018, 4(31); 21-35
1505-4195
2451-2575
Pojawia się w:
Nowa Biblioteka. Usługi, Technologie Informacyjne i Media
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Center-based l1-clustering method
Autorzy:
Sabo, K.
Powiązania:
https://bibliotekanauki.pl/articles/330910.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
l1 clustering
data mining
optimization
weighted median problem
metoda grupowania
eksploracja danych
optymalizacja
Opis:
In this paper, we consider the l1-clustering problem for a finite data-point set which should be partitioned into k disjoint nonempty subsets. In that case, the objective function does not have to be either convex or differentiable, and generally it may have many local or global minima. Therefore, it becomes a complex global optimization problem. A method of searching for a locally optimal solution is proposed in the paper, the convergence of the corresponding iterative process is proved and the corresponding algorithm is given. The method is illustrated by and compared with some other clustering methods, especially with the l2-clustering method, which is also known in the literature as a smooth k-means method, on a few typical situations, such as the presence of outliers among the data and the clustering of incomplete data. Numerical experiments show in this case that the proposed l1-clustering algorithm is faster and gives significantly better results than the l2-clustering algorithm.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2014, 24, 1; 151-163
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies