Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data warehouse optimization" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
Optimization in very large databases by partitioning tables
Optymalizacja w bardzo dużych bazach danych poprzez partycjonowanie tabel
Autorzy:
Bednarczuk, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/1841305.pdf
Data publikacji:
2020
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
partitioning
data warehouse optimization
billions of records
AdventureWorksDW
partycjonowanie
hurtownie danych
miliardy rekordów
Opis:
Very large databases like data warehouses low down over time. Thisis usually due to a large daily increase in the data in the individual tables,counted in millions of records per day. How do wemake sure our queries do not slow down over time? Table partitioning comes in handy, and, when used correctly, can ensure the smooth operation of very large databases with billions of records, even after several years.
Bardzo duże bazy danych typu hurtownie danych z czasem zwalniają. Przyczyną zazwyczaj jest duży dzienny przyrost danych w pojedynczych tabelach liczony w milionach rekordów. Co sprawić aby z czasem nasze zapytania nie działały wolniej. Z pomocą przychodzi partycjonowanie tabel, które użyte w prawidłowy sposób może zapewnić sprawne działanie bardzo dużych bazy danych z miliardami rekordów nawet po kilku latach.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2020, 10, 3; 95-98
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Query Optimization in Teradata Warehouse
Autorzy:
Gosk, A.
Powiązania:
https://bibliotekanauki.pl/articles/308501.pdf
Data publikacji:
2010
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
active data warehouse
query optimization
tera-data
Opis:
The time necessary for data processing is becoming shorter and shorter nowadays. This thesis presents a definition of the active data warehousing (ADW) paradigm. One of the data warehouses which is consistent with this paradigm is teradata warehouse. Therefore, the basic elements of the teradata architecture are described, such as processors parsing engine (PE) and access module processor (AMP). Emphasis was put on the analysis of query optimization methods. There is presented the impact of a primary index on the time of query execution. Furthermore, this paper shows different methods of optimization of data selection, data joins and data aggregation. All these methods can help to minimize the time for data processing. This paper presents experiments which show the usage of different methods of query optimization. At the end some conclusions about different index usage are included.
Źródło:
Journal of Telecommunications and Information Technology; 2010, 3; 57-64
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wielokryterialne zadanie optymalizacji schematu agregatów w hurtowniach danych
Multi-objective optimization of multidimensional aggregates schema
Autorzy:
Mazurek, M.
Powiązania:
https://bibliotekanauki.pl/articles/305832.pdf
Data publikacji:
2009
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
hurtownia danych
OLAP
wielowymiarowe agregaty
optymalizacja
data warehouse
multidimensional aggregates
optimization
Opis:
Dominującą technologią wykorzystywaną do zwiększenia wydajności dużych hurtowni danych są, wyliczane w oparciu o dane szczegółowe, agregaty, w tym mające postać wielowymiarowych kostek. Mechanizmy przepisywania zapytań pozwalają na znacznie szybsze wyznaczenie odpowiedzi na zapytanie w oparciu o mniejsze agregaty niż w przypadku odwołań do źródłowych tabel hurtowni. Do kluczowych parametrów opisujących schemat wielowymiarowych agregatów należą czas odpowiedzi na zapytania użytkownika, czas aktualizacji danych w schemacie w oparciu o nowe dane w hurtowni oraz przestrzeń dyskowa wymagana do przechowywania agregatów. Przedstawione zostało dwukryterialne sformułowanie zadania optymalizacji, w którym jako ograniczenie przyjęty został czas aktualizacji danych. Pozostałe dwie zmienne tworzą wektor kryteriów. Wyznaczony został zbiór rozwiązań optymalnych w sensie Pareto oraz zaproponowano metodę znalezienia jednoznacznego rozwiązania w oparciu o punkt idealny.
The most popular technology used to increase performance of large data warehouses is multidimensional aggregates computed from high-resolution data. Query-rewriting techniques allows significantly shorter user query response time, when comparing query evaluation on base tables in data warehouse and smaller in size aggregates. There are three key parameters of multidimensional schema - query response time, time needed to refresh data in the schema and disk space required for storage of multidimensional structures. In paper multicriteria optimization problem was formulated, in which data refresh time is a constraint, and the remaining two measures are objectives. As a result of multi-run single-objective task computations, Pareto-optimal set of points is shown. The satisfactory solution might be found based on a distance to ideal point.
Źródło:
Biuletyn Instytutu Systemów Informatycznych; 2009, 4; 35-40
1508-4183
Pojawia się w:
Biuletyn Instytutu Systemów Informatycznych
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies