Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Jakość danych" wg kryterium: Temat


Tytuł:
Monitoring regionalny jakości wód podziemnych w województwie świętokrzyskim : komputerowa baza i program prezentacji wyników
Regional monitoring of groundwater quality in the Holy Cross Mts. Province : computerized database and software for visual presentation of the results
Autorzy:
Janecka-Styrcz, K.
Prażak, J.
Powiązania:
https://bibliotekanauki.pl/articles/2074401.pdf
Data publikacji:
2005
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
monitoring
woda podziemna
jakość wody
komputerowa baza danych
groundwater
computer database
Opis:
Theauthors constructed a database and graphic interface for regional monitoring of groundwater quality in the Holy Cross Mts. Province. The software is is designed to store the results of chemical analyses of water samples, as well as to evaluate water quality and present the results. Water quality in monitoring points can be viewed (and printed if needed) as summary tables or maps of groundwater reservoirs and administrative units of the province (districts, communes). Database and application are in use in the Provincial Inspectorate for Environmental Protection in Kielce where they facilitate reporting monitoring results for provincial, district and communal authorities.
Źródło:
Przegląd Geologiczny; 2005, 53, 1; 63--66
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kluczowe etapy tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących
Key stages of designing and developing the Metrological Database Information System for testing and calibration laboratories
Autorzy:
Świerzowicz, J.
Adamczyk, K.
Tabisz, R. A.
Powiązania:
https://bibliotekanauki.pl/articles/157030.pdf
Data publikacji:
2008
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
bazy danych
operacyjne bazy danych
analityczne bazy danych
hurtownie danych
jakość modelu danych
metrologiczne bazy danych
laboratoria badawcze i wzorcujące
walidacja procesów pomiarowych
database
operating database
analytical database
data warehouse
data quality model
metrological database
testing and calibration laboratories
measurement processes validation
Opis:
Uzasadniono potrzebę tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących. Wyjaśniono, dlaczego system taki powinien składać się z dwóch baz danych: bazy operacyjnej oraz bazy analitycznej zwanej także hurtownią danych. Opisano najważniejsze etapy tworzenia takiego systemu decydujące o jego ostatecznej strukturze zapewniającej oczekiwaną funkcjonalność oraz dostępność dla różnego rodzaju laboratoriów za pomocą sieci Internet. Przedstawiono wyniki badań opracowanego modelu operacyjnej bazy danych, stanowiącej część tworzonego systemu. Zaproponowano porządek dalszych działań zmierzających do utworzenia części analitycznej, która stanowić będzie drugą istotną część tego systemu. Wskazano na potrzebę właściwego podziału ról w zespole realizującym projekt i uzasadniono przyjętą metodykę dalszych działań.
The need for developing the Metrological Database Information System for the network of testing and calibration laboratories is shown in the paper. It is explained why such a system should consist of two databases: operational and analytical (called also a data warehouse). The most important stages of creating such a system deciding on its final structure are described. The structure ensures the expected functionality and availability of different kinds of laboratories by the Internet. The investigation results of the model of the operating database being the part of the created system are presented. There is proposed the sequence of further works aiming at creation of the analytical part which will be the second, essential part of this system. The need of the appropriate division of roles in the team carrying out the project is emphasized and the assumed methodology of further works is shown.
Źródło:
Pomiary Automatyka Kontrola; 2008, R. 54, nr 12, 12; 869-873
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metodyka opisu jakości baz danych geodezyjnej ewidencji sieci uzbrojenia terenu
Methodology of description of databases the spatial registration of utility infrastructure
Autorzy:
Borowiecki, I.
Slusarski, M.
Powiązania:
https://bibliotekanauki.pl/articles/62228.pdf
Data publikacji:
2010
Wydawca:
Polska Akademia Nauk. Stowarzyszenie Infrastruktura i Ekologia Terenów Wiejskich PAN
Tematy:
geodezja
informacja o terenie
bazy danych
dane przestrzenne
jakosc
uzbrojenie terenu
Ewidencja Sieci Uzbrojenia Terenu
Opis:
Obserwujemy obecnie dynamiczny rozwój procesów informatyzacji krajowego systemu informacji o terenie. Tworzone są geoinformacyjne bazy danych na poziomie krajowym, regionalnym i lokalnym. W celu budowy systemów spełniających stawiane przed nimi wymagania formalno-prawne konieczne jest opracowanie szczegółowych zasad metodologii oceny jakości danych przestrzennych. W pracy przedstawiono propozycję opisu jakości danych geodezyjnej ewidencja sieci uzbrojenia terenu (GESUT). Procedurę oceny opracowano zgodnie z wytycznymi normy PN-EN-ISO 19113. Na podstawie badań dotyczących modelu oceny systemu informacji o terenie przeprowadzonych w latach poprzednich oraz bieżących analiz opracowano metodę oceny jakości danych GESUT. Zaproponowana metoda opisu jakości danych przestrzennych pozwala na sporządzenie precyzyjnego i wiarygodnego raportu oceny.
In the destination of construction geoinformatics systems meeting requirements put before them is necessary elaboration detailed principles of the assessment methodology of spatial data quality. The spatial registration of utility infrastructure is one of basic databases of the local system. This study focuses proposial the description of the quality cadastre data in accordance with guidelines of the norm PN-EN-ISO 19113
Źródło:
Infrastruktura i Ekologia Terenów Wiejskich; 2010, 03
1732-5587
Pojawia się w:
Infrastruktura i Ekologia Terenów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena przydatności OpenStreetMap jako źródła danych dla analiz sieciowych
Assessment of OpenStreetMap suitability as a data source for network analysis
Autorzy:
Cichociński, P.
Powiązania:
https://bibliotekanauki.pl/articles/346835.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych
normalizacja
dane przestrzenne
OpenStreetMap
analiza sieciowa
data quality
standardization
spatial data
network analysis
Opis:
Od kilku lat użytkownicy oprogramowania GIS mają do dyspozycji zbiór danych stanowiący swego rodzaju alternatywę dla produktów komercyjnych. Jest nim OpenStreetMap (w skrócie OSM) – projekt mający za cel zbudowanie edytowalnej i dostępnej bez ograniczeń mapy świata. Mapa taka tworzona jest na podstawie danych z ręcznych odbiorników GPS, zdjęć lotniczych oraz innych dostępnych źródeł danych, a także szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w jednej, centralnej bazie danych, z której może być pobierana w postaci obrazu mapy zaprezentowanego przy użyciu wybranej symboliki lub danych wektorowych. Dane z takiego źródła mogą być zastosowane między innymi do przeprowadzania analiz sieciowych, z których najszerzej wykorzystywana i najczęściej spotykana jest funkcja znajdowania optymalnej trasy pomiędzy dwoma punktami. Aby wynik takiej analizy można było uznać za wiarygodny, użyte dane muszą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez wolontariuszy, nie są sformułowane żadne plany jej systematycznego rozwoju oraz brak jest odgórnej kontroli jakości. Dlatego w pracy zaproponowano metody i narzędzia, które pozwolą zweryfikować przydatność zgromadzonych do tej pory danych dla celów analiz sieciowych, jak również poprawić znalezione błędy. Spośród rozważanych dla danych geograficznych aspektów jakości, szczególną uwagę zwrócono na: kompletność, dokładność położenia, spójność topologiczną i dokładność czasową. Dwa pierwsze problemy wymagają w praktyce porównania z rzeczywistym przebiegiem dróg i ulic. Do rozwiązania problemu spójności geometrycznej zasugerowano wykorzystanie odpowiednich reguł topologicznych badających wybrane relacje przestrzenne pomiędzy obiektami geograficznymi. Po zasygnalizowaniu wykrytych w ten sposób błędów, można je poprawiać zarówno metodami automatycznymi, jak też metodami półautomatycznymi bądź ręcznymi.
For several years now, GIS users have at their disposal the data set constituting some kind of alternative to commercial products. It is the OpenStreetMap (OSM) – a project with the objective to build an editable and available without restrictions map of the world. This map is created based on data from handheld GPS receivers, aerial photographs and other available data sources, as well as sketches made in the field. Acquired information is stored in one central database, from which it can be downloaded as a map image using selected symbols or as vector data. Data from this source can be used, among others, for network analysis, of which the most widely used and the most common function is finding the optimal route between two points. For the result of this analysis to be considered reliable, the data used must be of appropriate quality. Because the OSM database is built by volunteers, there are no plans of its systematic development and there is no top-down quality control. Therefore, the paper proposes methods and tools to verify the suitability of the so far collected data for the purposes of network analysis, as well as to correct errors found. Among the quality aspects considered for geographical data, particular attention was paid to the completeness, positional accuracy, topological consistency and temporal accuracy. The first two problems require in practice comparison with the actual course of roads and streets. To solve the problem of geometric consistency, the use of relevant topological rules examining selected spatial relationships between geographic objects was suggested. When the errors detected this way are marked, they can be corrected using automated methods, and also semi-automatic or manual methods.
Źródło:
Roczniki Geomatyki; 2012, 10, 7; 15-24
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Selection of data mining method for multidimensional evaluation of the manufacturing process state
Autorzy:
Rogalewicz, M.
Piłacińska, M.
Kujawińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/407333.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
jakość kontroli
proces produkcji
eksploaracja danych
metoda
klasyfikacja
quality control
process state evaluation
data mining methods
classification
Opis:
The article deals with the issues involved in evaluating the process state on the basis of many measures, including: process parameters, diagnostic signals and events occurring during the process. These measures as well as those measurements traditionally used in the evaluation of process capability, offer a relevant source of information about the manufacturing process and the authors attempted to ascertain the most suitable method, or group of methods, for achieving this. They present the main criteria for the categorization division of the methods of the manufacturing process state evaluation and, from those identified, distinguish the traditional from Data Mining methods. The authors then specify some basic requirements regarding the desired method or group of methods and focus on the classification problem. A division and classification of the methods is made and briefly described. Finally, the authors specify the criteria for their selection of the Data Mining method type as being the most appropriate for the evaluation of the manufacturing process state and, from within this type, offer the most suitable groups of methods. Some directions for further research are discussed at the end of the article.
Źródło:
Management and Production Engineering Review; 2012, 3, 2; 27-35
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Współzależność pomiędzy rozwojem teorii i praktyki badań reprezentacyjnych w Polsce
The interplay between sample survey theory and practice in Poland
Autorzy:
Kordos, Jan
Powiązania:
https://bibliotekanauki.pl/articles/422642.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
badanie reprezentacyjne
metoda estymacji
złożone badanie reprezentacyjne
jakość danych
statystyka małych obszarów
metoda rotacyjna
metoda alokacji próby
sample survey
estimation methods
complex sample surveys
data quality
estimation for small area
rotation sampling
sample allocation methods
Opis:
Autor bada współzależności między rozwojem teorii i praktyki badań reprezentacyjnych w Polsce w ciągu ponad 60 lat. Rozpoczyna od klasycznej pracy Neymana (Neyman, 1934), która dała teoretyczne podstawy probabilistycznego podejścia wyboru próbki umożliwiające wnioskowanie z badań reprezentacyjnych. Główne idee tej pracy były najpierw opublikowane po polsku w 1933 r. (Neyman, 1933) i miały istotny wpływ na a praktykę badań reprezentacyjnych Polsce przed i po II Wojnie Światowej. Badania reprezentacyjne prowadzone w latach 1950-tych i 1960-tych były konsultowane z J. Neymanem w czasie jego wiz w Polsce w latach 1950 i 1958 (Fisz, 1950; Zasępa, 1958). Praktyczne problemy występujące przy planowaniu i analizie badań reprezentacyjnych Polsce były częściowo rozwiązywane przez Komisję Matematyczną GUS powołaną w końcu 1949 r. jako organ doradczy i opiniodawczy Prezesa GUS. Komisja ta składała się ze specjalistów zarówno z GUS jak i ośrodków naukowo-badawczych w kraju (Kordos, 2012a). Komisja działała do 1993 r. i wpływała w istotny sposób na praktykę badań reprezentacyjnych Polsce. Specjalną uwagę poświęcono wpływowi teorii badań próbkowych na świecie i w Polsce na praktykę badań reprezentacyjnych w Polsce, a w szczególności na plany i schematy losowania i metody estymacji w badaniach prowadzonych w czasie, a głównie metodzie rotacyjnej (Greń, 1969; Kordos, 1967, 2012b; Kowalczyk, 2004; Kowalski, 2006; Lednicki, 1982; Popiński, 2006; Wesołowski, 2010); lokalizacji próby (Bracha et al.,2004b, Greń, 1964, 1966; Lednicki, 1979, 1989; Lednicki i Wesołowski, 1994;), metodom estymacji (Bracha, 1996, 1998; Greń, 1970; Kordos, 1982; Lednicki, 1979, 1987, Wesołowski, 2004, Zasępa, 1962, 1972), jakości danych (Kordos, 1973, 1988; Zasępa, 1993) oraz metodom estymacji dla małych obszarów (Bracha, 1994, 2003; Bracha et al., 2004b; Dehnel, 2010; Domański, Pruska, 2001; Golata, 2004ab, 2012; Kalton et al., 1993; Kordos, 1991, 2000b; Kordos, Paradysz, 2000; Niemiro, Wesołowski, 2012; Paradysz, 1998; Wesołowski, 2004). W zakończeniu prowadzone są rozważania na temat przyszłych zapotrzebowań na informacje z badań reprezentacyjnych.
The author examines interplay between sample survey theory and practice in Poland over the past 60 years or so. He begins with the Neymans’s (1934) classic landmark paper which laid theoretical foundations to the probability sampling (or design—based) approach to inference from survey samples. Main ideas of that paper were first published in Polish in 1933 (Neyman, 1933) and had a significant impact on sampling practice in Poland before and after the World War II. Sample surveys conducted in 1950s and 1960s were consulted with J. Neyman during his visits in Poland in 1950 and 1958 (Fisz, 1950a; Zasepa, 1958). Some practical problems encountered in the design and analysis of sample surveys were partly solved by the Mathematical Commission of the CSO which was established in 1949, as an advisory and opinion—making body to the CSO President in the field of sample surveys. The Commission concentrated specialists in the sampling methods both from the CSO and research centres in the country (Kordos, 2012a). The Commission had a significant impact on sampling practice in Poland and was active till 1993. Special attention is devoted to the impact of sampling theory on sampling practice in Poland, and particularly on sample designs and estimation methods in: sampling in time and rotation methods (Kordos, 1967, 2012b; Kowalczyk, 2004; Kowalski, 2006; Wesołowski, 2010); sample allocation and estimation methods (Bracha, 1994, 1996, 2003; Greń, 1964, 1966, 1969, 1970; Kordos, 1969, 1973, 1982; Wesołowski, 2004, Zasępa, 1962, 1972, 1993 ); data quality (Kordos, 1973, 1988); estimation methods for small areas (Dehnel, 2010; Domański, Pruska, 2001; Golata, 2004ab, 2012; Kalton et al., 1993; Kordos, 1991, 2000b, 2004; Kordos, Paradysz, 2000; Niemiro, Wesołowski, 2012; Paradysz, 1998; Wesołowski, 2004). Concluding remarks are given at the end.
Źródło:
Przegląd Statystyczny; 2012, 59, numer specjalny 1; 61-86
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Availability and quality of data on drug policy and management of access to reimbursed medicinal products in the United Kingdom, Denmark, Germany, Italy and Poland
Autorzy:
Hermanowski, Tomasz
Szafraniec-Buryło, Sylwia I.
Krancberg, Aleksandra N.
Dulęba, Dominika
Cegłowska, Urszula
Powiązania:
https://bibliotekanauki.pl/articles/635237.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
dostępność danych, jakość, ocena metodologii, proces decyzyjny
Opis:
Objectives: To perform a systematic review, and to verify and define deficiencies in literature data on drug policy and management of access to reimbursed medicinal products in the United Kingdom, Denmark, Germany, Italy and Poland as a source of information intended to be used by government authorities in the decision-making process. Methods: A systematic review was conducted through database search of Medline, SCOPUS, Embase and Cochrane Library, supplemented by nonsystematic review. The quality of the identified literature was critically appraised. Results: Information necessary to develop a knowledge base was outline from 121 papers identified through database search. 0.83% of all publications were rated high in all of the assessed categories, i.e. were identified to represent high levels of consistency, coherence, strength and methodological quality. Conclusions: In the policy decision-making process, concise recommendations based on validated data are more than needed. It is vital to rely on scientific evidence and avoid reports based on simple exchange of information or presenting single-source or unconfirmed data, including expert’s opinion.
Źródło:
Zdrowie Publiczne i Zarządzanie; 2013, 11, 1
2084-2627
Pojawia się w:
Zdrowie Publiczne i Zarządzanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki
A concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes
Autorzy:
Lipiński, D.
Majewski, M.
Powiązania:
https://bibliotekanauki.pl/articles/156999.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
monitorowanie i optymalizacja procesów mikro- i nanoobróbki
inteligentne systemy monitorowania i optymalizacji
interakcja operatora z systemem
inteligentny interfejs do sterowania procesami
komunikacja głosowa i wizualna
interfejs mowy
jakość procesu
analiza danych pomiarowych
systemy ekspertowe
sztuczna inteligencja
monitoring and optimization of micro- and nano-machining processes
intelligent systems of monitoring and optimization
interaction between operators and systems
intelligent interface for system control
voice and visual communication
speech interface
process quality
measurement data analysis
expert systems
artificial intelligence
Opis:
W artykule przedstawiono nową koncepcję zdalnej, głosowej i wizualnej komunikacji operatora i systemu monitorowania i optymalizacji procesów mikro- i nanoobróbki. System zdalnego monitorowania i optymalizacji jakości procesów, wyposażony w interfejs wizualny i głosowy, przedstawiono w przykładowym zastosowaniu w procesach precyzyjnego szlifowania. Opracowana koncepcja proponuje architekturę systemu wyposażoną w warstwę analizy danych, warstwę nadzorowania procesu, warstwę decyzyjną, podsystem komunikacji głosowej w języku naturalnym oraz podsystem komunikacji wizualnej z opisem głosowym. Interakcja operatora z systemem za pomocą mowy i języka naturalnego zawiera inteligentne mechanizmy służące do identyfikacji biometrycznej operatora, rozpoznawania mowy, rozpoznawania słów składowych i komunikatów operatora, analizy składni komunikatów, analiza skutków poleceń, ocena bezpieczeństwa poleceń. Interakcja systemu z operatorem za pośrednictwem komunikatów wizualnych z opisem głosowym zawiera inteligentne mechanizmy służące do generowania wykresów i raportów, klasyfikacji form przekazów i ich tworzenia, generowania komunikatów w postaci graficznej i tekstowej, konsolidacji i analizy treści komunikatów, oraz syntezy komunikatów multimedialnych. Artykuł przedstawia również koncepcję inteligentnych metod i algorytmów jakościowego opisu procesu obróbki na podstawie analizy danych pomiarowych z zastosowaniem systemu ekspertowego opartego na regresyjnych sieciach neuronowych.
The paper deals with a new concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The distant system for monitoring and optimization of the process quality, equipped with a visual and vocal interface, is presented in an exemplary application to precision grinding. There is proposed an architecture of the system equipped with a data analysis layer, a process supervision layer, a decision layer, a communication subsystem using speech and natural language, and a visual communication subsystem using vocal descriptions. As the system is equipped with several intelligent layers, it is capable of control, supervision and optimization of the processes of micro- and nano-machining. In the proposed system, computational intelligence methods allow for real-time data analysis of the monitored process, configuration of the system, process supervision based on process features and quality models. The system is also capable of detection of inaccuracies, estimation of inaccuracy results, compensation of inaccuracy results, and selection of machining parameters and conditions. In addition, it conducts assessment of the operator’s decisions. The system also consists of meaning analysis mechanisms of operator's messages and commands given by voice in a natural language, and various visual communication forms with the operator using vocal descriptions. The layer for data presentation and communication provides data and information about the machining parameters and conditions, tool condition, process condition, estimation of the process quality, and process variables. The interaction between the operator and the system by speech and natural language contains intelligent mechanisms for operator biometric identification, speech recognition, word recognition, recognition of messages and com-mands, syntax analysis of messages, and safety assessment of commands. The interaction between the system and the operator using visual messages with vocal descriptions includes intelligent mechanisms for generation of graphical and textual reports, classification of message forms, generation of messages in the graphical and textual forms, consolidation and analysis of message contents, synthesis of multimedia messages. In the paper, Fig. 1 presents the concept of distant voice and visual communication between the operator and a system for monitoring and optimization of micro- and nano-machining processes. The concept of the system of distant monitoring and optimization of the precision grinding processes using voice and visual communication between the operator and the system is shown in Fig. 2, while the complete structure of the system is depicted in Fig. 3. The paper also presents a concept of intelligent methods and algorithms (Fig. 4) for de-scribing the machining process quality on the basis of the measurement data analysis using an expert system equipped with regression neural networks.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 7, 7; 648-651
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating databases of the internet decision support system for cereals protection
Aktualizacja baz danych internetowego systemu wspomagania decyzji w ochronie zbóż
Autorzy:
Zaliwski, A. S.
Nieróbca, A.
Powiązania:
https://bibliotekanauki.pl/articles/94046.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
data quality
information quality
data updating
database
decision support system
jakość danych
jakość informacji
aktualizacja danych
baza danych
system wspomagania decyzji
Opis:
The process of data updating in the databases of the Internet decision support system for cereals protection is presented. The system uses three kinds of data: on spring and winter wheat varieties, on plant protection products (fungicides and insecticides against wheat diseases and pests) and on product doses. It was found that it is possible to obtain all the necessary data for the updating from available web resources. Data sources for variety information are the COBORU materials and websites of agricultural plant breeders. The search engine of plant protection products available on the website of the Ministry of Agriculture and Rural Development is an essential source of the data on protection products and their doses. Other sources of these data are websites of plant protection product producers and online shops. In the data updating process the following stages were distinguished: owned-resources stocktaking, data quality criteria selection, credible data sources determination, data acquisition by the application of the criteria, data adaptation to the system requirements, data entry, data verification. Each one of the itemized stages contributes to the ultimate data quality after the updating. The stages of credible data sources determination, data acquisition and data adaptation to the system requirements were found to be labour intensive. About a triple reduction of labour input into the updating was achieved through the improvement of the data acquisition process, gaining proficiency in the database editors operation and the cumulative effect of build-up of specific data resources in the system. The adopted verification procedures for update correctness are described.
Przedstawiono proces aktualizacji danych w bazach danych internetowego systemu wspomagania decyzji w ochronie zbóż. System wykorzystuje trzy rodzaje danych: o odmianach pszenicy jarej i ozimej, o środkach ochrony roślin (fungicydy i insektycydy przeciw chorobom i szkodnikom pszenicy) i o dawkach środków. Stwierdzono, że wszystkie niezbędne dane do aktualizacji można pozyskać z dostępnych zasobów internetowych. Źródłem danych o odmianach są materiały COBORU oraz strony internetowe hodowców roślin rolniczych. Istotnym źródłem danych o środkach ochrony roślin i ich dawkach jest wyszukiwarka środków ochrony roślin udostępniana na stronach Ministerstwa Rolnictwa i Rozwoju Wsi. Inne źródła tych danych to strony internetowe producentów środków ochrony roślin oraz sklepy internetowe. W procesie aktualizacji danych wyróżniono następujące etapy: inwentaryzacja posiadanych zasobów, wybór kryteriów jakości danych, ustalenie wiarygodnych źródeł, pozyskanie danych z zastosowaniem kryteriów, dostosowanie danych do potrzeb systemu, wprowadzanie, weryfikacja danych. Każdy z wymienionych etapów ma wpływ na ostateczną jakość danych po aktualizacji. Stwierdzono dużą pracochłonność etapów: ustalenia wiarygodnych źródeł, pozyskiwania danych i dostosowania danych do potrzeb systemu. Około trzykrotne zmniejszenie pracochłonności aktualizacji uzyskano na skutek ulepszenia procesu technologicznego pozyskiwania danych, zdobycie doświadczenia w obsłudze edytorów baz danych i kumulatywny efekt wzrostu zasobów określonych danych w systemie. Opisano przyjęte procedury weryfikacji poprawności wprowadzenia danych.
Źródło:
Agricultural Engineering; 2014, 18, 3; 227-235
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Budowa modelu jakości i jego rola w opisie jakości danych przestrzennych
Development of quality model and its application in the context of spatial data quality
Autorzy:
Winiarska, A.
Powiązania:
https://bibliotekanauki.pl/articles/346520.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych przestrzennych
informacja przestrzenna
elementy jakości
model jakości
ISO 19157
spatial data quality
geographic information
quality elements
quality model
Opis:
W artykule zwraca się uwagę na duże znaczenie informacji o jakości danych przestrzennych m.in. ze względu na szerokie zastosowanie tych danych w procesach decyzyjnych. Wyróżnieni zostali w nim główni odbiorcy informacji o jakości – producenci, dysponenci i użytkownicy. Znaczenie jej jest dla każdej z tych grup inne. Nakreślono także za normą ISO 19157 koncepcję jakości danych przestrzennych i umiejscowiono w niej model jakości jako istotne narzędzie w procesie szacowania jakości. Model jakości ma na celu zapewnić powszechne zrozumienie tego co oznacza jakość w kontekście specyfikacji danych i opisywać jak ją mierzyć. W artykule przedstawiono proces budowy modelu jakości z charakterystyką poszczególnych jego etapów: inwentaryzacji wymagań, definiowania zakresu jakości danych, wyboru elementów jakości i opisu ich szacowania oraz testowania przyjętych założeń. Poza wspomnianym procesem budowy modelu jakości nakreślono wyzwania związane z jego wdrożeniem. Dotyczą one m.in. potrzeby edukowania odbiorców informacji o jakości, zagadnienia równoważenia kosztów szacowania jakości, implementacji modelu jakości w systemach zarządzania danymi przestrzennymi., Artykuł ten przeznaczony jest głównie dla producentów danych przestrzennych, gdyż dotyczy bezpośrednio wytwarzania poprawnych danych, spełniających oczekiwania użytkowników. Dzięki zastosowaniu modelu jakości, producenci mają szanse na uzyskanie powtarzalności kontroli, porównywalności wyników szacowania jakości, poprawę reakcji na wymagania rynku. , Koncepcja modelu jakości nie jest nowością. Prace związane z tym tematem były już prowadzone w ramach projektu ESDIN, gdzie powstał model jakości dla danych INSPIRE – m.in. dla tematów Administrative units, Transport networks. Podobne działania zostały podjęte przez Główny Urząd Geodezji i Kartografii, a związane były z wypracowaniem modeli jakości dla wybranych polskich zbiorów danych przestrzennych – m.in. BDOT10k, PRG, EGiB.
The article emphasizes the meaning of spatial data quality information, mostly because of the common usage of that data in decision making processes. The major recipients of quality information were defined, such as producers, administrators and users. The information meaning is different for each of those groups. The concept of data quality information was presented based on ISO 19157, including the data quality model as an important tool in the quality evaluation process. The quality model was developed to assure the common understanding of the quality in the context of data specification and the quality measurements. The article also introduces the process of building the quality model and describes its stages: gathering requirements, defining the data quality scope, choosing the quality elements, describing the evaluation requirements and testing the assumptions. Apart from describing that process, challenges related to its implementation were mentioned. These include educating the recipients of the quality information, balancing the costs of the quality evaluation, implementing the quality model in spatial data management systems. The article is primarily intended for spatial data producers since it deals with production of correct data meeting the user requirements. By applying the quality model the producers can achieve repeatable results of control, comparable results of the quality evaluation and can speed up their reaction to user requirements. The quality model concept is not new. Related research was a part of the ESDIN project; the quality model for INSPIRE data (i.e. administrative units, transport networks) was created in the frames of that project. Similar research was performed by GUGIK; it was related to creating quality models for selected Polish spatial data sets sets (i.e. BDOT10k – Topographic Object Database, PRG – National Register of Borders).
Źródło:
Roczniki Geomatyki; 2015, 13, 2(68); 163-172
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przegląd metod oceny jakości wyników integracji obrazów panchromatycznych i wielospektralnych
Review of quality assessment methods of image fusion results
Autorzy:
Osińska-Skotak, K.
Powiązania:
https://bibliotekanauki.pl/articles/132331.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Geograficzne
Tematy:
integracja danych obrazowych
jakość przestrzenna
jakość spektralna
image fusion
spatial quality
spectral quality
Opis:
The article presents an overview of different approaches and methods to evaluate spectral and spatial quality of image fusion results. This technique allows integrate the geometric detail of high-resolution panchromatic image and the spectral information of low-resolution multispectral image to produce high-resolution multispectral image. This new image can be used for more detailed analyses. However, in order to carry out a quantitative analysis, e.g. biomass estimation, it is necessary to preserve the spectral characteristics of the original multispectral image. This is among other the reason for the development of new algorithms for image fusion and methods for assessing the quality of their results.
Źródło:
Teledetekcja Środowiska; 2015, 52; 39-49
1644-6380
Pojawia się w:
Teledetekcja Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stabilizacja systemu pomiarowego dla wiatrakowca w aspekcie jakości danych LiDAR
Stabilization of the photogrammetric system for a gyrocopter in terms of the LiDAR data quality
Autorzy:
Kolecki, J.
Prochaska, M.
Piątek, P.
Baranowski, J.
Kurczyński, Z.
Powiązania:
https://bibliotekanauki.pl/articles/130028.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
stabilizacja
wiatrakowiec
lotniczy skaning laserowy
skanowanie
planowanie lotów
jakość danych
stabilization
gyroplane
airborne laser scanning (ALS)
scanning
flight planning
data quality
Opis:
Definicja parametrów jakościowych chmury punktów pozyskanej metodą lotniczego skanowania laserowego stanowi element niemal każdego zamówienia wiążącego się z wykonaniem lotów pomiarowych. Jakość danych LiDAR nie może być utożsamiana wyłącznie z ich dokładnością, ale jest pojęciem znacznie szerszym, obejmującym inne parametry chmury punktów pozyskanej w wyniku lotu pomiarowego. Przykładowo wymagania dotyczące parametrów takich jak pokrycie oraz gęstość określone są w polskich regulacja prawnych. Na wyżej przywołane parametry danych LiDAR mogą wpływać w pewnym stopniu czynniki związane z samym lotem, takie jak niestabilność prędkości czy linowe lub wysokościowe odstępstwa od planowanej linii lotu. Najbardziej istotnym czynnikiem wydają się być jednak wychylenia oraz drgania platformy pomiarowej. Pozyskiwanie danych LiDAR bez systemu stabilizacji oraz wibroizolacji może utrudniać zachowanie wymaganych parametrów jakościowych. W trakcie prac prowadzonych w ramach projektu, którego efektem było zbudowanie prototypu ultralekkiej stabilizowanej platformy pomiarowej dla wiatrakowca, dokonano szeregu analiz związanych z doborem odpowiedniego systemu stabilizacji rozpatrując trzy składowe wychyleń: roll, pitch, yaw. W tym celu stworzone zostały narzędzia informatyczne służące badaniu wpływu wychyleń na jakość danych LiDAR przy założeniu określonych parametrów linii nalotowych oraz ustawień pracy skanera.
The definition of the quality parameters of a point cloud acquired using the airborne laser scanning is the element of almost every terms of reference involving airborne spatial data acquisition. The quality of the LiDAR data should not be identified only with accuracy and should be examined in a wider aspect taking into account other parameters of the point cloud that was acquired as a result of a flight. For instance the Polish legal regulations provide the requirements concerning the coverage of the strips and the point density. The above mentioned parameters of the LiDAR data can be influenced to some extent by many factors concerning the flight itself such as a varying speed as well as the horizontal and vertical deflections from the planned flight line. However, vibrations and angular deflections seem to influence the point cloud quality to the highest extent. LiDAR data acquisition without required stabilizing system makes keeping the required quality parameters very hard. Within the research project which aimed to develop the prototype of the ultralight, stabilized mapping platform for the gyrocopter, a number of analyses concerning the optimal stabilization scenario were carried out. Tools including scripts and computer programs for analyzing the impact of the deflections on the data quality have been developed. The proper stabilization variant has been established taking into account three separate deflection components, i.e.: roll, pitch and yaw.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 71-82
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of spatial data processing tools for air quality assessments - practical examples
Autorzy:
Kobus, D.
Kostrzewa, J.
Powiązania:
https://bibliotekanauki.pl/articles/94749.pdf
Data publikacji:
2015
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
air quality
environmental monitoring
geographic information systems
spatial data processing
decision support systems
jakość powietrza
monitoring środowiska
System Informacji Geograficznej
przetwarzanie danych przestrzennych
systemy wspomagania decyzji
Opis:
In this article the potential applications of GIS systems in the management of air quality are discussed. In particular two specific issues are described: determining the spatial representativeness of air quality monitoring stations and areas of standards exceedances. The methods using spatial and emission data, as well as, the results of measurements, i.e. Land Use Regression method and so-called Beta parameter method are presented. The first one is based on the regression models in which mentioned information may be treated as independent data and, as a result, we obtain information on the levels of pollutant concentrations in point and space. The second method involves the parameterization of the spatial characteristics selected on the basis of the monitoring and emission data. These methods can find practical application in the field of air quality monitoring, assessment and the preparation of a public web presentation.
Źródło:
Information Systems in Management; 2015, 4, 4; 251-263
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ jakości danych hydrologicznych na oszacowanie odpływu ze zlewni miejskiej na przykładzie potoku Strzyża w Gdańsku
The influence of hydrological data quality on estimating the runoff from city catchment on the example of Strzyża steam in Gdańsk
Autorzy:
Szydłowski, M.
Mikos-Studnicka, P.
Powiązania:
https://bibliotekanauki.pl/articles/401144.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
jakość danych hydrologicznych
współczynnik odpływu
Potok Strzyża
quality of hydrological data
annual runoff coefficient
Strzyża Creek
Opis:
Kontrola oraz prognozowanie reakcji cieków powierzchniowych na nawalne epizody deszczowe, lub gwałtowne roztopy nabiera kluczowego znaczenia w aspekcie bezpieczeństwa przeciwpowodziowego zlewni zurbanizowanych. Bardzo dobrym przykładem zarówno problematycznego, jak i niosącego realne zagrożenie dla infrastruktury miejskiej cieku, jest Potok Strzyża w Gdańsku. W latach 2011–2013 realizowano budowę sieci posterunków kontrolnych w zlewni potoku. Dzięki temu przedsięwzięciu możliwe stało się gromadzenie cennych danych hydrologicznych dotyczących opadów i przepływów w obszarze silnie zróżnicowanej zlewni miejskiej. Obecnie trwają prace nad drugim etapem opomiarowana zlewni Potoku Strzyża, wyznaczonym na lata 2015–2017, mającym na celu rozwój metod ochrony przeciwpowodziowej, rozbudowę istniejącego systemu monitoringu opadów i przepływów w zlewni Potoku Strzyża, a także dodatkowo, stworzenie systemu sterowania retencją wód opadowych i roztopowych oraz monitoring jakości wód potoku stanowiących bezpośredni odbiornik miejskich ścieków deszczowych. W artykule przedstawiono przykład wykorzystania ciągłych danych z monitoringu hydrologicznego do wyznaczenia rocznego współczynnika odpływu ze zlewni. Wyniki porównano z przybliżonym oszacowaniem tego parametru hydrologicznego, wykonanym na pod-stawie chwilowych pomiarów hydrometrycznych przepływu i dostępnych obserwacji opadów ze stacji leżącej w sąsiedztwie analizowanej zlewni.
Channel flow control and prediction of waterbodies reaction on heavy rainfalls or rapid snowmelt become critical when forecasting the flood risk in urban catchments. A very good example of both problematic and carrying a real threat to urban infrastructure is the Strzyża Creek in Gdańsk. In years 2011–2013 undertook the implementation of storm water monitoring system in the Strzyża Creek basin in Gdańsk. Since that time, it has become possible to collect valuable hydrological data on rainfall and flows in the strongly diversified urbanized districts of the city. Currently, the work is underway to extend the Strzyża Creek monitoring system. The ongoing research project is being realized again in years 2015–2017. The main aims of a project are: development of the methods of flood control, expansion of the existing rainfall-runoff and storage monitoring system in the basin and integrated water quantity and quality analysis, since the Strzyża Creek is one of the main stormwater collectors in Gdańsk. The article presents an example of using continuous data collected by the hydrological monitoring system to determine the annual runoff coefficient. The results were compared with the same parameter estimated on the basis of monthly instantaneous flow measurements and rainfall observations from the precipitation gauge localized in the vicinity of the analyzed catchment.
Źródło:
Inżynieria Ekologiczna; 2015, 44; 139-153
2081-139X
2392-0629
Pojawia się w:
Inżynieria Ekologiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design of a testing method to assess the correctness of a point cloud colorization algorithm
Opracowanie metody oceny poprawności działania algorytmu kolorowania chmury punktów
Autorzy:
Pleskacz, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131127.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
data integration
algorithm testing
data quality
scan colorization
integracja danych
testowanie algorytmów
jakość danych
koloryzacja skanów
Opis:
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 91-104
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies