Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Jakość danych" wg kryterium: Temat


Tytuł:
Jakość danych w zintegrowanych systemach informatycznych zarządzania
Autorzy:
Hernes, Marcin
Bytniewski, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/580937.pdf
Data publikacji:
2017
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
jakość danych
zintegrowane systemy informatyczne zarządzania
zarządzanie jakością danych
Opis:
Zintegrowane systemy informatyczne zarządzania pozyskują dane z wielu źródeł wewnętrznych i zewnętrznych na świecie, a więc dane te mogą posiadać różną jakość. Skuteczne zarządzanie musi jednakże bazować na danych o wysokiej jakości. Ważnymi cechami danych są pilność i aktualność, niezaprzeczalność, zrozumiałość i wiarygodność. Tylko na podstawie takich danych osoby zarządzające mogą podejmować prawidłowe decyzje ekonomiczne. Celem niniejszego artykułu jest analiza problematyki związanej z jakością danych i zarządzaniem tą jakością w zintegrowanych systemach informatycznych zarządzania. W pierwszej części przedstawiono istotę pojęcia jakości danych. Następnie scharakteryzowano problematykę zarządzania jakością danych w zintegrowanych systemach informatycznych zarządzania. Ostatnią część artykułu stanowi dyskusja nad praktycznymi aspektami zarządzania jakością danych.
Źródło:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu; 2017, 471; 167-175
1899-3192
Pojawia się w:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Issue of quality and reliability of spatial records information in the context of data concerning boundary points
Problematyka jakości i wiarygodności danych ewidencyjnych w kontekście danych dotyczących punktów granicznych
Autorzy:
Budkowski, S.
Litwin, U.
Powiązania:
https://bibliotekanauki.pl/articles/100568.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
real estate cadastre
quality of spatial data
kataster nieruchomości
jakość danych przestrzennych
Opis:
Records of land and buildings, in accordance with the regulations that remain in force within Poland, act as a real estate cadastre. As a public register, they must fulfil certain specific functions and tasks expected of them. The aim of the present work is to analyse land records data, as illustrated with selected examples, as well as to assess and verify the suitability of these materials in the scope of the functions performed by the real estate cadastre, and in the context of possible legislative changes. Literature studies and the analysis of sample cadastral surveys make it possible to draw conclusions regarding the proposed changes.
Ewidencja gruntów i budynków, w myśl obowiązujących w Polsce przepisów pełni rolę katastru nieruchomości. Jako rejestr publiczny musi spełniać pewne określone funkcje oraz stawiane przed nim zadania. Celem pracy jest analiza danych ewidencyjnych na wybranych przykładach oraz ocena i weryfikacja przydatności tych materiałów w zakresie pełnionych przez kataster funkcji w kontekście ewentualnych zmian legislacyjnych. Badania literatury oraz analiza przykładowych operatów pozwalają wysunąć wnioski dotyczące proponowanych zmian.
Źródło:
Geomatics, Landmanagement and Landscape; 2018, 3; 35-44
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The role of big data in Industry 4.0 in mining industry in Serbia
Autorzy:
Tylečková, Eva
Noskievičová, Darja
Powiązania:
https://bibliotekanauki.pl/articles/88570.pdf
Data publikacji:
2020
Wydawca:
Stowarzyszenie Menedżerów Jakości i Produkcji
Tematy:
big data
Industry 4.0
data quality
data security
duże dane
jakość danych
ochrona danych
Opis:
The current age characterized by unstoppable progress and rapid development of new technologies and methods such as the Internet of Things, machine learning and artificial intelligence, brings new requirements for enterprise information systems. Information systems ought to be a consistent set of elements that provide a basis for information that could be used in context to obtain knowledge. To generate valid knowledge, information must be based on objective and actual data. Furthermore, due to Industry 4.0 trends such as digitalization and online process monitoring, the amount of data produced is constantly increasing – in this context the term Big Data is used. The aim of this article is to point out the role of Big Data within Industry 4.0. Nevertheless, Big Data could be used in a much wider range of business areas, not just in industry. The term Big Data encompasses issues related to the exponentially growing volume of produced data, their variety and velocity of their origin. These characteristics of Big Data are also associated with possible processing problems. The article also focuses on the issue of ensuring and monitoring the quality of data. Reliable information cannot be inferred from poor quality data and the knowledge gained from such information is inaccurate. The expected results do not appear in such a case and the ultimate consequence may be a loss of confidence in the information system used. On the contrary, it could be assumed that the acquisition, storage and use of Big Data in the future will become a key factor to maintaining competitiveness, business growth and further innovations. Thus, the organizations that will systematically use Big Data in their decision-making process and planning strategies will have a competitive advantage.
Źródło:
System Safety : Human - Technical Facility - Environment; 2020, 2, 1; 166-173
2657-5450
Pojawia się w:
System Safety : Human - Technical Facility - Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating databases of the internet decision support system for cereals protection
Aktualizacja baz danych internetowego systemu wspomagania decyzji w ochronie zbóż
Autorzy:
Zaliwski, A. S.
Nieróbca, A.
Powiązania:
https://bibliotekanauki.pl/articles/94046.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
data quality
information quality
data updating
database
decision support system
jakość danych
jakość informacji
aktualizacja danych
baza danych
system wspomagania decyzji
Opis:
The process of data updating in the databases of the Internet decision support system for cereals protection is presented. The system uses three kinds of data: on spring and winter wheat varieties, on plant protection products (fungicides and insecticides against wheat diseases and pests) and on product doses. It was found that it is possible to obtain all the necessary data for the updating from available web resources. Data sources for variety information are the COBORU materials and websites of agricultural plant breeders. The search engine of plant protection products available on the website of the Ministry of Agriculture and Rural Development is an essential source of the data on protection products and their doses. Other sources of these data are websites of plant protection product producers and online shops. In the data updating process the following stages were distinguished: owned-resources stocktaking, data quality criteria selection, credible data sources determination, data acquisition by the application of the criteria, data adaptation to the system requirements, data entry, data verification. Each one of the itemized stages contributes to the ultimate data quality after the updating. The stages of credible data sources determination, data acquisition and data adaptation to the system requirements were found to be labour intensive. About a triple reduction of labour input into the updating was achieved through the improvement of the data acquisition process, gaining proficiency in the database editors operation and the cumulative effect of build-up of specific data resources in the system. The adopted verification procedures for update correctness are described.
Przedstawiono proces aktualizacji danych w bazach danych internetowego systemu wspomagania decyzji w ochronie zbóż. System wykorzystuje trzy rodzaje danych: o odmianach pszenicy jarej i ozimej, o środkach ochrony roślin (fungicydy i insektycydy przeciw chorobom i szkodnikom pszenicy) i o dawkach środków. Stwierdzono, że wszystkie niezbędne dane do aktualizacji można pozyskać z dostępnych zasobów internetowych. Źródłem danych o odmianach są materiały COBORU oraz strony internetowe hodowców roślin rolniczych. Istotnym źródłem danych o środkach ochrony roślin i ich dawkach jest wyszukiwarka środków ochrony roślin udostępniana na stronach Ministerstwa Rolnictwa i Rozwoju Wsi. Inne źródła tych danych to strony internetowe producentów środków ochrony roślin oraz sklepy internetowe. W procesie aktualizacji danych wyróżniono następujące etapy: inwentaryzacja posiadanych zasobów, wybór kryteriów jakości danych, ustalenie wiarygodnych źródeł, pozyskanie danych z zastosowaniem kryteriów, dostosowanie danych do potrzeb systemu, wprowadzanie, weryfikacja danych. Każdy z wymienionych etapów ma wpływ na ostateczną jakość danych po aktualizacji. Stwierdzono dużą pracochłonność etapów: ustalenia wiarygodnych źródeł, pozyskiwania danych i dostosowania danych do potrzeb systemu. Około trzykrotne zmniejszenie pracochłonności aktualizacji uzyskano na skutek ulepszenia procesu technologicznego pozyskiwania danych, zdobycie doświadczenia w obsłudze edytorów baz danych i kumulatywny efekt wzrostu zasobów określonych danych w systemie. Opisano przyjęte procedury weryfikacji poprawności wprowadzenia danych.
Źródło:
Agricultural Engineering; 2014, 18, 3; 227-235
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
OpenStreetMap – building data completeness visualization in terms of “Fitness for purpose”
Autorzy:
Borkowska, Sylwia
Bielecka, Elzbieta
Pokonieczny, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/43852777.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
baza danych
jakość danych
lokalizacja budynku
data completeness
data quality
bivariate choropleth map
OSM
VGI
Opis:
The purpose of this article was to provide the user with information about the number of buildings in the analyzed OpenStreetMap (OSM) dataset in the form of data completeness indicators, namely the standard OSM building areal completeness index (C Index), the numerical completeness index (COUNT Index) and OSM building location accuracy index (TP Index). The official Polish vector database BDOT10k (Database of Topographic Objects) was designated as the reference dataset. Analyses were carried out for Piaseczno County in Poland, differentiated by land cover structure and urbanization level. The results were presented in the form of a bivariate choropleth map with an individually selected class interval suitable for the statistical distribution of the analyzed data. The results confirm that the completeness of OSM buildings close to 100% was obtained mainly in built-up areas. Areas with a commission of OSM buildings were distinguished in terms of area and number of buildings. Lower values of completeness rates were observed in less urbanized areas. The developed methodology for assessing the quality of OSM building data and visualizing the quality results to assist the user in selecting a dataset is universal and can be applied to any OSM polygon features, as well as for peer review of other spatial datasets of comparable thematic scope and detail.
Źródło:
Advances in Geodesy and Geoinformation; 2023, 72, 1; art. no. e35, 2023
2720-7242
Pojawia się w:
Advances in Geodesy and Geoinformation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design of a testing method to assess the correctness of a point cloud colorization algorithm
Opracowanie metody oceny poprawności działania algorytmu kolorowania chmury punktów
Autorzy:
Pleskacz, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131127.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
data integration
algorithm testing
data quality
scan colorization
integracja danych
testowanie algorytmów
jakość danych
koloryzacja skanów
Opis:
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 91-104
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Ranking of Combined Nomenclature Chapters According to Quality of Data on Intra‑Community Trade in Goods of Polish Businesses
Ranking działów nomenklatury scalonej CN według jakości danych w wewnątrzwspólnotowym handlu polskich firm
Autorzy:
Markowicz, Iwona
Baran, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/657066.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
jakość danych statystycznych
handel zagraniczny
INTRASTAT
analiza danych lustrzanych
statistical data quality
international trade
analysis of mirror data
Opis:
Wprowadzenie w Polsce systemu INTRASTAT wraz z wejściem naszego kraju do Unii Europejskiej 1 kwietnia 2004 roku spowodowało nałożenie na podmioty prowadzące obrót towarowy z innymi państwami członkowskimi UE obowiązku przekazywania informacji o zrealizowanych przez nie obrotach. Dane o handlu wewnątrzwspólnotowym z poszczególnych krajów gromadzone są przez Eurostat i udostępniane w postaci bazy Comext. W celu określenia jakości danych o wewnątrzwspólnotowej wymianie towarowej zbadano różnice między deklarowanymi wartościami wywozu towarów z Polski i przywozu z Polski do pozostałych krajów unijnych. Celem artykułu jest analiza jakości danych o polskim handlu wewnątrzunijnym w podziale na działy nomenklatury scalonej CN oraz utworzenie rankingu działów pod względem jakości danych, rozumianej jako rozbieżność między danymi lustrzanymi. Pomiaru jakości danych dokonano z wykorzystaniem zagregowanych wskaźników rozbieżności. Zaprezentowano ranking działów według wyznaczonych wartości wskaźników, osobno dla wewnątrzwspólnotowych dostaw towarów (WDT) i wewnątrzwspólnotowych nabyć towarów (WNT). Wykorzystano dane z bazy Comext dotyczące transakcji wewnątrzwspólnotowych polskich eksporterów w 2017 roku. Efektem przeprowadzonego badania było wskazanie działów o największych względnych rozbieżnościach między danymi lustrzanymi (najniższej jakości danych). W działach o najniższej jakości wskazano wewnętrzną strukturę rozbieżności według krajów oraz pozycji klasyfikacji towarowej. Problem jakości danych dotyczących handlu wewnątrzwspólnotowego jest poruszany w Polsce jedynie w publikacjach GUS‑u. Brak jest prac naukowych w tym zakresie. Dlatego też autorzy postanowili wypełnić tę lukę i prowadzić badania nad źródłami informacji, które są podstawą wielu analiz gospodarczych.
Adopting the Intrastat system in Poland on its EU‑accession on 1st May, 2004 imposed a new obligation on companies trading goods within the EU. They are obliged to provide information on their intra‑Community trade in the form of monthly declarations. Data on intra‑Community trade from all Member States are collected by Eurostat and disseminated in the form of the Comext database. In public statistics, special attention is being paid to data quality. It is constantly monitored and certain actions are taken to improve it. In order to assess quality of data on intra‑Community trade, the authors have calculated differences between declared values of supplies of goods from Poland as well as foreign acquisitions originating in Poland. The aims of the paper are an analysis of quality of data on Polish intra‑Community trade in goods within Combined Nomenclature chapters as well as creating a ranking of chapters with regard to data accuracy (one of quality dimensions) which we define in terms of divergence between mirror data. Data accuracy was measured with the use of aggregate data quality indices. The ranking of Combined Nomenclature (CN) chapters was presented according to the calculated index value for both intra‑Community supplies of goods (ICS) and intra‑Community acquisitions (ICA). We utilised data on Polish exporters’ transactions from 2017 from the Comext database. In the research results, we indicate those chapters for which large relative discrepancies between mirror data are observed (thus data quality is low). For chapters with low data quality, we present inner structures of discrepancies by country and by CN position. The problem of quality of data on intra‑Community trade is addressed in Poland only in publications of the Central Statistical Office/Statistics Poland. There are no scientific publications on this subject. Therefore, the authors decided to fill this gap and conduct research on sources of information which is the basis for many economic analyses.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2019, 4, 343; 195-209
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Availability and quality of data on drug policy and management of access to reimbursed medicinal products in the United Kingdom, Denmark, Germany, Italy and Poland
Autorzy:
Hermanowski, Tomasz
Szafraniec-Buryło, Sylwia I.
Krancberg, Aleksandra N.
Dulęba, Dominika
Cegłowska, Urszula
Powiązania:
https://bibliotekanauki.pl/articles/635237.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Tematy:
dostępność danych, jakość, ocena metodologii, proces decyzyjny
Opis:
Objectives: To perform a systematic review, and to verify and define deficiencies in literature data on drug policy and management of access to reimbursed medicinal products in the United Kingdom, Denmark, Germany, Italy and Poland as a source of information intended to be used by government authorities in the decision-making process. Methods: A systematic review was conducted through database search of Medline, SCOPUS, Embase and Cochrane Library, supplemented by nonsystematic review. The quality of the identified literature was critically appraised. Results: Information necessary to develop a knowledge base was outline from 121 papers identified through database search. 0.83% of all publications were rated high in all of the assessed categories, i.e. were identified to represent high levels of consistency, coherence, strength and methodological quality. Conclusions: In the policy decision-making process, concise recommendations based on validated data are more than needed. It is vital to rely on scientific evidence and avoid reports based on simple exchange of information or presenting single-source or unconfirmed data, including expert’s opinion.
Źródło:
Zdrowie Publiczne i Zarządzanie; 2013, 11, 1
2084-2627
Pojawia się w:
Zdrowie Publiczne i Zarządzanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Jakość danych statystycznych dotyczących obrotów towarowych między krajami Unii Europejskiej
Quality of data on trade in goods between European Union member states
Autorzy:
Markowicz, Iwona
Baran, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/962548.pdf
Data publikacji:
2019
Wydawca:
Główny Urząd Statystyczny
Tematy:
jakość danych statystycznych
handel zagraniczny
UE
Intrastat
quality of statistical data
international trade
eu
intrastat.
Opis:
Celem przedstawionego w artykule badania jest ocena jakości danych dotyczących handlu zagranicznego wewnątrz Unii Europejskiej (UE). W badaniu wykorzystano dane za 2017 r. pochodzące z bazy Comext, udostępnianej przez Eurostat. Zbadano różnice między deklarowanymi wartościami wywozu towarów z danego kraju a danymi o przywozie z tego kraju do innych krajów UE. Różnice te częściowo wynikają z przyjętych progów statystycznych i odzwierciedlają jakość zgromadzonych danych. Kraje unijne porównano także pod względem zbieżności danych o wywozie i przywozie towarów z poszczególnych krajów. Wykorzystując miary rozbieżności danych, uszeregowano kraje pod względem poziomu jakości danych statystycznych, co stanowi element innowacyjny w badaniach handlu zagranicznego.
The objective of presented analysis is to assess quality of data on foreign trade within the Union. Data from Eurostat’s COMEXT database was used. The differences between declared export quantities of foods from a given country and data on imports from this country to other member states gathered by Eurostat have been analyzed. These differences partly result from the adopted statistical thresholds and reflect the quality of the collected data. The authors have compared EU member states based on convergence of data on dispatches and arrivals of goods from each country. Using data discrepancy measures member states were ranked with regard to statistical data quality, which is an innovation in foreign trade research.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2019, 64, 1; 7-19
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena przydatności OpenStreetMap jako źródła danych dla analiz sieciowych
Assessment of OpenStreetMap suitability as a data source for network analysis
Autorzy:
Cichociński, P.
Powiązania:
https://bibliotekanauki.pl/articles/346835.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych
normalizacja
dane przestrzenne
OpenStreetMap
analiza sieciowa
data quality
standardization
spatial data
network analysis
Opis:
Od kilku lat użytkownicy oprogramowania GIS mają do dyspozycji zbiór danych stanowiący swego rodzaju alternatywę dla produktów komercyjnych. Jest nim OpenStreetMap (w skrócie OSM) – projekt mający za cel zbudowanie edytowalnej i dostępnej bez ograniczeń mapy świata. Mapa taka tworzona jest na podstawie danych z ręcznych odbiorników GPS, zdjęć lotniczych oraz innych dostępnych źródeł danych, a także szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w jednej, centralnej bazie danych, z której może być pobierana w postaci obrazu mapy zaprezentowanego przy użyciu wybranej symboliki lub danych wektorowych. Dane z takiego źródła mogą być zastosowane między innymi do przeprowadzania analiz sieciowych, z których najszerzej wykorzystywana i najczęściej spotykana jest funkcja znajdowania optymalnej trasy pomiędzy dwoma punktami. Aby wynik takiej analizy można było uznać za wiarygodny, użyte dane muszą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez wolontariuszy, nie są sformułowane żadne plany jej systematycznego rozwoju oraz brak jest odgórnej kontroli jakości. Dlatego w pracy zaproponowano metody i narzędzia, które pozwolą zweryfikować przydatność zgromadzonych do tej pory danych dla celów analiz sieciowych, jak również poprawić znalezione błędy. Spośród rozważanych dla danych geograficznych aspektów jakości, szczególną uwagę zwrócono na: kompletność, dokładność położenia, spójność topologiczną i dokładność czasową. Dwa pierwsze problemy wymagają w praktyce porównania z rzeczywistym przebiegiem dróg i ulic. Do rozwiązania problemu spójności geometrycznej zasugerowano wykorzystanie odpowiednich reguł topologicznych badających wybrane relacje przestrzenne pomiędzy obiektami geograficznymi. Po zasygnalizowaniu wykrytych w ten sposób błędów, można je poprawiać zarówno metodami automatycznymi, jak też metodami półautomatycznymi bądź ręcznymi.
For several years now, GIS users have at their disposal the data set constituting some kind of alternative to commercial products. It is the OpenStreetMap (OSM) – a project with the objective to build an editable and available without restrictions map of the world. This map is created based on data from handheld GPS receivers, aerial photographs and other available data sources, as well as sketches made in the field. Acquired information is stored in one central database, from which it can be downloaded as a map image using selected symbols or as vector data. Data from this source can be used, among others, for network analysis, of which the most widely used and the most common function is finding the optimal route between two points. For the result of this analysis to be considered reliable, the data used must be of appropriate quality. Because the OSM database is built by volunteers, there are no plans of its systematic development and there is no top-down quality control. Therefore, the paper proposes methods and tools to verify the suitability of the so far collected data for the purposes of network analysis, as well as to correct errors found. Among the quality aspects considered for geographical data, particular attention was paid to the completeness, positional accuracy, topological consistency and temporal accuracy. The first two problems require in practice comparison with the actual course of roads and streets. To solve the problem of geometric consistency, the use of relevant topological rules examining selected spatial relationships between geographic objects was suggested. When the errors detected this way are marked, they can be corrected using automated methods, and also semi-automatic or manual methods.
Źródło:
Roczniki Geomatyki; 2012, 10, 7; 15-24
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ jakości danych hydrologicznych na oszacowanie odpływu ze zlewni miejskiej na przykładzie potoku Strzyża w Gdańsku
The influence of hydrological data quality on estimating the runoff from city catchment on the example of Strzyża steam in Gdańsk
Autorzy:
Szydłowski, M.
Mikos-Studnicka, P.
Powiązania:
https://bibliotekanauki.pl/articles/401144.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Inżynierii Ekologicznej
Tematy:
jakość danych hydrologicznych
współczynnik odpływu
Potok Strzyża
quality of hydrological data
annual runoff coefficient
Strzyża Creek
Opis:
Kontrola oraz prognozowanie reakcji cieków powierzchniowych na nawalne epizody deszczowe, lub gwałtowne roztopy nabiera kluczowego znaczenia w aspekcie bezpieczeństwa przeciwpowodziowego zlewni zurbanizowanych. Bardzo dobrym przykładem zarówno problematycznego, jak i niosącego realne zagrożenie dla infrastruktury miejskiej cieku, jest Potok Strzyża w Gdańsku. W latach 2011–2013 realizowano budowę sieci posterunków kontrolnych w zlewni potoku. Dzięki temu przedsięwzięciu możliwe stało się gromadzenie cennych danych hydrologicznych dotyczących opadów i przepływów w obszarze silnie zróżnicowanej zlewni miejskiej. Obecnie trwają prace nad drugim etapem opomiarowana zlewni Potoku Strzyża, wyznaczonym na lata 2015–2017, mającym na celu rozwój metod ochrony przeciwpowodziowej, rozbudowę istniejącego systemu monitoringu opadów i przepływów w zlewni Potoku Strzyża, a także dodatkowo, stworzenie systemu sterowania retencją wód opadowych i roztopowych oraz monitoring jakości wód potoku stanowiących bezpośredni odbiornik miejskich ścieków deszczowych. W artykule przedstawiono przykład wykorzystania ciągłych danych z monitoringu hydrologicznego do wyznaczenia rocznego współczynnika odpływu ze zlewni. Wyniki porównano z przybliżonym oszacowaniem tego parametru hydrologicznego, wykonanym na pod-stawie chwilowych pomiarów hydrometrycznych przepływu i dostępnych obserwacji opadów ze stacji leżącej w sąsiedztwie analizowanej zlewni.
Channel flow control and prediction of waterbodies reaction on heavy rainfalls or rapid snowmelt become critical when forecasting the flood risk in urban catchments. A very good example of both problematic and carrying a real threat to urban infrastructure is the Strzyża Creek in Gdańsk. In years 2011–2013 undertook the implementation of storm water monitoring system in the Strzyża Creek basin in Gdańsk. Since that time, it has become possible to collect valuable hydrological data on rainfall and flows in the strongly diversified urbanized districts of the city. Currently, the work is underway to extend the Strzyża Creek monitoring system. The ongoing research project is being realized again in years 2015–2017. The main aims of a project are: development of the methods of flood control, expansion of the existing rainfall-runoff and storage monitoring system in the basin and integrated water quantity and quality analysis, since the Strzyża Creek is one of the main stormwater collectors in Gdańsk. The article presents an example of using continuous data collected by the hydrological monitoring system to determine the annual runoff coefficient. The results were compared with the same parameter estimated on the basis of monthly instantaneous flow measurements and rainfall observations from the precipitation gauge localized in the vicinity of the analyzed catchment.
Źródło:
Inżynieria Ekologiczna; 2015, 44; 139-153
2081-139X
2392-0629
Pojawia się w:
Inżynieria Ekologiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data – wyzwanie dla rachunkowości zarządczej
Big data as a challenge for management accounting
Autorzy:
Burnet-Wyrwa, Wioletta
Powiązania:
https://bibliotekanauki.pl/articles/590501.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Big data
Jakość danych
Ograniczenia
Rachunkowość zarządcza
Wyzwania
Big Data
Challenges
Constrains
Data quality
Management accounting
Opis:
W opracowaniu zaprezentowano wyzwania, z jakimi mogą mierzyć się specjaliści z rachunkowości i menedżerowie przy włączaniu danych pochodzących ze źródeł nieustrukturyzowanych do systemów rachunkowości zarządczej oraz wyzwania i ograniczenia związane z ich pozyskiwaniem, przetwarzaniem, wizualizacją i dzieleniem wyników. Pokazano także wieloaspektowy wpływ, jaki technologie big data wywierają na zakres kompetencji wymaganych od specjalistów z obszaru rachunkowości zarządczej.
The paper presents the challenges that accounting specialists and managers may face when integrating unstructured data into management accounting systems, and the constraints associated with acquiring, processing, visualizing, and sharing results. The multi-faceted impact Big Data has on the competencies required of accounting professionals had been presented.
Źródło:
Studia Ekonomiczne; 2017, 341; 45-53
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Jakość danych OpenStreetMap – analiza informacji o budynkach na terenie Siedlecczyzny
OpenStreetMap building data quality: the Siedleckie county study
Autorzy:
Nowak-DaCosta, J.
Bielecka, E.
Całka, B.
Powiązania:
https://bibliotekanauki.pl/articles/346673.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych
OSM
VGI
kompletność
dokładność położenia
OpenStreetMap
building data
Volunteered Geographic Information (VGI)
completeness
data quality
Opis:
Jakość danych OpenStreetMap (OSM), a w szczególności takie jej elementy ilościowe jak kompletność oraz dokładność położenia, wzbudza szerokie zainteresowanie naukowców na świecie. W artykule przedstawiono potencjalne okoliczności powszechnie obserwowanej heterogenicznej charakterystyki OSM, zwracając uwagę na aspekt niedoskonałości ustaleń semantycznych i założeń jakościowych inicjatywy oddolnej jaką jest OpenStreetMap. Część praktyczną badań stanowi ocena kompletności i dokładności lokalizacji danych o budynkach i budowlach OSM w stosunku do krajowych danych urzędowych, bazy danych obiektów topograficznych BDOT10k. Analizy zostały przeprowadzone dla peryferyjnie położonego, powiatu siedleckiego i miasta Siedlce. Opracowanie dopełnia dotychczasowe rezultaty badawcze w zakresie analiz ilościowych jakości OSM, a otrzymane wyniki potwierdzają zróżnicowaną jakość danych o budynkach, w sensie ich kompletności i wypełnienia wartościami ich atrybutów oraz dokładności lokalizacji, także na terenie Polski. Niemniej jednak, wyniki analizy dokładności geometrycznej są zaskakująco dobre. W dyskusji autorzy zwracają uwagę na fakt, że mimo niedoskonałości danych wolnych i otwartych są one powszechnie wykorzystywane przez użytkowników, do których należy także administracja publiczna.
Researchers all over the world are interested in OpenStreetMap data and its quality including completeness and geometric accuracy. This article looks into the commonly observed heterogeneous characteristics of OpenStreetMap geospatial data and draws attention to the vague semantic and quality foundations of this important grass-roots initiative. The experiment is an assessment of the completeness and positional accuracy of OSM building data compared to the national data: the Database of Topographic Objects in Poland (BDOT10k). The analysis was performed for the county and city of Siedlce. This study complements previous research results in the quantitative analysis of OpenStreet- Map data quality. The results confirm the variable quality of OSM data in terms of completeness and updating of building information found in their attribute's, and the positional accuracy of building corners even for the Polish territory. Nevertheless, the analysis did find that the positional accuracy of the OpenStreetMap building data was very good in comparison to the BDOT10K database. The authors draw attention to the fact that Free and Open geospatial data, despite its imperfections, is widely adopted by users including public administrations.
Źródło:
Roczniki Geomatyki; 2016, 14, 2(72); 201-211
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Quality of INTRASTAT DATA. Comparison Between the ‘Old’ and the ‘New’ EU Member States
Jakość danych w systemie INTRASTAT. Porównanie krajów „starej” i „nowej” UE
Autorzy:
Markowicz, Iwona
Baran, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/658787.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
jakość danych statystyki publicznej
dane lustrzane
handel wewnątrzwspólnotowy
UE
official statistics data quality
mirror data
intra-Community trade
EU
Opis:
W systemie INTRASTAT zbierane są dane statystyczne dotyczące wymiany towarowej między krajami UE. Eurostat agreguje dane pochodzące z poszczególnych państw członkowskich. Specyfika procesu pozyskiwania danych różni się w poszczególnych krajach, w związku z czym dane lustrzane (dotyczące w założeniu tych samych transakcji, odnotowanych w statystyce kraju wywozu i kraju przywozu) często się nie pokrywają. Celem przeprowadzonych analiz była ocena jakości danych o wewnątrzunijnej wymianie towarowej krajów „starej” piętnastki i „nowych” członków UE ze wskazaniem, które kierunki w największym stopniu wpłynęły na występowanie obserwowanych różnic w danych lustrzanych. Artykuł jest kontynuacją badań jakości danych dotyczących handlu zagranicznego.
The Intrastat system is used for gathering statistical data on trade in goods between the EU Member States. Data from all the Member States are aggregated by Eurostat. Specifics of the data collection process are different in different countries and that is why mirror data (regarding by default the same transactions revealed in statistics of both the acquirer and supplier country) often do not match. The goal of the analysis conducted was to assess the quality of data on intra‑Community trade in goods between the ‘old’ fifteen and the ‘new’ EU Member States as well as to point out these directions that influenced the observed differences in mirror data the most. The paper is a follow‑up of previous research on the quality of foreign trade data.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2019, 2, 341; 69-80
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metody poprawy parametrów dokładnościowych dawnych geodezyjnych osnów pomiarowych
Methods for improving the accuracy parameters of former geodetic measurement networks
Autorzy:
Ślusarski, M.
Jurkiewicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/105041.pdf
Data publikacji:
2017
Wydawca:
Politechnika Rzeszowska im. Ignacego Łukasiewicza. Oficyna Wydawnicza
Tematy:
modernizacja ewidencji gruntów i budynków
kataster
jakość danych przestrzennych
modernization of land and building registry
cadaster
spatial data quality
Opis:
Geodezyjne pomiary terenowe wykonywane w przeszłości podczas zakładania i aktualizacji ewidencji gruntów oparte były bezpośrednio na osnowach pomiarowych. Parametry dokładnościowe tych osnów są niższe w porównaniu ze współczesnymi osnowami pomiarowymi. Obecnie, archiwalne materiały Państwowego Zasobu Geodezyjnego i Kartograficznego wykorzystywane są podczas wykonywania prac geodezyjnych dotyczących nieruchomości. W pracy przedstawiono i przeprowadzono ocenę trzech metod poprawy parametrów dokładnościowych dawnych osnów ewidencyjnych i pomiarowych. Metoda pierwsza (I) obejmuje transformację współrzędnych punktów dawnych osnów do obowiązującego układu współrzędnych na podstawie współrzędnych punktów dostosowania. Druga metoda (II) oparta jest na ścisłym wyrównaniu osnowy wraz z pomiarem uzupełniającym wybranych punktów w celu wzmocnienia sieci. Trzecia metoda (III) polega na inwentaryzacji i pomiarze wszystkich istniejących punktów dawnych osnów oraz ścisłym wyrównaniu sieci dla wyznaczenia współrzędnych punktów zniszczonych. Efektywność metod rewaloryzacji dawnych osnów oceniono na podstawie badań eksperymentalnych, w których wykorzystano dane z obiektów testowych. Satysfakcjonujące wyniki poprawy parametrów dokładnościowych osnów osiągnięto metodą „I” w tych przypadkach, w których stosunek liczby punktów dostosowania do ogólnej liczby badanych punktów wynosił ok. 1/3. Podobnie dla metody „III”, zadowalające wyniki można osiągnąć w przypadku wykorzystaniu ok. 30% punktów sieci jako dodatkowe punkty nawiązania. Natomiast w metodzie „II” dobre wynik można osiągnąć, jeżeli odsetek odszukanych punktów i wykorzystanych jako punkty nawiązania wynosi zaledwie ok. 10% wszystkich punktów sieci. Badając kompleksowe nakłady prac geodezyjnych (polowych i kameralnych) ustalono, że zarówno metoda „I” jak i metoda „II” rewaloryzacji osnów, charakteryzują się podobnymi kosztami.
Geodetic field measurements performed during the establishment and updating of land registry were based directly on the measuring networks. The accuracy parameters of these networks are lower compared to modern measurement networks. Currently, the archive materials of the State Geodetic and Cartographic Resources are used during the performance of geodetic works concerning real estates. The work presents and evaluates the set of three methods of improving the accuracy parameters of the former registry and measurement networks. The first method (I) includes the transformation of the coordinates of the former networks points to the current coordinate system basing on the coordinates of the adjustment points. The second method (II), is based on the strict adjustment of the network together with the additional measurement of the selected points in order to strengthen the network. The third method (III) consists in inventory and survey of all existing points of former networks and strict adjustment of the grid in order to determine the coordinates of destroyed points. The effectiveness of former networks revaluation methods was assessed on the basis of experimental research, in which data from test objects were used. Satisfactory results of improved networks accuracy parameters have been achieved by the method "I" in cases where the ratio of the number of adjusted points to the total number of tested points was equal about 1/3. Similarly for the "III" method, satisfactory results can be achieved when about 30% of network points are used as additional control points. However, in the method "II" good results can be achieved when the percentage of found points and points used as control points is only about 10% of all network points. By complex studying of the geodetic works outlays (field and chamber work) it was found that both the "I" method and the "II" method of revaluation of networks are similar in efficiency.
Źródło:
Czasopismo Inżynierii Lądowej, Środowiska i Architektury; 2017, 64, 4/I; 415-424
2300-5130
2300-8903
Pojawia się w:
Czasopismo Inżynierii Lądowej, Środowiska i Architektury
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies