Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data quality" wg kryterium: Temat


Wyświetlanie 1-13 z 13
Tytuł:
The role of big data in Industry 4.0 in mining industry in Serbia
Autorzy:
Tylečková, Eva
Noskievičová, Darja
Powiązania:
https://bibliotekanauki.pl/articles/88570.pdf
Data publikacji:
2020
Wydawca:
Stowarzyszenie Menedżerów Jakości i Produkcji
Tematy:
big data
Industry 4.0
data quality
data security
duże dane
jakość danych
ochrona danych
Opis:
The current age characterized by unstoppable progress and rapid development of new technologies and methods such as the Internet of Things, machine learning and artificial intelligence, brings new requirements for enterprise information systems. Information systems ought to be a consistent set of elements that provide a basis for information that could be used in context to obtain knowledge. To generate valid knowledge, information must be based on objective and actual data. Furthermore, due to Industry 4.0 trends such as digitalization and online process monitoring, the amount of data produced is constantly increasing – in this context the term Big Data is used. The aim of this article is to point out the role of Big Data within Industry 4.0. Nevertheless, Big Data could be used in a much wider range of business areas, not just in industry. The term Big Data encompasses issues related to the exponentially growing volume of produced data, their variety and velocity of their origin. These characteristics of Big Data are also associated with possible processing problems. The article also focuses on the issue of ensuring and monitoring the quality of data. Reliable information cannot be inferred from poor quality data and the knowledge gained from such information is inaccurate. The expected results do not appear in such a case and the ultimate consequence may be a loss of confidence in the information system used. On the contrary, it could be assumed that the acquisition, storage and use of Big Data in the future will become a key factor to maintaining competitiveness, business growth and further innovations. Thus, the organizations that will systematically use Big Data in their decision-making process and planning strategies will have a competitive advantage.
Źródło:
System Safety : Human - Technical Facility - Environment; 2020, 2, 1; 166-173
2657-5450
Pojawia się w:
System Safety : Human - Technical Facility - Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena przydatności OpenStreetMap jako źródła danych dla analiz sieciowych
Assessment of OpenStreetMap suitability as a data source for network analysis
Autorzy:
Cichociński, P.
Powiązania:
https://bibliotekanauki.pl/articles/346835.pdf
Data publikacji:
2012
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych
normalizacja
dane przestrzenne
OpenStreetMap
analiza sieciowa
data quality
standardization
spatial data
network analysis
Opis:
Od kilku lat użytkownicy oprogramowania GIS mają do dyspozycji zbiór danych stanowiący swego rodzaju alternatywę dla produktów komercyjnych. Jest nim OpenStreetMap (w skrócie OSM) – projekt mający za cel zbudowanie edytowalnej i dostępnej bez ograniczeń mapy świata. Mapa taka tworzona jest na podstawie danych z ręcznych odbiorników GPS, zdjęć lotniczych oraz innych dostępnych źródeł danych, a także szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w jednej, centralnej bazie danych, z której może być pobierana w postaci obrazu mapy zaprezentowanego przy użyciu wybranej symboliki lub danych wektorowych. Dane z takiego źródła mogą być zastosowane między innymi do przeprowadzania analiz sieciowych, z których najszerzej wykorzystywana i najczęściej spotykana jest funkcja znajdowania optymalnej trasy pomiędzy dwoma punktami. Aby wynik takiej analizy można było uznać za wiarygodny, użyte dane muszą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez wolontariuszy, nie są sformułowane żadne plany jej systematycznego rozwoju oraz brak jest odgórnej kontroli jakości. Dlatego w pracy zaproponowano metody i narzędzia, które pozwolą zweryfikować przydatność zgromadzonych do tej pory danych dla celów analiz sieciowych, jak również poprawić znalezione błędy. Spośród rozważanych dla danych geograficznych aspektów jakości, szczególną uwagę zwrócono na: kompletność, dokładność położenia, spójność topologiczną i dokładność czasową. Dwa pierwsze problemy wymagają w praktyce porównania z rzeczywistym przebiegiem dróg i ulic. Do rozwiązania problemu spójności geometrycznej zasugerowano wykorzystanie odpowiednich reguł topologicznych badających wybrane relacje przestrzenne pomiędzy obiektami geograficznymi. Po zasygnalizowaniu wykrytych w ten sposób błędów, można je poprawiać zarówno metodami automatycznymi, jak też metodami półautomatycznymi bądź ręcznymi.
For several years now, GIS users have at their disposal the data set constituting some kind of alternative to commercial products. It is the OpenStreetMap (OSM) – a project with the objective to build an editable and available without restrictions map of the world. This map is created based on data from handheld GPS receivers, aerial photographs and other available data sources, as well as sketches made in the field. Acquired information is stored in one central database, from which it can be downloaded as a map image using selected symbols or as vector data. Data from this source can be used, among others, for network analysis, of which the most widely used and the most common function is finding the optimal route between two points. For the result of this analysis to be considered reliable, the data used must be of appropriate quality. Because the OSM database is built by volunteers, there are no plans of its systematic development and there is no top-down quality control. Therefore, the paper proposes methods and tools to verify the suitability of the so far collected data for the purposes of network analysis, as well as to correct errors found. Among the quality aspects considered for geographical data, particular attention was paid to the completeness, positional accuracy, topological consistency and temporal accuracy. The first two problems require in practice comparison with the actual course of roads and streets. To solve the problem of geometric consistency, the use of relevant topological rules examining selected spatial relationships between geographic objects was suggested. When the errors detected this way are marked, they can be corrected using automated methods, and also semi-automatic or manual methods.
Źródło:
Roczniki Geomatyki; 2012, 10, 7; 15-24
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Design of a testing method to assess the correctness of a point cloud colorization algorithm
Opracowanie metody oceny poprawności działania algorytmu kolorowania chmury punktów
Autorzy:
Pleskacz, M.
Rzonca, A.
Powiązania:
https://bibliotekanauki.pl/articles/131127.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
data integration
algorithm testing
data quality
scan colorization
integracja danych
testowanie algorytmów
jakość danych
koloryzacja skanów
Opis:
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2016, 28; 91-104
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Jakość danych OpenStreetMap – analiza informacji o budynkach na terenie Siedlecczyzny
OpenStreetMap building data quality: the Siedleckie county study
Autorzy:
Nowak-DaCosta, J.
Bielecka, E.
Całka, B.
Powiązania:
https://bibliotekanauki.pl/articles/346673.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
jakość danych
OSM
VGI
kompletność
dokładność położenia
OpenStreetMap
building data
Volunteered Geographic Information (VGI)
completeness
data quality
Opis:
Jakość danych OpenStreetMap (OSM), a w szczególności takie jej elementy ilościowe jak kompletność oraz dokładność położenia, wzbudza szerokie zainteresowanie naukowców na świecie. W artykule przedstawiono potencjalne okoliczności powszechnie obserwowanej heterogenicznej charakterystyki OSM, zwracając uwagę na aspekt niedoskonałości ustaleń semantycznych i założeń jakościowych inicjatywy oddolnej jaką jest OpenStreetMap. Część praktyczną badań stanowi ocena kompletności i dokładności lokalizacji danych o budynkach i budowlach OSM w stosunku do krajowych danych urzędowych, bazy danych obiektów topograficznych BDOT10k. Analizy zostały przeprowadzone dla peryferyjnie położonego, powiatu siedleckiego i miasta Siedlce. Opracowanie dopełnia dotychczasowe rezultaty badawcze w zakresie analiz ilościowych jakości OSM, a otrzymane wyniki potwierdzają zróżnicowaną jakość danych o budynkach, w sensie ich kompletności i wypełnienia wartościami ich atrybutów oraz dokładności lokalizacji, także na terenie Polski. Niemniej jednak, wyniki analizy dokładności geometrycznej są zaskakująco dobre. W dyskusji autorzy zwracają uwagę na fakt, że mimo niedoskonałości danych wolnych i otwartych są one powszechnie wykorzystywane przez użytkowników, do których należy także administracja publiczna.
Researchers all over the world are interested in OpenStreetMap data and its quality including completeness and geometric accuracy. This article looks into the commonly observed heterogeneous characteristics of OpenStreetMap geospatial data and draws attention to the vague semantic and quality foundations of this important grass-roots initiative. The experiment is an assessment of the completeness and positional accuracy of OSM building data compared to the national data: the Database of Topographic Objects in Poland (BDOT10k). The analysis was performed for the county and city of Siedlce. This study complements previous research results in the quantitative analysis of OpenStreet- Map data quality. The results confirm the variable quality of OSM data in terms of completeness and updating of building information found in their attribute's, and the positional accuracy of building corners even for the Polish territory. Nevertheless, the analysis did find that the positional accuracy of the OpenStreetMap building data was very good in comparison to the BDOT10K database. The authors draw attention to the fact that Free and Open geospatial data, despite its imperfections, is widely adopted by users including public administrations.
Źródło:
Roczniki Geomatyki; 2016, 14, 2(72); 201-211
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating databases of the internet decision support system for cereals protection
Aktualizacja baz danych internetowego systemu wspomagania decyzji w ochronie zbóż
Autorzy:
Zaliwski, A. S.
Nieróbca, A.
Powiązania:
https://bibliotekanauki.pl/articles/94046.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
data quality
information quality
data updating
database
decision support system
jakość danych
jakość informacji
aktualizacja danych
baza danych
system wspomagania decyzji
Opis:
The process of data updating in the databases of the Internet decision support system for cereals protection is presented. The system uses three kinds of data: on spring and winter wheat varieties, on plant protection products (fungicides and insecticides against wheat diseases and pests) and on product doses. It was found that it is possible to obtain all the necessary data for the updating from available web resources. Data sources for variety information are the COBORU materials and websites of agricultural plant breeders. The search engine of plant protection products available on the website of the Ministry of Agriculture and Rural Development is an essential source of the data on protection products and their doses. Other sources of these data are websites of plant protection product producers and online shops. In the data updating process the following stages were distinguished: owned-resources stocktaking, data quality criteria selection, credible data sources determination, data acquisition by the application of the criteria, data adaptation to the system requirements, data entry, data verification. Each one of the itemized stages contributes to the ultimate data quality after the updating. The stages of credible data sources determination, data acquisition and data adaptation to the system requirements were found to be labour intensive. About a triple reduction of labour input into the updating was achieved through the improvement of the data acquisition process, gaining proficiency in the database editors operation and the cumulative effect of build-up of specific data resources in the system. The adopted verification procedures for update correctness are described.
Przedstawiono proces aktualizacji danych w bazach danych internetowego systemu wspomagania decyzji w ochronie zbóż. System wykorzystuje trzy rodzaje danych: o odmianach pszenicy jarej i ozimej, o środkach ochrony roślin (fungicydy i insektycydy przeciw chorobom i szkodnikom pszenicy) i o dawkach środków. Stwierdzono, że wszystkie niezbędne dane do aktualizacji można pozyskać z dostępnych zasobów internetowych. Źródłem danych o odmianach są materiały COBORU oraz strony internetowe hodowców roślin rolniczych. Istotnym źródłem danych o środkach ochrony roślin i ich dawkach jest wyszukiwarka środków ochrony roślin udostępniana na stronach Ministerstwa Rolnictwa i Rozwoju Wsi. Inne źródła tych danych to strony internetowe producentów środków ochrony roślin oraz sklepy internetowe. W procesie aktualizacji danych wyróżniono następujące etapy: inwentaryzacja posiadanych zasobów, wybór kryteriów jakości danych, ustalenie wiarygodnych źródeł, pozyskanie danych z zastosowaniem kryteriów, dostosowanie danych do potrzeb systemu, wprowadzanie, weryfikacja danych. Każdy z wymienionych etapów ma wpływ na ostateczną jakość danych po aktualizacji. Stwierdzono dużą pracochłonność etapów: ustalenia wiarygodnych źródeł, pozyskiwania danych i dostosowania danych do potrzeb systemu. Około trzykrotne zmniejszenie pracochłonności aktualizacji uzyskano na skutek ulepszenia procesu technologicznego pozyskiwania danych, zdobycie doświadczenia w obsłudze edytorów baz danych i kumulatywny efekt wzrostu zasobów określonych danych w systemie. Opisano przyjęte procedury weryfikacji poprawności wprowadzenia danych.
Źródło:
Agricultural Engineering; 2014, 18, 3; 227-235
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Potrzeba czynnego prowadzenia ewidencji gruntów i budynków
The necessity to keep land and property registers in an active manner
Autorzy:
Noszczyk, T.
Hernik, J.
Powiązania:
https://bibliotekanauki.pl/articles/101386.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Stowarzyszenie Infrastruktura i Ekologia Terenów Wiejskich PAN
Tematy:
kataster nieruchomości
system katastralny
dane ewidencyjne
jakość danych
gospodarowanie nieruchomościami
real estate cadastre
cadastral system
register data
data quality
land management
Opis:
Ewidencja gruntów i budynków (EGiB) nazywana też przez ustawodawcę katastrem nieruchomości powinna funkcjonować w zgodzie z aktualnymi przepisami prawa spełniając jednocześnie społeczne oczekiwania i zapewniając powszechny dostęp do danych ewidencyjnych przez użytkowników, którzy z nich korzystają. Niewątpliwy wpływ na wiarygodność i użyteczność danych znajdujących się w tym państwowym rejestrze ma sposób jego prowadzenia, który co do zasady może być czynny bądź bierny. W przypadku czynnego prowadzenia EGiB i jego nieustannej aktualizacji informacje w nim zawarte będą miały wysoką wartość użytkową. Bierne prowadzenie EGiB powoduje z kolei nieodwracalną nieaktualność danych ewidencyjnych i brak ich wiarygodności. Głównym celem artykułu jest ocena jakości danych zgromadzonych w ewidencji gruntów i budynków oraz wskazanie, iż czynne prowadzenie tego rejestru odgrywa niezmiernie ważną rolę z punktu widzenia późniejszego użytkownika i odbiorcy danych ewidencyjnych. Na potrzeby analiz zaprezentowano dane z obszaru gminy Michałowice, woj. małopolskie. W pracy zaproponowano i przedstawiono także sposób, który może poprawić aktualność tego publicznego rejestru.
The Land and Property Register (LPR) also called the Cadastre by the legislator should function in accordance with regulations in force, meet expectations of the public and provide universal access to Register data for its users. Beyond any doubt, credibility and usefulness of data in this public register are affected by the manner it is kept, which generally includes active and passive approach. If the LPR is kept in an active manner and constantly up to date, its data is very useful. Passive methods of keeping the LPR render record data irreversibly out of date and unreliable. The principal purpose of the paper is to assess the quality of data of a Land and Property Register and indicate that active keeping of the register is vital from the point of view of a prospective user and recipient of its data. The analysis involved data for the Michałowice commune, Małopolskie Voivodeship. Moreover, the paper suggests and presents a method that may improve validity of this public register.
Źródło:
Infrastruktura i Ekologia Terenów Wiejskich; 2017, I/2; 229-241
1732-5587
Pojawia się w:
Infrastruktura i Ekologia Terenów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identifying the cognitive gap in the causes of product name ambiguity in e-commerce
Autorzy:
Niemir, Maciej
Mrugalska, Beata
Powiązania:
https://bibliotekanauki.pl/articles/2203762.pdf
Data publikacji:
2022
Wydawca:
Wyższa Szkoła Logistyki
Tematy:
basic product data
product catalog
e-data catalog
master data
data quality
dirty data
podstawowe dane produktowe
katalog produktów
katalog e-danych
dane podstawowe
jakość danych
dane brudne
Opis:
Background: Global product identification standards and methods of product data exchange are known and widespread in the traditional market. However, it turns out that the e-commerce market needs data that have not already received much attention, for which no standards have been established in relation to their content. Furthermore, their current quality is often perceived below expectations. This paper discusses the issues of product name and highlights its problems in the context of e-commerce. Attention is also drawn to the source of liability for erroneous data. Methods: The research methodology is based on the analysis of data of products available on the Internet through product catalog services, online stores, and e-marketplaces, mainly in Poland, but addresses a global problem. Three research scenarios were chosen, comparing product names aggregated by GTIN, starting with e-commerce sites and ending with product catalogs working with manufacturers. In addition, a scenario of name-photo compatibility was included. Results: The results show that the product name, which in the real world is an integral part of the product as it appears on the label provided by the manufacturer, in the virtual world is an attribute consciously or not modified by the service provider. It turns out that discrepancies appear already at the source - at the manufacturer's level - publishing different names for the same product when working with data catalogs or publishing on product pages contributing to the so-called snowball effect. Conclusions: On the Internet, products do not have a fixed name that fully describes the product, which causes problems in uniquely identifying the same products in different data sources. This in turn reduces the quality of data aggregation, search, and reliability. This state of affairs is not solely the responsibility of e-commerce marketplace vendors, but of the manufacturers themselves, who do not take care to publicize the unambiguous and permanent name of their products in digital form. Moreover, there are no unambiguous global guidelines for the construction of a full product name. The lack of such a template encourages individual interpretations of how to describe a product.
Źródło:
LogForum; 2022, 18, 3; 357--364
1734-459X
Pojawia się w:
LogForum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of universal address to ensure high-quality data
Autorzy:
Wojsyk, Kajetan
Wojsyk, Jakub
Powiązania:
https://bibliotekanauki.pl/articles/24988464.pdf
Data publikacji:
2023
Wydawca:
Stowarzyszenie SILGIS
Tematy:
data quality
open data
territorial codes
geodetic coordinate system
universal address
data integrity
jakość danych
otwarte dane
kody terytorialne
geodezyjny układ współrzędnych
adres uniwersalny
integralność danych
Opis:
The article describes how to ensure high quality of data previously processed in silos, i.e. separate databases and central registers. The concept of using a universal address was created in Poland in 2017, it was tested in practice and recommended for use in the annex to Resolution No. 28 of the Council of Ministers of February 18, 2021 on the Data Opening Program for the years 2021-2027 (Monitor Polski 2021, item 290). It is based on a specific complex data - created automatically and also automatically used, built from legally authorized codes - the so-called universal address. It is appropriate for solutions used in Poland because it is based on codes created by the Central Statistical Office and data structures of the Central Office of Geodesy and Cartography. It seems, however, that the concept is universal and could also be used in other countries and places where silos - not having a direct connection with each other – contain theoretically the same data provided with specifically defined identifiers. The practical usefulness of the described solution justifies an attempt to popularize it more widely and use it in various forms. The purpose of this article is to present this concept and to discuss it.
Źródło:
GIS Odyssey Journal; 2023, 3, 1; 5--18
2720-2682
Pojawia się w:
GIS Odyssey Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Stabilizacja systemu pomiarowego dla wiatrakowca w aspekcie jakości danych LiDAR
Stabilization of the photogrammetric system for a gyrocopter in terms of the LiDAR data quality
Autorzy:
Kolecki, J.
Prochaska, M.
Piątek, P.
Baranowski, J.
Kurczyński, Z.
Powiązania:
https://bibliotekanauki.pl/articles/130028.pdf
Data publikacji:
2015
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
stabilizacja
wiatrakowiec
lotniczy skaning laserowy
skanowanie
planowanie lotów
jakość danych
stabilization
gyroplane
airborne laser scanning (ALS)
scanning
flight planning
data quality
Opis:
Definicja parametrów jakościowych chmury punktów pozyskanej metodą lotniczego skanowania laserowego stanowi element niemal każdego zamówienia wiążącego się z wykonaniem lotów pomiarowych. Jakość danych LiDAR nie może być utożsamiana wyłącznie z ich dokładnością, ale jest pojęciem znacznie szerszym, obejmującym inne parametry chmury punktów pozyskanej w wyniku lotu pomiarowego. Przykładowo wymagania dotyczące parametrów takich jak pokrycie oraz gęstość określone są w polskich regulacja prawnych. Na wyżej przywołane parametry danych LiDAR mogą wpływać w pewnym stopniu czynniki związane z samym lotem, takie jak niestabilność prędkości czy linowe lub wysokościowe odstępstwa od planowanej linii lotu. Najbardziej istotnym czynnikiem wydają się być jednak wychylenia oraz drgania platformy pomiarowej. Pozyskiwanie danych LiDAR bez systemu stabilizacji oraz wibroizolacji może utrudniać zachowanie wymaganych parametrów jakościowych. W trakcie prac prowadzonych w ramach projektu, którego efektem było zbudowanie prototypu ultralekkiej stabilizowanej platformy pomiarowej dla wiatrakowca, dokonano szeregu analiz związanych z doborem odpowiedniego systemu stabilizacji rozpatrując trzy składowe wychyleń: roll, pitch, yaw. W tym celu stworzone zostały narzędzia informatyczne służące badaniu wpływu wychyleń na jakość danych LiDAR przy założeniu określonych parametrów linii nalotowych oraz ustawień pracy skanera.
The definition of the quality parameters of a point cloud acquired using the airborne laser scanning is the element of almost every terms of reference involving airborne spatial data acquisition. The quality of the LiDAR data should not be identified only with accuracy and should be examined in a wider aspect taking into account other parameters of the point cloud that was acquired as a result of a flight. For instance the Polish legal regulations provide the requirements concerning the coverage of the strips and the point density. The above mentioned parameters of the LiDAR data can be influenced to some extent by many factors concerning the flight itself such as a varying speed as well as the horizontal and vertical deflections from the planned flight line. However, vibrations and angular deflections seem to influence the point cloud quality to the highest extent. LiDAR data acquisition without required stabilizing system makes keeping the required quality parameters very hard. Within the research project which aimed to develop the prototype of the ultralight, stabilized mapping platform for the gyrocopter, a number of analyses concerning the optimal stabilization scenario were carried out. Tools including scripts and computer programs for analyzing the impact of the deflections on the data quality have been developed. The proper stabilization variant has been established taking into account three separate deflection components, i.e.: roll, pitch and yaw.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2015, 27; 71-82
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza rozbieżności danych lustrzanych dotyczących masy towarów w statystykach handlu wewnątrzunijnego
Autorzy:
Markowicz, Iwona
Baran, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/1046657.pdf
Data publikacji:
2020-08-31
Wydawca:
Główny Urząd Statystyczny
Tematy:
handel
dane lustrzane
wewnątrzunijna wymiana towarowa
jakość danych
podejście wartościowe
podejście ilościowe
trade
mirror data
intra-eu trade of goods
data quality
value-based approach
quantitative approach
Opis:
W badaniach prowadzonych dotychczas przez autorów artykułu ocena jakości danych lustrzanych w wymianie towarowej między krajami Unii Europejskiej (UE) opierała się na wartości towarów. Analogiczne podejście stosuje wielu badaczy. Celem badania omawianego w artykule jest ocena jakości danych dotyczących obrotu wewnątrzunijnego na podstawie nie tylko wartości, lecz także ilości towarów. W analizie rozbieżności danych w handlu między krajami UE, ze szczególnym uwzględnieniem Polski, wzorowano się na wybranych metodach badania znanych z literatury przedmiotu. Podejście zarówno wartościowe, jak i ilościowe stanowi wkład własny autorów w metodykę badawczą. Zaproponowano wskaźniki jakości danych oraz wykorzystano dane dotyczące masy towarów. Analizie poddano informacje na temat obrotu towarowego między krajami unijnymi w 2017 r. pochodzące z bazy Eurostatu Comext. Badanie dynamiki obejmowało również lata: 2005, 2008, 2011 i 2014. Wyniki analizy pokazały, że ogółem udział wywozu z Polski towarów do danego kraju na obszarze UE jest różny dla danych wyrażonych wartościowo (wartość towarów) i ilościowo (masa towarów). W badaniu jakości danych lustrzanych należy zatem stosować oba podejścia.
In the research carried out to date by the authors of the article, the assessment of the quality of mirror data in the exchange of goods between European Union (EU) countries was based on the value of goods. A similar approach is applied by many researchers. The aim of the research discussed in the article is to assess the quality of data relating to intra-EU trade based on not only the value, but also on the quantity of goods. The analysis of discrepancies in data relating to trade between EU countries, with a particular emphasis on Poland, was based on selected research methods known from literature. Both the value-based and the quantitative approach constitute the authors' contribution to the development of research methodology. Data quality indicators were proposed and data pertaining to the weight of goods were used. Information on trade in goods between EU countries in 2017 obtained from Eurostat's Comext database was analysed. The research relating to the dynamics also covered the years 2005, 2008, 2011, and 2014. The results of the analysis demonstrated that the total share of export of goods from Poland to a given country within the EU is different for data expressed in value (value of goods) and in quantity (weight of goods). Therefore, both approaches should be applied in the study of the quality of mirror data.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2020, 65, 8; 27-38
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wolnego oprogramowania i otwartych danych w analizie przestrzennej systemu awaryjnego zaopatrzenia w wodę pitną na przykładzie miasta Cottbus/Chóśebuz (Niemcy)
Application of free software and open data in the spatial analysis of an emergency drinking water supply system on the example of the city of Cottbus/Chóśebuz (Germany)
Autorzy:
Klich, Magdalena
Cichociński, Piotr
Thürmer, Konrad
Powiązania:
https://bibliotekanauki.pl/articles/2174492.pdf
Data publikacji:
2022
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
analiza sieciowa
dostępność studni
jakość danych
macierz kosztów
najkrótsza droga
obszar obsługiwany
network analysis
well accessibility
data quality
cost matrix
shortest way
service area
Opis:
W Republice Federalnej Niemiec zaopatrzenie w wodę pitną w sytuacjach awaryjnych zapewnia 4800 niezależnych studni rozmieszczonych na terenie całego kraju, z których okoliczni mieszkańcy mogą samodzielnie pobierać wodę. Zakładana maksymalna odległość od miejsca zamieszkania do studni wynosi od 500 do 2000 m. Obszary do zaopatrzenia przez poszczególne studnie awaryjne tradycyjnie wyznaczane są za pomocą zataczania wokół nich okręgów na mapie. W pracy podjęto próbę zbadania na wybranym przykładzie, czy funkcjonalność wolnego oprogramowania GIS oraz dostępne otwarte dane przestrzenne pozwalają na bardziej precyzyjne wskazanie obszarów obsługiwanych przez poszczególne studnie, a w przypadku ich braku, zasugerowanie potencjalnych miejsc dla autocystern. Przeprowadzone analizy potwierdziły postawione na wstępie założenia.
In the Federal Republic of Germany, emergency drinking water supply is provided by 4,800 independent wells distributed throughout the country, from which local residents can draw water on their own. The assumed maximum distance from the residence to the well is 500 to 2,000 meters. Areas to be supplied by individual emergency wells are traditionally delineated by drawing circles around them on a map. The paper attempts to examine, using a selected example, whether the functionality of free GIS software and the available open spatial data allow for a more precise determination of the areas served by individual wells, or, if none is available, to suggest potential locations for tanker trucks. Conducted analyses confirmed the assumptions made at the outset.
Źródło:
Roczniki Geomatyki; 2022, 20, 2(97); 31--42
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problems with assessing safety of vulnerable road users based on traffic accident data
Problemy z oceną bezpieczeństwa niechronionych uczestników ruchu na podstawie danych o wypadkach drogowych
Autorzy:
Olszewski, P.
Osińska, B.
Szagała, P.
Skoczyński, P.
Zielińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/230391.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
bezpieczeństwo ruchu drogowego
uczestnik ruchu niechroniony
wypadek drogowy
baza CARE
jakość danych
statystyka wypadków
road safety
vulnerable road user
accident
data quality
CARE database
accident statistics
Opis:
The problem of poor quality of traffic accident data assembled in national databases has been addressed in European project InDeV. Vulnerable road users (pedestrians, cyclists, motorcyclists and moped riders) are especially affected by underreporting of accidents and misreporting of injury severity. Analyses of data from the European CARE database shows differences between countries in accident number trends as well as in fatality and injury rates which are difficult to explain. A survey of InDeV project partners from 7 EU countries helped to identify differences in their countries in accident and injury definitions as well as in reporting and data checking procedures. Measures to improve the quality of accident data are proposed such as including pedestrian falls in accident statistics, precisely defining minimum injury and combining police accident records with hospital data.
Artykuł przedstawia częściowe wyniki projektu InDeV, którego celem jest pogłębiona analiza przyczyn wypadków z niechronionymi uczestnikami ruchu (NUR). W ramach projektu zbadano jakość i spójność danych o wypadkach drogowych gromadzonych w krajach UE na podstawie raportów policyjnych. Problem zaniżonej liczby wypadków oraz niewłaściwego określania ich ciężkości dotyczy w szczególności NUR (pieszych, rowerzystów, motocyklistów i motorowerzystów). Wykonano analizy statystyczne oparte o dane pochodzące z europejskiej bazy o wypadkach drogowych CARE. Analiza ujawniła trudne do wytłumaczenia różnice pomiędzy krajami, zarówno w odniesieniu do trendów liczby wypadków, jak i wskaźników ofiar śmiertelnych i rannych.
Źródło:
Archives of Civil Engineering; 2016, 62, 4/II; 149-168
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Współzależność pomiędzy rozwojem teorii i praktyki badań reprezentacyjnych w Polsce
The interplay between sample survey theory and practice in Poland
Autorzy:
Kordos, Jan
Powiązania:
https://bibliotekanauki.pl/articles/422642.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
badanie reprezentacyjne
metoda estymacji
złożone badanie reprezentacyjne
jakość danych
statystyka małych obszarów
metoda rotacyjna
metoda alokacji próby
sample survey
estimation methods
complex sample surveys
data quality
estimation for small area
rotation sampling
sample allocation methods
Opis:
Autor bada współzależności między rozwojem teorii i praktyki badań reprezentacyjnych w Polsce w ciągu ponad 60 lat. Rozpoczyna od klasycznej pracy Neymana (Neyman, 1934), która dała teoretyczne podstawy probabilistycznego podejścia wyboru próbki umożliwiające wnioskowanie z badań reprezentacyjnych. Główne idee tej pracy były najpierw opublikowane po polsku w 1933 r. (Neyman, 1933) i miały istotny wpływ na a praktykę badań reprezentacyjnych Polsce przed i po II Wojnie Światowej. Badania reprezentacyjne prowadzone w latach 1950-tych i 1960-tych były konsultowane z J. Neymanem w czasie jego wiz w Polsce w latach 1950 i 1958 (Fisz, 1950; Zasępa, 1958). Praktyczne problemy występujące przy planowaniu i analizie badań reprezentacyjnych Polsce były częściowo rozwiązywane przez Komisję Matematyczną GUS powołaną w końcu 1949 r. jako organ doradczy i opiniodawczy Prezesa GUS. Komisja ta składała się ze specjalistów zarówno z GUS jak i ośrodków naukowo-badawczych w kraju (Kordos, 2012a). Komisja działała do 1993 r. i wpływała w istotny sposób na praktykę badań reprezentacyjnych Polsce. Specjalną uwagę poświęcono wpływowi teorii badań próbkowych na świecie i w Polsce na praktykę badań reprezentacyjnych w Polsce, a w szczególności na plany i schematy losowania i metody estymacji w badaniach prowadzonych w czasie, a głównie metodzie rotacyjnej (Greń, 1969; Kordos, 1967, 2012b; Kowalczyk, 2004; Kowalski, 2006; Lednicki, 1982; Popiński, 2006; Wesołowski, 2010); lokalizacji próby (Bracha et al.,2004b, Greń, 1964, 1966; Lednicki, 1979, 1989; Lednicki i Wesołowski, 1994;), metodom estymacji (Bracha, 1996, 1998; Greń, 1970; Kordos, 1982; Lednicki, 1979, 1987, Wesołowski, 2004, Zasępa, 1962, 1972), jakości danych (Kordos, 1973, 1988; Zasępa, 1993) oraz metodom estymacji dla małych obszarów (Bracha, 1994, 2003; Bracha et al., 2004b; Dehnel, 2010; Domański, Pruska, 2001; Golata, 2004ab, 2012; Kalton et al., 1993; Kordos, 1991, 2000b; Kordos, Paradysz, 2000; Niemiro, Wesołowski, 2012; Paradysz, 1998; Wesołowski, 2004). W zakończeniu prowadzone są rozważania na temat przyszłych zapotrzebowań na informacje z badań reprezentacyjnych.
The author examines interplay between sample survey theory and practice in Poland over the past 60 years or so. He begins with the Neymans’s (1934) classic landmark paper which laid theoretical foundations to the probability sampling (or design—based) approach to inference from survey samples. Main ideas of that paper were first published in Polish in 1933 (Neyman, 1933) and had a significant impact on sampling practice in Poland before and after the World War II. Sample surveys conducted in 1950s and 1960s were consulted with J. Neyman during his visits in Poland in 1950 and 1958 (Fisz, 1950a; Zasepa, 1958). Some practical problems encountered in the design and analysis of sample surveys were partly solved by the Mathematical Commission of the CSO which was established in 1949, as an advisory and opinion—making body to the CSO President in the field of sample surveys. The Commission concentrated specialists in the sampling methods both from the CSO and research centres in the country (Kordos, 2012a). The Commission had a significant impact on sampling practice in Poland and was active till 1993. Special attention is devoted to the impact of sampling theory on sampling practice in Poland, and particularly on sample designs and estimation methods in: sampling in time and rotation methods (Kordos, 1967, 2012b; Kowalczyk, 2004; Kowalski, 2006; Wesołowski, 2010); sample allocation and estimation methods (Bracha, 1994, 1996, 2003; Greń, 1964, 1966, 1969, 1970; Kordos, 1969, 1973, 1982; Wesołowski, 2004, Zasępa, 1962, 1972, 1993 ); data quality (Kordos, 1973, 1988); estimation methods for small areas (Dehnel, 2010; Domański, Pruska, 2001; Golata, 2004ab, 2012; Kalton et al., 1993; Kordos, 1991, 2000b, 2004; Kordos, Paradysz, 2000; Niemiro, Wesołowski, 2012; Paradysz, 1998; Wesołowski, 2004). Concluding remarks are given at the end.
Źródło:
Przegląd Statystyczny; 2012, 59, numer specjalny 1; 61-86
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-13 z 13

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies