Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "web data" wg kryterium: Temat


Wyświetlanie 1-44 z 44
Tytuł:
Current challenges and possible big data solutions for the use of web data as a source for official statistics
Współczesne wyzwania i możliwości w zakresie stosowania narzędzi big data do uzyskania danych webowych jako źródła dla statystyki publicznej
Autorzy:
Daas, Piet
Maślankowski, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/31232088.pdf
Data publikacji:
2023-12-29
Wydawca:
Główny Urząd Statystyczny
Tematy:
big data
web data
websites
web scraping
dane webowe
strony internetowe
Opis:
Web scraping has become popular in scientific research, especially in statistics. Preparing an appropriate IT environment for web scraping is currently not difficult and can be done relatively quickly. Extracting data in this way requires only basic IT skills. This has resulted in the increased use of this type of data, widely referred to as big data, in official statistics. Over the past decade, much work was done in this area both on the national level within the national statistical institutes, and on the international one by Eurostat. The aim of this paper is to present and discuss current problems related to accessing, extracting, and using information from websites, along with the suggested potential solutions. For the sake of the analysis, a case study featuring large-scale web scraping performed in 2022 by means of big data tools is presented in the paper. The results from the case study, conducted on a total population of approximately 503,700 websites, demonstrate that it is not possible to provide reliable data on the basis of such a large sample, as typically up to 20% of the websites might not be accessible at the time of the survey. What is more, it is not possible to know the exact number of active websites in particular countries, due to the dynamic nature of the Internet, which causes websites to continuously change.
Web scraping jest coraz popularniejszy w badaniach naukowych, zwłaszcza w dziedzinie statystyki. Przygotowanie środowiska do scrapowania danych nie przysparza obecnie trudności i może być wykonane relatywnie szybko, a uzyskiwanie informacji w ten sposób wymaga jedynie podstawowych umiejętności cyfrowych. Dzięki temu statystyka publiczna w coraz większym stopniu korzysta z dużych wolumenów danych, czyli big data. W drugiej dekadzie XXI w. zarówno krajowe urzędy statystyczne, jak i Eurostat włożyły dużo pracy w doskonalenie narzędzi big data. Nadal istnieją jednak trudności związane z dostępnością, ekstrakcją i wykorzystywaniem informacji pobranych ze stron internetowych. Tym problemom oraz potencjalnym sposobom ich rozwiązania został poświęcony niniejszy artykuł. Omówiono studium przypadku masowego web scrapingu wykonanego w 2022 r. za pomocą narzędzi big data na próbie 503 700 stron internetowych. Z analizy wynika, że dostarczenie wiarygodnych danych na podstawie tak dużej próby jest niemożliwe, ponieważ w czasie badania zwykle do 20% stron internetowych może być niedostępnych. Co więcej, dokładna liczba aktywnych stron internetowych w poszczególnych krajach nie jest znana ze względu na dynamiczny charakter Internetu, skutkujący ciągłymi zmianami stron internetowych.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 12; 49-64
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie cen i wskaźników cen konsumpcyjnych: tradycyjna metoda uzyskiwania danych a źródła alternatywne
Comparison of prices and consumer price indices: traditional data collection and alternative data sources
Autorzy:
Białek, Jacek
Dominiczak-Astin, Alina
Turek, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/1813758.pdf
Data publikacji:
2021-09-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
wskaźniki cen
dane skanowane
dane skrapowane
inflacja
price indices
scanner data
web scraped data
inflation
Opis:
Jednym z większych wyzwań stojących przed statystyką publiczną w XXI w. jest wykorzystanie alternatywnych źródeł danych o cenach w celu unowocześnienia statystyki cen konsumpcyjnych, a w rezultacie – zwiększenia dokładności i rzetelności danych o inflacji. Trudności w zbieraniu danych metodą tradycyjną spowodowane przez COVID-19 (obostrzenia dotyczące utrzymywania dystansu, które ograniczyły wyjścia ankieterów w teren, i zamykanie punktów sprzedaży) wpłynęły na zintensyfikowanie prac nad alternatywnymi źródłami danych. W artykule przedstawiono wyniki badania eksperymentalnego, w którym wykorzystano dane o cenach uzyskane metodą tradycyjną (przez ankieterów) oraz dane skanowane i skrapowane, pochodzące z sieci handlowej działającej w Polsce. Głównym celem badania było określenie występowania i oszacowanie wielkości różnic w poziomie cen i wartościach wskaźnika cen wybranych produktów spożywczych obliczonych metodą tradycyjną oraz z wykorzystaniem alternatywnych źródeł danych, czyli danych skanowanych i skrapowanych. Za dodatkowy cel postawiono sobie zidentyfikowanie przyczyn tych różnic w odniesieniu do specyfiki źródeł danych. Badaniem empirycznym objęto luty i marzec 2021 r. Wyniki otrzymane na podstawie danych z różnych źródeł porównano za pomocą metod graficznych (histogramy, wykresy pudełkowe) oraz wyznaczenia elementarnych indeksów według formuł Dutota, Carliego i Jevonsa. Wyniki wskazały na rozbieżności – niekiedy znaczne – w rozkładach cen uzyskanych z różnych źródeł danych, co skłania do wniosku, że zastosowanie danych skanowanych i skrapowanych może prowadzić do zawyżania lub zaniżania wskaźników cen uzyskanych metodą tradycyjną. W artykule omówiono również podstawowe aspekty metodologiczne dotyczące uzyskiwania i wykorzystywania danych ze źródeł alternatywnych oraz wskazano prawdopodobne przyczyny różnic, jakie zaobserwowano zarówno w rozkładach cen produktów, jak i w wartościach miesięcznego wskaźnika cen obliczonego przy wykorzystaniu danych z różnych źródeł.
One of the major challenges official statistics is faced with in the 21st century is the use of alternative sources of price data in order to modernise consumer price statistics and, as a result, to improve the accuracy and reliability of inflation data. Data collecting based on the traditional method encountered numerous difficulties caused by COVID-19 (distance-keeping restrictions limiting price collectors’ fieldwork, closures of points of sale). As a consequence, the work on alternative data sources intensified. The article presents the results of an experimental study involving the use of prices collected by means of the traditional method (by price collectors), and scanner and web scraped data from one of the retail chains operating in Poland. The aim of the study was to investigate the occurrence of differences in prices and price indices of selected food products and to estimate them, using the traditional method and alternative data sources, i.e. scanner and web scraped data. An additional goal was set to identify sourcebased reasons for these differences. The empirical study covered the period of February and March 2021. The results based on data from different sources were compared using both graphical methods (histograms, box plots) and the calculation of elementary price indices according to the Dutot, Carli and Jevons formulas. The findings revealed certain, sometimes serious discrepancies in the distributions of prices obtained from various data sources, which suggests that the application of scanner and web scraped data may lead to the over- and understating of price indices obtained via the traditional method. The article also discusses the main methodological aspects of obtaining and applying data from alternative sources, and indicates the probable causes of the differences observed both in distributions of product prices and in monthly price indices calculated using data from various sources.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2021, 66, 9; 32-69
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of the cadastral data published in the Polish Spatial Data Infrastructure
Autorzy:
Izdebski, W.
Powiązania:
https://bibliotekanauki.pl/articles/145438.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
dane katastralne
usługi sieciowe
mapa internetowa
web services
Web Map Service
spatial data infrastructure
cadastral data
Opis:
The cadastral data, including land parcels, are the basic reference data for presenting various objects collected in spatial databases. Easy access to up-to-date records is a very important matter for the individuals and institutions using spatial data infrastructure. The primary objective of the study was to check the current accessibility of cadastral data as well as to verify how current and complete they are. The author started researching this topic in 2007, i.e. from the moment the Team for National Spatial Data Infrastructure developed documentation concerning the standard of publishing cadastral data with the use of the WMS. Since ten years, the author was monitoring the status of cadastral data publishing in various districts as well as participated in data publishing in many districts. In 2017, when only half of the districts published WMS services from cadastral data, the questions arise: why is it so and how to change this unfavourable status? As a result of the tests performed, it was found that the status of publishing cadastral data is still far from perfect. The quality of the offered web services varies and, unfortunately, many services offer poor performance; moreover, there are plenty services that do not operate at all.
Źródło:
Geodesy and Cartography; 2017, 66, 2; 227-240
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mailing Lists Archives Analyzer
Autorzy:
Rzecki, K.
Riegel, M.
Powiązania:
https://bibliotekanauki.pl/articles/93058.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
e-mail header
data analyzing
web mining
Opis:
Article describes chance to explore data hidden in headers of e-mails taken from archive of mailing lists. Scientist part of the article presents a way of transforms information enclosed in Internet resources, explains idea of mailing lists archive and points out knowledge can be taken from. Technical part presents implemented and working system analyzing headers of e-mail messages stored in mailing lists archives. Some example results of this experiment are also given.
Źródło:
Studia Informatica : systems and information technology; 2006, 1(7); 117-125
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Integracja usług sieciowych z uwzględnieniem poziomu wiarygodności ich dostawców
WEB services integration considering the level of vendors believability
Autorzy:
Kaczmarek, A.
Powiązania:
https://bibliotekanauki.pl/articles/266675.pdf
Data publikacji:
2010
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
wiarygodność danych
usługi sieciowe
data believability
web services
Opis:
Artykuł porusza temat wiarygodności danych pobieranych z usług sieciowych. Przedstawiona została metoda oceny wiarygodności takich danych opierająca się na czterech metrykach: powszechności informacji, niezależności źródła informacji, prestiżu źródła oraz doświadczenia ze współpracy ze źródłem. Metoda ta ma zastosowanie przy integracji usług sieciowych pochodzących od wielu różnych dostawców. Metoda pozwala na automatyczną ocenę poziomu wiarygodności na podstawie informacji dotyczących pochodzenia danych (ang. data provenance).
This paper is concerned with the believability of data acquired from web services. In the paper a method for estimating data believability is presented. The estimation is based on four metrics: information commonality, source independence, prestige of the source and experience with the source. Presented method supports the integration of web services provided by various vendors. The method makes possible to automatically determine the level of data believability on the basis of data provenance.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2010, 28; 69-72
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Distributed web service repository
Autorzy:
Nawrocki, P.
Mamla, A.
Powiązania:
https://bibliotekanauki.pl/articles/305281.pdf
Data publikacji:
2015
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
web service
repository
heterogeneity
data replication
node balancing
Opis:
The increasing availability and popularity of computer systems has resulted in a demand for new language- and platform-independent ways of data exchange. This demand has, in turn, led to significant growth in the importance of systems based on Web services. Alongside the growing number of systems accessible via Web services came the need for specialized data repositories that could offer effective means of searching the available services. The development of mobile systems and wireless data transmission technologies has allowed us to use distributed devices and computer systems on a greater scale. The accelerating growth of distributed systems might be a good reason to consider the development of distributed Web service repositories with built-in mechanisms for data migration and synchronization.
Źródło:
Computer Science; 2015, 16 (1); 55-73
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data presentation on the map in Google Charts and jQuery JavaScript technologies
Prezentacja danych na mapie w technologiach Google Charts oraz jQuery JavaScript
Autorzy:
Król, K.
Powiązania:
https://bibliotekanauki.pl/articles/100414.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
data visualisation
mashup
web cartography
wizualizacja danych
kartografia internetowa
Opis:
The article presents selected software development tools and technologies that enable the presentation of statistical data on digital maps in the browser. The aim of the study was to describe them, and to conduct their comparative evaluation. In our studies, we have used ad-hoc tests, performed on the basis of usability and functionality, using the technique of self-evaluation. Based on the criteria of global popularity and availability, the following were subjected to ad-hoc tests: Google Visualization - Geomap and Geo Chart, as well as selected solutions developed on the basis of the jQuery JavaScript. In conclusion, it has been demonstrated that the tested design and development technologies are complementary, while the selection of tools to carry out the design principles assumed remains at the discretion of the user.
W artykule przedstawiono wybrane techniki i narzędzia programistyczne, które umożliwiają prezentację danych statystycznych na mapach cyfrowych w oknie przeglądarki internetowej. Celem pracy była ich charakterystyka i ocena porównawcza. W badaniach posłużono się testami typu ad-hoc, które przeprowadzono na gruncie użyteczności i funkcjonalności, posługując się techniką samooceny. Na podstawie kryterium popularności oraz dostępności w świecie testom ad-hoc poddano Google Visualization: Geomap oraz Geo Chart, a także wybrane rozwiązania przygotowane w oparciu o jQuery JavaScript. W konkluzji wykazano, że testowane techniki projektowe są komplementarne, a w gestii użytkownika pozostaje dobór narzędzi umożliwiających realizację przyjętych założeń projektowych.
Źródło:
Geomatics, Landmanagement and Landscape; 2016, 2; 91-106
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data mining
Autorzy:
Morzy, Tadeusz
Powiązania:
https://bibliotekanauki.pl/articles/703139.pdf
Data publikacji:
2007
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
data mining
data analysis
evolution of information technology
association analysis
classification
clustering
Web mining
Opis:
Recent advances in data capture, data transmission and data storage technologies have resulted in a growing gap between more powerful database systems and users' ability to understand and effectively analyze the information collected. Many companies and organizations gather gigabytes or terabytes of business transactions, scientific data, web logs, satellite pictures, textreports, which are simply too large and too complex to support a decision making process. Traditional database and data warehouse querying models are not sufficient to extract trends, similarities and correlations hidden in very large databases. The value of the existing databases and data warehouses can be significantly enhanced with help of data mining. Data mining is a new research area which aims at nontrivial extraction of implicit, previously unknown and potentially useful information from large databases and data warehouses. Data mining, also referred to as database mining or knowledge discovery in databases, can help answer business questions that were too time consuming to resolve with traditional data processing techniques. The process of mining the data can be perceived as a new way of querying – with questions such  as ”which clients are likely to respond to our next promotional mailing, and why?”. The aim of this paper is to present an overall picture of the data mining field as well as presents briefly few data mining methods. Finally, we summarize the concepts presented in the paper and discuss some problems related with data mining technology.
Źródło:
Nauka; 2007, 3
1231-8515
Pojawia się w:
Nauka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Web-based software system for processing bilingual digital resources
Autorzy:
Dutsova, Ralitsa
Powiązania:
https://bibliotekanauki.pl/articles/677188.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
aligned corpus
concordance
data mining
dictionary entry
digital dictionary
search tool
web-interface
web-application
Opis:
Web-based software system for processing bilingual digital resourcesThe article describes a software management system developed at the Institute of Mathematics and Informatics, BAS, for the creation, storing and processing of digital language resources in Bulgarian. Independent components of the system are intended for the creation and management of bilingual dictionaries, for information retrieval and data mining from a bilingual dictionary, and for the presentation of aligned corpora. A module which connects these components is also being developed. The system, implemented as a web-application, contains tools for compilation, editing and search within all components.
Źródło:
Cognitive Studies; 2014, 14
2392-2397
Pojawia się w:
Cognitive Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Propozycja metodyki oceny poziomu automatyzacji powiatowego zasobu geodezyjnego i kartograficznego
Proposal for the methodology of automation assessment of geodetic and cartographic resource
Autorzy:
Izdebski, W.
Powiązania:
https://bibliotekanauki.pl/articles/371889.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
dane przestrzenne
infrastruktura danych przestrzennych
usługi sieciowe
spatial data
spatial data infrastructure (SDI)
web services
Opis:
Na bazie obowiązujących przepisów, dane zawarte w powiatowym zasobie geodezyjnym i kartograficznym są kluczowym elementem krajowej infrastruktury informacji przestrzennej. Metody i środki wykorzystywane do prowadzenia zasobu były zawsze adekwatne do dostępnych środków technicznych. Obecny stan technologiczny przynosi wiele nowych możliwości usprawnień w funkcjonowaniu zasobu, a przede wszystkim możliwość jego automatyzacji. Aby poziomy automatyzacji w poszczególnych powiatach mogły być ze sobą porównywane potrzebne jest opracowanie metodyki ich oceny, a propozycję takiej autorskiej metodyki zawiera niniejszy artykuł.
On the basis of applicable laws, data contained in the county geodetic and cartographic resource are a key element of the national spatial data infrastructure. Methods and means used to carry out the resource were always adequate to the available technical means. The current state of technology brings many new opportunities for improvement in the functioning of the resource, and above all the possibility of automation. A methodology for evaluation is needed for comparing the levels of automation in individual counties and a proposal for such a proprietary methodology is presented in this article.
Źródło:
Zeszyty Naukowe. Inżynieria Środowiska / Uniwersytet Zielonogórski; 2017, 165 (45); 27-35
1895-7323
Pojawia się w:
Zeszyty Naukowe. Inżynieria Środowiska / Uniwersytet Zielonogórski
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Integration, Analysis and Visualization of Sensor Data from Dispersed Wireless Sensor Network Systems Using the SWE Framework
Autorzy:
Lee, Y. J.
Trevathan, J.
Atkinson, I.
Read, W.
Powiązania:
https://bibliotekanauki.pl/articles/308227.pdf
Data publikacji:
2015
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
environment data
environmental monitoring
sensor technologies
standardization
web-based visualization
Opis:
Wireless Sensor Networks (WSNs) have been used in numerous applications to remotely gather real-time data on important environmental parameters. There are several projects where WSNs are deployed in different locations and operate independently. Each deployment has its own models, encodings, and services for sensor data, and are integrated with different types of visualization/analysis tools based on individual project requirements. This makes it dicult to reuse these services for other WSN applications. A user/system is impeded by having to learn the models, encodings, and services of each system, and also must integrate/interoperate data from different data sources. Sensor Web Enablement (SWE) provides a set of standards (web service interfaces and data encoding/model specications) to make sensor data publicly available on the web. This paper describes how the SWE framework can be extended to integrate disparate WSN systems and to support standardized access to sensor data. The proposed system also introduces a web-based data visualization and statistical analysis service for data stored in the Sensor Observation Service (SOS) by integrating open source technologies. A performance analysis is presented to show that the additional features have minimal impact on the system. Also some lessons learned through implementing SWE are discussed.
Źródło:
Journal of Telecommunications and Information Technology; 2015, 4; 86-97
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Interactive cloud data farming environment for military mission planning support
Autorzy:
Kryza, B.
Król, D.
Wrzeszcz, M.
Dutka, L.
Kitowski, J.
Powiązania:
https://bibliotekanauki.pl/articles/305448.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
data farming
cloud
virtualisation
Web 2.0
mission planning support
Opis:
In a modern globalised world, military and peace keeping forces often face situations which require very subtle and well planned operations taking into account cultural and social aspects of a given region and its population as well as dynamic psychological awareness related to recent events which can have impact on the attitude of the civilians. The goal of the EUSAS project is to develop a prototype of a system enabling mission planning support and training capabilities for soldiers and police forces dealing with asymmetric threat situations, such as crowd control in urban territory. In this paper, we discuss the data-farming infrastructure developed for this project, allowing generation of large amount of data from agent based simulations for further analysis allowing soldier training and evaluation of possible outcomes of different rules of engagement.
Źródło:
Computer Science; 2012, 13 (3); 89-100
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pozyskiwanie i analiza danych na temat ofert pracy z wykorzystaniem big data
The collection and analysis of the data on job advertisements with the use of big data
Autorzy:
Maślankowski, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/962829.pdf
Data publikacji:
2019
Wydawca:
Główny Urząd Statystyczny
Tematy:
big data
text mining
web scraping
rynek pracy
labour market
Opis:
Celem artykułu jest zaprezentowanie korzyści wynikających z wykorzystania na potrzeby statystyki publicznej (rynku pracy) narzędzi do automatycznego pobierania danych na temat ofert pracy zamieszczanych na stronach internetowych zaliczanych do zbiorów big data, a także związanych z tym wyzwań. Przedstawiono wyniki eksperymentalnych badań z wykorzystaniem metod web scrapingu oraz text miningu. Analizie poddano dane z lat 2017 i 2018 pochodzące z najpopularniejszych portali z ofertami pracy. Odwołano się do danych Głównego Urzędu Statystycznego (GUS) zbieranych na podstawie sprawozdania Z-05. Przeprowadzona analiza prowadzi do wniosku, że web scraping może być stosowany w statystyce publicznej do pozyskiwania danych statystycznych z alternatywnych źródeł, uzupełniających istniejące bazy danych statystycznych, pod warunkiem zachowania spójności z istniejącymi badaniami.
The goal of this paper is to present, on the one hand, the benefits for official statistics (labour market) resulting from the use of web scraping methods to gather data on job advertisements from websites belonging to big data compilations, and on the other, the challenges connected to this process. The paper introduces the results of experimental research where web-scraping and text-mining methods were adopted. The analysis was based on the data from 2017–2018 obtained from the most popular jobsearching websites, which was then collated with Statistics Poland’s data obtained from Z-05 forms. The above-mentioned analysis demonstrated that web-scraping methods can be adopted by public statistics services to obtain statistical data from alternative sources complementing the already-existing databases, providing the findings of such research remain coherent with the results of the already-existing studies.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2019, 64, 9; 60-74
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of web-scraped data to analyze the dynamics of footwear prices
Autorzy:
Juszczak, Adam
Powiązania:
https://bibliotekanauki.pl/articles/2027264.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Big data
Consumer Price Index
Inflation
Online shopping
Web-scraping
Opis:
Aim/purpose – Web-scraping is a technique used to automatically extract data from websites. After the rise-up of online shopping, it allows the acquisition of information about prices of goods sold by retailers such as supermarkets or internet shops. This study examines the possibility of using web-scrapped data from one clothing store. It aims at comparing known price index formulas being implemented to the web-scraping case and verifying their sensitivity on the choice of data filter type. Design/methodology/approach – The author uses the price data scrapped from one of the biggest online shops in Poland. The data were obtained as part of eCPI (electronic Consumer Price Index) project conducted by the National Bank of Poland. The author decided to select three types of products for this analysis – female ballerinas, male shoes, and male oxfords to compare their prices in over one-year time period. Six price indexes were used for calculation – The Jevons and Dutot indexes with their chain and GEKS (acronym from the names of creators – Gini–Éltető–Köves–Szulc) versions. Apart from the analysis conducted on a full data set, the author introduced filters to remove outliers. Findings – Clothing and footwear are considered one of the most difficult groups of goods to measure price change indexes due to high product churn, which undermines the possibility to use the traditional Jevons and Dutot indexes. However, it is possible to use chained indexes and GEKS indexes instead. Still, these indexes are fairly sensitive to large price changes. As observed in case of both product groups, the results provided by the GEKS and chained versions of indexes were different, which could lead to conclusion that even though they are lending promising results, they could be better suited for other COICOP (Classification of Individual Consumption by Purpose) groups. Research implications/limitations – The findings of the paper showed that usage of filters did not significantly reduce the difference between price indexes based on GEKS and chain formulas. Originality/value/contribution – The usage of web-scrapped data is a fairly new topic in the literature. Research on the possibility of using different price indexes provides useful insights for future usage of these data by statistics offices.
Źródło:
Journal of Economics and Management; 2021, 43; 251-269
1732-1948
Pojawia się w:
Journal of Economics and Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A conceptual model for data quality management in a data system on the World Wide Web
Konceptualny model zarządzania jakością informacji w systemie informacyjnym w sieci WWW
Autorzy:
Czerwiński, Adam
Powiązania:
https://bibliotekanauki.pl/articles/435370.pdf
Data publikacji:
2014-12
Wydawca:
Uniwersytet Opolski
Tematy:
data quality
management model
data system
Web service
jakość informacji
model zarządzania
system informacyjny
serwis WWW
Opis:
The article presents a conceptual model for data quality management treated as the usability or the compliance of the data product with its specification. The proposed model refers to the well-known TDQM model of Wang based on the Deming's quality improvement cycle. However, the TDQM model does not take into account the impact of the Internet environment on the quality of the data provided by the systems on the Web. The author's model presented in this article takes into account the impact of the Internet on all aspects resulting from data functions in society and organizations. Therefore, it takes into consideration the aspect of promoting data quality management processes, the communication aspect and the aspect of enrichment of individual and collective knowledge. The model also takes into account the fact that the impact of the known properties of the Internet (defined with the acronym MEDIA for example) refers primarily to the contextual quality characteristics of the data on the Web and, only to a small degree, it concerns the internal quality of information pieces described by such features as accuracy, consistency, complexity and precision.
W artykule przedstawiono konceptualny model zarządzania jakością informacji traktowanej jako jej użyteczność lub zgodność produktu informacyjnego z jego specyfikacją. Proponowany model nawiązuje do znanego modelu TDQM R.Y. Wanga opartego na cyklu Deminga doskonalenia jakości. Jednakże model TDQM nie uwzględnia wpływu środowiska Internetu na jakość informacji udostępnianej przez systemy informacyjne w sieci WWW. Zaprezentowany w artykule autorski model bierze pod uwagę wpływ właściwości Internetu na wszystkie aspekty wynikające z funkcji informacji w społeczeństwie i w organizacji. Uwzględnia zatem aspekt wspierania procesów zarządzania jakością informacji, aspekt komunikacyjny oraz aspekt wzbogacania wiedzy indywidualnej i zbiorowej. W modelu uwzględniono także fakt, że wpływ znanych właściwości Internetu (określonych np. akronimem MEDIUM) odnosi się przede wszystkim do kontekstowych cech jakości informacji w sieci WWW, a w małym stopniu dotyczy wewnętrznej jakości jednostek informacji opisanych takimi cechami jak np. dokładność, spójność, złożoność czy precyzja.
Źródło:
Economic and Environmental Studies; 2014, 14, 4(32); 361-373
1642-2597
2081-8319
Pojawia się w:
Economic and Environmental Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Humanistyczne aspekty architektury informacji. Rekonesans
Humanistic Aspects of Information Architecture. Reconnaissance
Autorzy:
Utracka, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/579310.pdf
Data publikacji:
2017
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
bibliometrics
scientometrics
web metrics
informatology
cybertext
digitalization
data brokerage
folksonomy
positioning
Opis:
The article presents the essence of information architecture as a process of nomenclature organization, navigation design and the search systems useful in information management. The key issue is to show in what way art and science of information environments management are becoming the tool for humanizing technology and the instrument of social development, as well as the way information architecture is becoming an inseparable part of humanistic, meta-scientific and practical aspects of the 21st century informatology. The authoress discusses various aspects of culture in Web 2.0 model, the main attributes of text architecture and also its inter-media communication functionality, scrutinizing the relation between culture of the surplus and the Internet axiology, the assumptions of economics and knowledge ecology as well as information engineering.
Źródło:
Zagadnienia Rodzajów Literackich; 2017, 60, 3 (123); 171-189
0084-4446
Pojawia się w:
Zagadnienia Rodzajów Literackich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Strona internetowa jako źródło historyczne
The web page as a historical source
Autorzy:
Wilkowski, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/2080755.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
World Wide Web
historiography
sources
web archives
data
historiografia
źródła
archiwa Webu
dane
Nauki Humanistyczne i Społeczne
Opis:
A web page can be a useful object of analysis in historical research on the World Wide Web, but as a historical source, it does not have to be interpreted solely by its textual and visual strata. The article proposes an inclusive definition of the web page which ignores its visual content and relies on its non‑obvious elements (HTTP headers and response type, URI identifier), which can be successfully used in historical study. The modular nature of the web page is the cause of many problems in building its chronology or accessing archival versions; on the other hand, it makes it possible to gain new information about the past reality. The development of Web historiography is a condition for building the historicity of the medium referred to as the"eternal now" Such historiography relies strongly on software as a tool for producing historical sources and sometimes needs to explore new time dimensions like the stream or liveness. The article explores these issues by referencing media theory and web archiving works as well as several research projects from the field of the digital humanities. Can a historiographical approach to sources inspire criticism on digital artefacts and data outside the field?
Źródło:
Historyka studia metodologiczne; 2021, 51; 83-110
0073-277X
Pojawia się w:
Historyka studia metodologiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The application of web analytics by owners of rural tourism facilities in Poland – diagnosis and an attempt at a measurement
Autorzy:
Król, Karol
Powiązania:
https://bibliotekanauki.pl/articles/1911954.pdf
Data publikacji:
2019-12-28
Wydawca:
Uniwersytet Przyrodniczy w Poznaniu. Wydawnictwo Uczelniane
Tematy:
data analytics
web analytics
rural tourism
optimisation
Google Analytics
digital marketing
Opis:
Data analytics changes the way the enterprises operate, and allows them to both discover new business opportunities and offer innovative products and services. Data analytics can also be used to boost the performance of rural businesses. Therefore, the purpose of this study is to identify web analytics tools used by owners of rural tourism establishments in Poland. The study covered 965 websites hosted on selected paid domains. SEOptimer, an online application, and Google Tag Assistant were used in order to identify the analytical tools. Findings from the study were considered in the context of search engine optimization level and of the scale of business operations. In the sample covered by this study, a form of web analytics was found in 449 websites (46.5%); however, a data collection engine was probably implemented in 425 websites (44%). Google Analytics was the most frequent analytical tool. It was demonstrated that rural tourism establishments used analytical tools to a lesser extent than other businesses which rely on the Internet to promote and sell their products. Moreover, owners of higher-standard rural tourism establishments are more keen to use web analytics.
Analityka danych zmienia sposób funkcjonowania przedsiębiorstw, pozwala im odkrywać nowe możliwości biznesowe oraz oferować innowacyjne produkty i usługi. Analityka danych może znaleźć zastosowanie także w podnoszeniu efektywności działań biznesowych podejmowanych na obszarach wiejskich. Celem pracy jest identyfikacja narzędzi analityki internetowej wykorzystywanych przez właścicieli obiektów turystyki wiejskiej w Polsce. Badaniami objęto 965 witryn w wybranych domenach płatnych. Do identyfikacji narzędzi analitycznych wykorzystano aplikację internetową SEOptimer oraz narzędzie Google Tag Assistant. Wyniki badań odniesiono do stopnia optymalizacji witryny internetowej (SEO) oraz skali działalności obiektu. W badanym zbiorze odnotowano 449 witryn (46,5%), na których zidentyfikowano jedną z form analityki internetowej, jednak dane zbierane były prawdopodobnie w przypadku 425 witryn (44%). Najczęściej odnotowywanym narzędziem analitycznym było Google Analytics. Wykazano, że wykorzystanie narzędzi analitycznych przez obiekty turystyki wiejskiej cieszy się mniejszą popularnością w porównaniu do innych podmiotów wykorzystujących Internet w promocji i sprzedaży oferowanych produktów.
Źródło:
Journal of Agribusiness and Rural Development; 2019, 54, 4; 319-326
1899-5241
Pojawia się w:
Journal of Agribusiness and Rural Development
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Scientometric and Bibliometric Analysis in Analytical Marketing Research
Autorzy:
Więcek-Janka, Ewa
Szewczuk, Sandra
Powiązania:
https://bibliotekanauki.pl/articles/2168352.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
analytical marketing
financial marketing
data-driven marketing
Web of Science
VOSviewer
Opis:
Theoretical background: Analytical marketing is at the heart of scientific research because it plays an important role in building the competitiveness of enterprises and is an opportunity for them to grow.Purpose of the article: The aim of the article is to present the results of a bibliometric analysis of the developing area of analytical marketing.Research methods: For this purpose, specialist journals published between 1900 and 2021 were searched in the Web of Science database. The scientometric analyses carried out on their basis concern the number of publications, authorship and co-authorship, the number of citations, journals, thematic categories, institutions, countries and keywords. Over 200 publications cited 2,563 times were analyzed.Main findings: The concept of analytical marketing was taken into account by over 400 authors, with Maria Petrescu authoring the highest number of publications, and Michel Wedel being the most significant author due to the number of citations. An important role, due to the number of publications in this area, is played by institutions based in the USA (over 50%), including the University of Nevada, Las Vegas (UNLV) and the Nevada System of Higher Education (NSHE). What is more, the conducted research emphasizes the importance of marketing analytics and presents benefits that stem from using it.
Źródło:
Annales Universitatis Mariae Curie-Skłodowska, sectio H – Oeconomia; 2022, 56, 1; 143-167
0459-9586
2449-8513
Pojawia się w:
Annales Universitatis Mariae Curie-Skłodowska, sectio H – Oeconomia
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Python library for the Jupyteo IDE Earth observation processing tool enabling interoperability with the QGIS System for use in data science
Autorzy:
Bednarczyk, Michał
Powiązania:
https://bibliotekanauki.pl/articles/2055774.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
Earth observation data processing
IDE
IPython
Jupyter notebook
web processing service
GIS
data science
machine learning
API
Opis:
This paper describes JupyQgis – a new Python library for Jupyteo IDE enabling interoperability with the QGIS system. Jupyteo is an online integrated development environment for earth observation data processing and is available on a cloud platform. It is targeted at remote sensing experts, scientists and users who can develop the Jupyter notebook by reusing embedded open-source tools, WPS interfaces and existing notebooks. In recent years, there has been an increasing popularity of data science methods that have become the focus of many organizations. Many scientific disciplines are facing a significant transformation due to data-driven solutions. This is especially true of geodesy, environmental sciences, and Earth sciences, where large data sets, such as Earth observation satellite data (EO data) and GIS data are used. The previous experience in using Jupyteo, both among the users of this platform and its creators, indicates the need to supplement its functionality with GIS analytical tools. This study analyzed the most efficient way to combine the functionality of the QGIS system with the functionality of the Jupyteo platform in one tool. It was found that the most suitable solution is to create a custom library providing an API for collaboration between both environments. The resulting library makes the work much easier and simplifies the source code of the created Python scripts. The functionality of the developed solution was illustrated with a test use case.
Źródło:
Geomatics and Environmental Engineering; 2022, 16, 1; 117--144
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie danych scrapowanych w pomiarze dynamiki cen
Autorzy:
Juszczak, Adam
Powiązania:
https://bibliotekanauki.pl/articles/1033541.pdf
Data publikacji:
2021-03-02
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
inflacja
CPI
web‑scraping
Jevons
Dutot
GEKS‑J
GEKS‑D
łańcuchowy Jevons
łańcuchowy Dutot
zakupy on‑line
big data
inflation
Web‑scraping
Chained Jevons
online shopping
Big data
Opis:
Web‑scraping to technika, którą można wykorzystać do automatycznego pozyskiwania danych zamieszczonych na stronach internetowych. Wraz ze wzrostem popularności zakupów on‑line coraz więcej sklepów i usługodawców zainwestowało w strony WWW z ofertą cenową. Przekłada się to na możliwość automatycznego ściągania przez badaczy cen detalistów z wielu branż, m.in. odzieżowej czy spożywczej. Wykorzystanie danych scrapowanych skutkuje nie tylko znaczącym obniżeniem kosztów badania cen, ale także poprawia precyzję szacunków inflacji i daje możliwość śledzenia jej w czasie rzeczywistym. Z tego względu web‑scraping jest dziś popularnym obiektem badań zarówno ośrodków statystycznych (Eurostat, brytyjski Office of National Statistics, belgijski Statbel), jak i uniwersytetów (m.in. Billion Prices Project prowadzony w Massachusetts Institute of Technology). Zastosowanie danych scrapowanych do liczenia inflacji wiąże się jednak z wieloma wyzwaniami na poziomie ich zbierania, przetwarzania oraz agregacji. Celem artykułu jest zbadanie możliwości wykorzystania danych scrapowanych do analizy dynamiki cen zabawek, a w szczególności porównanie wyników uzyskanych za pomocą różnych formuł indeksowych. W opracowaniu przedstawiono wynik badania empirycznego na podstawie danych pochodzących z czterech sklepów (z 53 wybranych produktów sprzedawanych w Amazonie, Wallmarcie, Smarterkids oraz KBkids).
Web‑scraping is a technique used to automatically extract data from websites. After the rise‑up of on‑lines shopping (which results in more shops posting their full price offer on their websites) it allows to acquire information about prices of goods sold by the retailers such as supermarkets or internet shops. Usage of web‑scraped data allows to lower the costs, improve the measurement quality and monitor the price change in real time. Due to before mentioned reasons this method became the object of research studies from both statistical offices (Eurostat, British Office of National Statistics, Belgium Statbel) and universities (for ex. Billion Prices Project conducted on MIT). However, usage of scrapped data for the CPI calculation entails with multiple challenges with their collection, processing and aggregation. The purpose of this article is to examine the possibility of using scrapped data in toy price dynamic analysis. Especially the purpose is to compare the results from different inde Xformulas. In this article the empirical study based on data from 4 different shops is presented (53 chosen products sold in Amazon, Wallmart, Smarterkids and KBKids).
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2021, 1, 352; 25-37
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Domain WEB Monitoring
Autorzy:
Kluska-Nawarecka, S.
Opaliński, A.
Wilk-Kołodziejczyk, D.
Powiązania:
https://bibliotekanauki.pl/articles/381651.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
web monitoring
foundry industry
data integration
monitoring Internetu
przemysł odlewniczy
integracja danych
Opis:
The last few years have seen a very dynamic development of the Internet worldwide. This is related to the rapid growth of the amount of information stored in its resources. The vast amount of data, impossible to be analyzed by man, is the reason why finding and selecting valuable information from a large number of results returned by search engines has recently become the task very difficult. Another problem is the low quality of the data contained in a large part of the results returned by search engines. This situation poses serious problems if one searches for detailed information related to the specific area of industry or science. In addition, the lack of effective solutions, allowing for continuous monitoring of WEB in terms of the search for emerging information while maintaining the high quality of the returned results, only aggravates this situation. Due to this state of affairs, a solution highly welcome would be a system allowing for continuous monitoring of the WEB and searching for valuable information from the selected Internet resources. This paper describes a concept of such a system along with its initial implementation and application to search for information in the foundry industry. The results of a prototype implementation of this system were presented, and plans for its further development and adaptation to other sectors of the industry were outlined.
Źródło:
Archives of Foundry Engineering; 2015, 15, 2 spec.; 43-46
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A k-Nearest Neighbors Method for Classifying User Sessions in E-Commerce Scenario
Autorzy:
Suchacka, G.
Skolimowska-Kulig, M.
Potempa, A.
Powiązania:
https://bibliotekanauki.pl/articles/308645.pdf
Data publikacji:
2015
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
data mining
e-commerce
k-Nearest Neighbors
k-NN
log file analysis
online store
R-project
supervised classification
web mining
Web store
Web traffic
Web usage mining
Opis:
This paper addresses the problem of classification of user sessions in an online store into two classes: buying sessions (during which a purchase confirmation occurs) and browsing sessions. As interactions connected with a purchase confirmation are typically completed at the end of user sessions, some information describing active sessions may be observed and used to assess the probability of making a purchase. The authors formulate the problem of predicting buying sessions in a Web store as a supervised classification problem where there are two target classes, connected with the fact of finalizing a purchase transaction in session or not, and a feature vector containing some variables describing user sessions. The presented approach uses the k-Nearest Neighbors (k-NN) classification. Based on historical data obtained from online bookstore log files a k-NN classifier was built and its efficiency was verified for different neighborhood sizes. A 11-NN classifier was the most effective both in terms of buying session predictions and overall predictions, achieving sensitivity of 87.5% and accuracy of 99.85%.
Źródło:
Journal of Telecommunications and Information Technology; 2015, 3; 64-69
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Supporting Analogy-based Effort Estimation with the Use of Ontologies
Autorzy:
Kowalska, J.
Ochodek, M.
Powiązania:
https://bibliotekanauki.pl/articles/384110.pdf
Data publikacji:
2014
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
ontology
data is modeled using Semantic Web
method of supervised case-based reasoning
Opis:
The paper concerns effort estimation of software development projects, in particular, at the level of product delivery stages. It proposes a new approach to model project data to support expert-supervised analogy-based effort estimation. The data is modeled using Semantic Web technologies, such as Resource Description Framework (RDF) and Ontology Language for the Web (OWL). Moreover, in the paper, we define a method of supervised case-based reasoning. The method enables to search for similar projects’ tasks at different levels of abstraction. For instance, instead of searching for a task performed by a specific person, one could look for tasks performed by people with similar capabilities. The proposed method relies on ontology that defines the core concepts and relationships. However, it is possible to introduce new classes and relationships, without the need of altering the search mechanisms. Finally, we implemented a prototype tool that was used to preliminary validate the proposed approach. We observed that the proposed approach could potentially help experts in estimating non-trivial tasks that are often underestimated.
Źródło:
e-Informatica Software Engineering Journal; 2014, 8, 1; 53-64
1897-7979
Pojawia się w:
e-Informatica Software Engineering Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Web-based Digital Lexicographic Bilingual Resources
Autorzy:
Dutsova, Ralitsa
Powiązania:
https://bibliotekanauki.pl/articles/676996.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Instytut Slawistyki PAN
Tematy:
web-application
bilingual resources
lexicographic resources
digital resources
dictionary
aligned corpus
data mining
Opis:
Web-based Digital Lexicographic Bilingual ResourcesThe paper presents briefly a web-based system for creation and management of bilingual resources with Bulgarian as one of the paired language. This is useful and easy to use tool for collection and management of a large amount of different linguistic knowledge. The system uses two sets of natural language data: bilingual dictionary and aligned text corpora
Źródło:
Cognitive Studies; 2015, 15
2392-2397
Pojawia się w:
Cognitive Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
La privacy nel diritto canonico e i rapporti con le legislazioni nazionali della Comunità Europea
Privacy in Canon Law and the relations with national laws of the European Community
Autorzy:
INTERGUGLIELMI, ANTONIO
Powiązania:
https://bibliotekanauki.pl/articles/662259.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Tematy:
privacy
dati personali
riservatezza
buona fama
archivi
Curia
Europa
Internet
dati
web based
personal data
confidentiality
good reputation
archives
Europe
data
Opis:
With the progressive use of computer systems and with the growing use of media, especially in recent years with the growing spread of internet and social media, the issue of personal data protection has created new needs that require adjustment of canonical regulation. The new issues concerning protection, often made very complex by the difficulty of stifling a phenomenon of "information transmission and therefore also of data" in continuous technological expansion, have made necessary to adapt the rules about privacy protection, to the European Community rules and to the individual countries rules that have to get them and that we will deal with them in our study. Church, which has always been the custodian of memory and history of peoples, through ecclesiastical archives, dioceses, monasteries and even each parish, is required therefore to ensure the protection of the data in its possession, which represent the life of the its churchgoers. In addition, among its fundamental rights, the law of the Church has always recognized the respect of the person, including “the right to the respect of good reputation and confidentiality of each person", which is enshrined in the Code of Canon Law of 1983 in canon 220. Besides, personal data protection involves the connection between the Church's legal order and the laws of the States: in the legislation of many nations, laws that protect the processing of personal data have been promulgated; those rules have to be kept by the National Bishops' Conferences to regulate and adapt the canonical regulation on the treatment of the so-called "sensitive" data to them.
Con il progressivo utilizzo dei sistemi informatici e con l’espansione dell’utilizzo dei media, in modo particolare negli ultimi anni con il crescente diffondersi di internet e dei social media, la questione della tutela dei dati personali ha fatto sorgere nuove esigenze che richiedono un adeguamento della normativa canonica. Le nuove problematiche di tutela, spesso rese molto complesse dalla difficoltà di arginare un fenomeno di “trasmissione di informazioni e quindi anche di dati” in continua espansione tecnologica, hanno reso necessario adeguare la normativa di tutela della privacy sia a livello di norme della Comunità Europea, che dei singoli paesi tenuti a recepirle, di cui ci occuperemo nel nostro studio. La Chiesa, che da sempre è depositaria della memoria e della storia dei popoli, attraverso gli archivi ecclesiastici, delle diocesi, dei monasteri e anche delle singole parrocchie, è dunque tenuta a garantire la tutela dei dati in suo possesso, che rappresentano la vita dei suoi fedeli. Inoltre il diritto della Chiesa da sempre riconosce tra i suoi diritti fondamentali il rispetto della persona, tra cui rientra anche quello del “diritto al rispetto della buona fama e della riservatezza di ogni persona”, che viene sancito nel Codice di diritto canonico del 1983 al canone 220. La tutela dei dati personali coinvolge inoltre il rapporto tra l’ordinamento della Chiesa e le norme giuridiche degli Stati: nella legislazione di molte nazioni sono state promulgate leggi che tutelano il trattamento dei dati personali, norme che vanno tenute presenti dalle Conferenze Episcopali Nazionali per disciplinare e adeguare ad esse la normativa canonica sul trattamento dei dati cosiddetti “sensibili”.  
Źródło:
Prawo Kanoniczne; 2017, 60, 4; 41-66
2353-8104
Pojawia się w:
Prawo Kanoniczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Improving the university recruitment process with web analytics
Autorzy:
Wiechetek, Łukasz
Mędrek, Marek
Powiązania:
https://bibliotekanauki.pl/articles/27313747.pdf
Data publikacji:
2022
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
data science
data science education
e-marketing
web analytics
heatmap
recruitment
nauka o danych
edukacja z zakresu danych
analityka internetowa
mapy ciepła
rekrutacja
Opis:
Purpose: The main aim of the article is to know the information needs of candidates for university courses and indicate the importance of web analytics tools in the university recruitment process. The authors present the recruitment process for data science high study programme that was conducted in the middle of 2021 at one of the biggest universities in eastern Poland. Theoretical background: Digital transformation is an irreversible process today. Data produced by people, things, administration units and business organizations can be the source of valuable information. That transformation causes new possibilities for fast development, but also creates challenges for education processes and professional work. Furthermore, the digital transformation resulted in creating new professions like data science (DS). Because of data volume and its importance DS professionals became one of the most wanted specialists in the 21st century, and therefore many universities try to launch new study programs related to automated data processing and try to get the attention of potential students. Design/methodology/approach: The process was supported with analytics tools Hotjar and Google Analytics. The results presented in the paper base on the analysis of 974 pageviews recorded by Hotjar and activity of 824 page users reported by Google Analytics. Findings: The analysis showed that web analytics tools are very easy to use in the recruitment process, and that gathered data allows for better understanding of candidates' needs and improving the future requirement processes and tools. Results indicated that the most important topics for candidates were study programme and payment. Form the technical point of view the responsiveness of applications used for the recruitment process is crucial because a lot of traffic was generated by both users of desktop computers and mobile devices. The greatest interest in the program was recorded before the holiday months. Originality/value: The research contributes to academia in the field of recruitment. Paper presents the data science high study programme and indicates the importance of web analytics tools in the university recruitment process.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2022, 158; 679--695
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The evaluation of (big) data integration methods in tourism
Ocena metod integracji danych dotyczących turystyki z uwzględnieniem big data
Autorzy:
Cierpiał-Wolan, Marek
Stateva, Galya
Powiązania:
https://bibliotekanauki.pl/articles/31232009.pdf
Data publikacji:
2023-12-29
Wydawca:
Główny Urząd Statystyczny
Tematy:
data integration methods
tourism survey frame
web scraping
metody integracji danych
operat do badań turystyki
Opis:
In view of many dynamic changes taking place in the modern world due to the pandemic, the migration crisis, armed conflicts, etc., it is a huge challenge for official statistics to provide good-quality information, which should be available almost in real time. In this context, integration of data from multiple sources, in particular big data, is a prerequisite. The aim of the article is to characterise and evaluate the following selected methods of data integration in tourism statistics: Natural Language Processing (NLP), machine learning algorithm, i.e. K-Nearest Neighbours (K-NN) using TF-IDF and N-gram techniques, and Fuzzy Matching, belonging to probabilistic methods. In tourism surveys, data acquired using web scraping deserve special attention. For this reason, the analysed methods were used to combine data from booking portals (Booking.com, Hotels.com and Airbnb.com) with a tourism survey frame. An attempt was also made to answer the question of how the data obtained from web scraping of tourism portals improved the quality of the frame. The study showed that Fuzzy Matching based on the Levenshtein algorithm combined with Vincenty’s formula was the most effective among all tested methods. In addition, as a result of data integration, it was possible to significantly improve the quality of the tourism survey frame in 2023 (an increase in the number of new accommodation establishments in Poland by 1.1% and in Bulgaria by 1.4%).
W obliczu wielu dynamicznych zmian zachodzących we współczesnym świecie, spowodowanych m.in. pandemią COVID-19, kryzysem migracyjnym i konfliktami zbrojnymi, ogromnym wyzwaniem dla statystyki publicznej jest dostarczanie informacji dobrej jakości, które powinny być dostępne niemalże w czasie rzeczywistym. W tym kontekście warunkiem koniecznym jest integracja danych, w szczególności big data, pochodzących z wielu źródeł. Głównym celem badania omawianego w artykule jest charakterystyka i ocena wybranych metod integracji danych w statystyce w dziedzinie turystyki: przetwarzania języka naturalnego (Natural Language Processing – NLP), algorytmu uczenia maszynowego, tj. K-najbliższych sąsiadów (K-Nearest Neighbours – K-NN), z wykorzystaniem technik TF-IDF i N-gramów, oraz parowania rozmytego (Fuzzy Matching), należących do grupy metod probabilistycznych. W badaniach dotyczących turystyki na szczególną uwagę zasługują dane uzyskiwane za pomocą web scrapingu. Z tego powodu analizowane metody wykorzystano do łączenia danych pochodzących z portali rezerwacyjnych (Booking.com, Hotels.com i Airbnb.com) z operatem do badań turystyki. Posłużono się danymi dotyczącymi Polski i Bułgarii, pobranymi w okresie od kwietnia do lipca 2023 r. Podjęto także próbę odpowiedzi na pytanie, jak dane uzyskane z web scrapingu wpłynęły na poprawę jakości operatu. Z przeprowadzonego badania wynika, że najbardziej przydatne spośród testowanych metod jest parowanie rozmyte oparte na algorytmach Levenshteina i Vincenty’ego. Ponadto w wyniku integracji danych udało się znacząco poprawić jakość operatu do badań turystyki w 2023 r. . (wzrost liczby nowych obiektów w Polsce o 1,1%, a w Bułgarii – o 1,4%).
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 12; 25-48
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Prawne warunki stosowania cookies
Legal Conditions of Using Cookies
Autorzy:
Piątek, Stanisław
Powiązania:
https://bibliotekanauki.pl/articles/508187.pdf
Data publikacji:
2015-10-31
Wydawca:
Uniwersytet Warszawski. Wydawnictwo Naukowe Wydziału Zarządzania
Tematy:
K23
cookies
obowiązek informacyjny
zgoda
przeglądarka
dane osobowe
information obligation
consent
Web browser
personal data
Opis:
Przedmiotem artykułu jest stosowanie cookies przez dostawców usług telekomunikacyjnych, usług świadczonych drogą elektroniczną oraz dostawców usług reklamowych. Celem opracowania jest wskazanie dopuszczalnych sposobów wykonania obowiązku informacyjnego i obowiązku uzy-skania zgody, a także zakresu zwolnień z tych obowiązków w świetle dorobku interpretacyjnego Grupy Roboczej ds. Artykułu 29, regulatorów innych państw członkowskich UE i krajowej praktyki. Problemy cookies są rozpatrywane głównie w świetle przepisów prawa telekomunikacyjnego, ale z uwzględnieniem wymagań wynikających z przepisów o ochronie danych osobowych.
The subject matter of this article centers on the use of cookies by providers of telecommunications services, information society services, and advertising services. The goal of the analysis is to identify the permissible forms of performing the information obligation and acquiring subscribers’ consent for the use of cookies. The paper also considers the scope of the exclusion of these duties in light of the opinions of Article 29 of the Data Protection Working Party, regulatory bodies of EU countries other than Poland, and Polish practice. The issues of cookies are analyzed in the light of Polish Telecommunications Law provisions and respective provisions on the protection of personal data.
Źródło:
internetowy Kwartalnik Antymonopolowy i Regulacyjny; 2015, 4, 6; 49-72
2299-5749
Pojawia się w:
internetowy Kwartalnik Antymonopolowy i Regulacyjny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of data mining techniques to find relationships between the dishes offered by a restaurant for the elaboration of combos based on the preferences of the diners
Autorzy:
Vazquez, Rosa Maria
Bonilla, Edmundo
Sanchez, Eduardo
Atriano, Oscar
Berruecos, Cinthya
Powiązania:
https://bibliotekanauki.pl/articles/118001.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
data mining
association rules
apriori algorithm
combos
Web Service
eksploracja danych
reguły asocjacji
algorytm a priori
kombinacje
Opis:
Currently, blended food has been a common menu item in fast food restaurants. The sales of the fast-food industry grow thanks to several sales strategies, including the “combos”, so, specialty, regional, family and buffet restaurants are even joining combos’ promotions. This research paper presents the implementation of a system that will serve as support to elaborate combos according to the preferences of the diners using data mining techniques to find relationships between the different dishes that are offered in a restaurant. The software resulting from this research is being used by the mobile application Food Express, with which it communicates through webservices. References
Źródło:
Applied Computer Science; 2019, 15, 2; 73-88
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using Web Services to enhance Geographic Information Systems
Autorzy:
Ladner, R.
Petry, F.
Warner, E.
Gupta, K.
Powiązania:
https://bibliotekanauki.pl/articles/970472.pdf
Data publikacji:
2006
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
ontologia
usługa WWW
dane przestrzenne
system informacji przestrzennej
ontology
web services
spatial data
GIS
geographic information systems
Opis:
In this paper we describe an approach to the extension of geographic information systems to take advantage of the continuing development of capabilities of the Semantic Web. This is presented in the context of a portal based Geospatial Information Database (GIDB™), an object-oriented spatial database capable of storing multiple data types from multiple sources. We have developed our approach for a specific domain, spatially oriented, meteorological and oceanographic, but this can clearly be applied to other Spatial data domains. Finally we illustrate the use of the ontology development system based on Generative Sublanguage Ontologies (GSO), a type of linguistic ontology inspired by the Generative Lexicon Theory, to develop effective domain ontologies.
Źródło:
Control and Cybernetics; 2006, 35, 1; 29-46
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Algorithm CFP-SFPwith parallel processing
Autorzy:
Kujawiak, M.
Powiązania:
https://bibliotekanauki.pl/articles/92930.pdf
Data publikacji:
2008
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tematy:
association rules
data mining
web logs
a priori
a priori TID
a priori hybrid algorithm
FP-Tree
Opis:
Existing algorithms for finding association rules do not implement parallel processing. This paper proposes CFP-SFP (Creating Frequent Patterns with Set from Frequent Patterns) algorithm with parallel processing. The research involves running CEP-SEP algorithm with one thread and a dozen or so threads that are executed simultaneously. The research was conducted on a computer with one processor and dual-core processor.
Źródło:
Studia Informatica : systems and information technology; 2008, 1(10); 87-93
1731-2264
Pojawia się w:
Studia Informatica : systems and information technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wpływu ustawy o infrastrukturze informacji przestrzennej na proces tworzenia włączania do infrastruktury informacji przestrzennej miejscowych planów zagospodarowania przestrzennego
Impact analysis of the inspire directive on land-use planning publication and development
Autorzy:
Izdebski, W.
Malinowski, Z.
Powiązania:
https://bibliotekanauki.pl/articles/372000.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
planowanie przestrzenne
GIS
INSPIRE
infrastruktura danych przestrzennych
usługi sieciowe
land-use planning
spatial data infrastructure (SDI)
web services
Opis:
Wejście w życie Dyrektywy INSPIRE w maju 2007 r. oraz uchwalona w marcu 2010 r. ustawa o infrastrukturze informacji przestrzennej spowodowały zmianę sposobu myślenia o danych przestrzennych w samorządach, zwłaszcza w obszarze zagospodarowania przestrzennego. Autorzy analizują stan dotychczasowej informatyzacji w sferze zagospodarowania przestrzennego powodowanej zarówno koniecznością budowy infrastruktury danych przestrzennych, jak też realnymi potrzebami usprawnienia procesów decyzyjnych w zarządzaniu jednostkami. Analizę przeprowadzono na grupie ponad 1700 samorządów, które są użytkownikami technologii zarządzania danymi przestrzennymi eGmina.
The INSPIRE Directive went into force in May 2007 and it resulted in changing the way of thinking about spatial data in local government. Transposition of the Directive on Polish legislation is the Law on spatial information infrastructure from 4 March 2010., which indicates the need for computerization of spatial data sets (including land-use planning). This act resulted in an intensification of thinking about the computerization of spatial data, but, according to the authors, the needs and aspirations of the digital land-use planning crystallized already before the INSPIRE Directive and were the result of technological development and increasing the awareness of users. The authors analyze the current state of land-use planning data computerizationin local governments. The analysis was conducted on a group of more than 1,700 local governments, which are users of spatial data management (GIS) technology eGmina.
Źródło:
Zeszyty Naukowe. Inżynieria Środowiska / Uniwersytet Zielonogórski; 2017, 165 (45); 76-85
1895-7323
Pojawia się w:
Zeszyty Naukowe. Inżynieria Środowiska / Uniwersytet Zielonogórski
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The geovisualisation window of the temporal and spatial variability for Volunteered Geographic Information activities
Okno geowizualizacji czasowo-przestrzennej zmienności dla działalności Volunteered Geography Information
Autorzy:
Medyńska-Gulij, B.
Myszczuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/145548.pdf
Data publikacji:
2012
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
wizualizacja danych geograficznych
technologia internetowa
geovisualisation window
Volunteered Geographic Information
visualising times-spatial data
open sources
web technology
Opis:
This study presents an attempt to design geographical visualisation tools that allow to tackle the immensity of spatial data provided by Volunteered Geographic Information (VGI), both in terms of temporal and spatial aspects. In accordance with the assumptions made at the conceptual stage, the final action was the implementation of the window entitled ‘Geovisualisation of the Panoramio.com Activities in District of Poznan 2011’ into the web browser. The concept has been based on a division of the geovisualisation window into three panels, of which the most important - in order to capture spatial variability - have statistical maps at the general level (dot map and choropleth map), while at the detailed level - a dot map on a topographic reference map or tourist map. For two ranges, temporal variability is presented by graphs, while a review of attributes of individual activities of the social website in question is set forward in the table panel. The element that visually interlinks all of the panels is the emphasised individual activity.
Problemem podjętym w tych badaniach stało się wykorzystanie metod z nurtu geograficznej wizualizacji do wskazania cech fenomenu VGI w zakresie zmienności czasowo-przestrzennej. Zgodnie z założeniami poczynionymi w etapie koncepcyjnym finalnym działaniem stało się zaimplementowanie do przeglądarki internetowej okna pod tytułem: ”Geowizualizacja aktywności społeczności Panoramio.com w powiecie poznanskim w 2011 roku”. Koncepcja została oparta na podziale okna geowizualizacji na trzy panele, z których najważniejsze znaczenie dla uchwycenia zmienności przestrzennej na poziomie ogólnym ma kartogram, natomiast na poziomie szczegółowym mapa kropkowa wyświetlana na podkładzie mapy topograficznej lub turystycznej. Zmienność czasowa w dwóch zakresach prezentują wykresy, a przegląd atrybutów poszczególnych aktywności prezentowanego portalu społecznościowego zapewnia tabela. Elementem spajającym wizualnie wszystkie panele jest wyeksponowana graficznie pojedyncza aktywność. Przetwarzanie danych odbyło się w środowisku open source, a technologia funkcjonowania aplikacji okna geowizualizacji bazowała na zastosowaniu asynchronicznych zapytań do serwera WWW oraz serwera baz danych co zapewnia sprawne „odświeżanie” poszczególnych paneli.
Źródło:
Geodesy and Cartography; 2012, 61, 1; 31-45
2080-6736
2300-2581
Pojawia się w:
Geodesy and Cartography
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Idea wykorzystania usług sieciowych do tworzenia map tematycznych wykorzystujących dane satelitarne
The idea of using web services in creating thematic maps based on satellite data
Autorzy:
Fiedukowicz, A.
Pillich-Kolipińska, A.
Powiązania:
https://bibliotekanauki.pl/articles/346264.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
usługi sieciowe
dane satelitarne
mapy tematyczne
architektura zorientowana na użytkownika
web services
satellite data
thematic maps
user-oriented architecture
Opis:
Wyzwanie opracowania map tematycznych towarzyszy polskiej służbie geodezyjnej i kartograficznej od dawna. Założenia historycznej już instrukcji K-3 z początku lat 80. ubiegłego wieku z czasem ewoluowały do postaci obecnie obowiązującego rozporządzenia Rady Ministrów w sprawie rodzajów kartograficznych opracowań tematycznych i specjalnych. Dokument ten zakłada wykonanie i udostępnienie przez GGK dziesięciu rodzajów opracowań tematycznych. Intensywny w ostatnim czasie rozwój infrastruktury informacji przestrzennej narzuca wręcz rozwiązania bazujące na wykorzystaniu portali tematycznych, gdzie użytkownik przy pomocy kreatora prezentacji będzie w stanie utworzyć własną mapę z aktualnych danych, w tym danych satelitarnych. Wobec tak zdefiniowanej idei tworzenia map tematycznych niezbędne jest jednak wykorzystanie sieciowych usług geoinformacyjnych OGC. Opracowanie prostej mapy tematycznej w oparciu o zintegrowane dane mogłoby odbywać się poprzez wykorzystanie popularnej obecnie usługi przeglądania danych, WMS (ang. Web Map Service). Niemniej jednak, większą funkcjonalność może zapewnić implementacja sieciowej usługi przetwarzania danych, WPS (ang. Web Processing Service). Jej istotę stanowi możliwość wykonywania procesów geoprzestrzennych z poziomu aplikacji klienckiej - procesów zarówno predefiniowanych w samej usłudze, jak i zewnętrznych (dedykowanych), zapisanych przy pomocy języka XML i traktowanych jako system „wtyczek” (ang. plug-in). Takie podejście pozwala na stosowanie rozwiązań dedykowanych, unikalnych, dostosowanych do potrzeb konkretnego użytkownika, a także implementowanie metodyki przez niego zaproponowanej. Procesem może być tu dowolny, dobrze zdefiniowany, algorytm, model lub formuła obliczeniowa, działająca na danych posiadających odniesienie przestrzenne. Usługa WPS umożliwia zatem całościowe modelowanie danych przestrzennych, w tym pozyskanych za pomocą technologii satelitarnych. Istotną zaletą proponowanego rozwiązania jest możliwość indywidualizacji usługi poprzez tworzenie nowych i modyfikację istniejących wtyczek.
Polish geodetic and cartographic service has faced the challenge of edition of thematic maps for a long time. Assumptions of already historical K-3 instruction from the beginning of '80s evolved into the form of currently valid regulation of the Council of Ministers on types of cartographic thematic and special maps. This document has established the edition and provision of ten types of thematic maps by the Surveyor General of Poland. The recently observed intensive development of spatial data infrastructure nearly imposes solutions based on thematic portals. In such a portal the user (employing the presentation wizard) is able to create individual map out of up-to-date data, including satellite images. However, in view of so defined idea of creating thematic maps, it is necessary to use OGC geospatial Web services. Edition of simple thematic maps, based on integrated data, may be carried out by the popular view service - WMS (Web Map Service). However, much more functionality can be provided by implementation of transformation services like WPS (Web Processing Service). Its essence is to provide geospatial processes at the client application level. Those processes can be predefined internally in the service, or can be defined externally in the form of dedicated plugins with the help of XML language. This approach allows for application of unique solutions, adjusted to the user needs, as well as for the implementation of the methodology proposed by user itself. Any well defined algorithm, model or algebraic formula, working on spatial data may be understood as a process. Thereby, WPS enables holistic spatial data modeling, including modeling of the data provided by satellite technologies. The important advantage of the proposed solution is the possibility of services individualization by creation of new and modification of already existing plugins.
Źródło:
Roczniki Geomatyki; 2013, 11, 5(62); 13-23
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza głównych problemów integracji powiatowych usług WMS dotyczących danych ewidencji gruntów i budynków
Analysis of main problems of integration of district WMS services concerning cadastral data
Autorzy:
Izdebski, W.
Powiązania:
https://bibliotekanauki.pl/articles/346492.pdf
Data publikacji:
2018
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
usługi sieciowe
WMS
infrastruktura danych przestrzennych
ewidencja gruntów i budynków
Web services
spatial data infrastructure
land and buildings register
Opis:
Działki ewidencyjne to podstawowe dane referencyjne dla prezentacji różnych obiektów zgromadzonych w bazach danych przestrzennych. Dane te rozproszone są w 380 bazach powiatowych, z czego ponad 85% z nich udostępnianych jest poprzez usługę przeglądania WMS. W 2017 roku na bazie istniejących usług powiatowych powstała usługa zbiorcza – Krajowa Integracja Ewidencji Gruntów KIEG. Artykuł opisuje różnice pomiędzy usługami składowymi – zarówno pod względem formy prezentacji danych, jak i implementacji technicznej, oraz przedstawia problemy, z którymi zetknięto się podczas tworzenia usługi zbiorczej i dodawania do niej kolejnych serwisów.
Cadastral parcels are the basic reference data for presentation of various objects stored in spatial databases. Those data are distributed in 380 district bases; over 85% of them are available through the WMS view services. In 2017 the aggregating service was created – Krajowa Integracja Ewidencji Gruntów KIEG (The National Integration of Land Register), based on existing district services. The paper describes differences between component services – both in terms of data presentation forms and technical implementation, and presents the problems that were encountered during creation of the aggregating service and adding new services.
Źródło:
Roczniki Geomatyki; 2018, 16, 4(83); 319-331
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inżynieria zabezpieczeń aplikacji internetowych na podstawie analizy zagrożeń i rekomendacji OWASP
Security engineering of web applications based on threat analysis and OWASP recommendations
Autorzy:
Sołtysik-Piorunkiewicz, Anna
Krysiak, Monika
Powiązania:
https://bibliotekanauki.pl/articles/586682.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Bezpieczeństwo aplikacji internetowych
Bezpieczeństwo danych i informacji
Inżynieria zabezpieczeń
Open Web Application Security Project (OWASP)
Zagrożenia internetowe
Data and information security
Security engineering
Security of web applications
Threats and vulnerabilities
Opis:
W artykule przedstawiono zagrożenia bezpieczeństwa aplikacji internetowych w projektowaniu i budowie systemów informatycznych w oparciu o wytyczne wynikające z inżynierii bezpieczeństwa oprogramowania. Zidentyfikowano różnorodność i zmienność zagrożeń zabezpieczeń aplikacji internetowych. Celem zaprezentowanych badań jest analiza trendu występowania zagrożeń aplikacji internetowych na podstawie danych fundacji OWASP opublikowanych w latach 2003-2017. W pierwszym punkcie artykułu przedstawiono rolę i zadania fundacji OWASP na tle wytycznych opracowanych przez organizacje zajmujące się bezpieczeństwem aplikacji internetowych. W drugim scharakteryzowano najczęstsze zagrożenia bezpieczeństwa aplikacji internetowych. W trzeciej części dokonano analizy występowania i porównano częstość zagrożeń aplikacji internetowych w latach 2003-2017, a w czwartej przedstawiono sposoby zabezpieczenia aplikacji internetowych oraz rekomendacje do uwzględnienia w projektowaniu i budowie systemów informatycznych z zastosowaniem aplikacji internetowych oraz podczas ich eksploatacji.
The article presents the security threats of web applications in the design and development of information systems based on the guidelines resulting from software security engineering. The article identifies the variety and variability of security threats for web applications. The purpose of the presented research is to analyze the trend in the appearance of threats of web applications which are based on data collected by the OWASP Foundation published over the years 2003-2017. The first chapter of the article presents the role and tasks of the OWASP Foundation against guidelines developed by organizations dealing with the security of web applications. The second chapter describes the most common security threats of web applications. The third chapter analyses the occurrence and compares the frequency of threats to Internet applications in the years 2003-2017, and finally, the fourth chapter presents the ways of protecting web applications and recommendations to be taken into consideration in the design and development of IT systems using web applications and during their usage.
Źródło:
Studia Ekonomiczne; 2019, 390; 91-104
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Koncepcja metodyki akwizycji danych z urządzeń pomiarowych w laboratorium mobilnym
The concept of data acquisition methods for mobile laboratory measuring devices
Autorzy:
Plewa, R.
Plewa, P.
Powiązania:
https://bibliotekanauki.pl/articles/395689.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
ekstrakcja danych
eksploracja danych
RFID
usługi sieciowe
wagi
akwizycja danych
laboratorium mobilne
produkcja wołowiny
optymalizacja produkcji
data mining
web services
weigh scales
data acquisition
mobile laboratories
beef production
production optimization
Opis:
W artykule przedstawiono koncepcję metodyki akwizycji danych z urządzeń po-miarowych zainstalowanych w mobilnym laboratorium badawczym. Propozycja przewiduje ocenę aplikacyjności zastosowania technologii Usług Sieciowych (Web Services) w bezprzewodowej transmisji danych z pomiarów wag przy użyciu wagi Tru-Test 3000. Transmisja danych realizowana jest w oparciu o Usługi Sieciowe zbudowane na platformie Microsoft SharePointŽ. Identyfikacjaważonych zwierząt realizowana przy pomocy tagów RFID, zgodnych ze stosowanymi w Unii Europejskiej normami ISO 11784 oraz ISO 11785.Zebrane w ten sposób dane, poddane procesowi ich oczyszczania, kontroli ich jakości i wstępnej analizy pozwolą na dalsze ich przetwarzanie w celu pozyskania z nich wiedzy w procesie data miningu. Zastosowanie data miningu, pozwoli ocenić wpływ oraz istotność wybranych czynników produkcji wołowiny na te cechy mięsa, które są najbardziej znaczące z punktu widzenia konsumenta.
This article presents the concepts of methods used for data acquisition in mobile laboratory equip-ment. The proposal includes feasibility study and evaluation of Web Services technology used for wireless data transmission in electronic animal weigh scale Tru-Test 3000. Data transmission is accomplished through the use of Web Services built on Microsoft SharePointŽ platform. The identificationof examined animals is accomplished by use of RFID tags, that conforms the European Union's standards ISO 11784 and ISO 11785.The acquired data, processed for data cleaning, quality control and preliminary analysis will en-able further processing in purpose of knowledge extraction in data mining process. The use of data mining will enable the evaluation of influenceand significanceof selected beef production factors on the traits that are most important for consumers.
Źródło:
Postępy Nauki i Techniki; 2012, 13; 117-126
2080-4075
Pojawia się w:
Postępy Nauki i Techniki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessing the quality of open spatial data for mobile location-based services research and applications
Autorzy:
Ciepłuch, B.
Mooney, P.
Jacob, R.
Zheng, J.
Winstanely, A.
Powiązania:
https://bibliotekanauki.pl/articles/130346.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
database
GIS
mapping
data mining
spatial infrastructure
Internet/Web
accuracy
metadata
baza danych
mapowanie
eksploracja danych
infrastruktura przestrzenna
dokładność
metadane
Opis:
New trends in GIS such as Volunteered Geographical Information (VGI), Citizen Science, and Urban Sensing, have changed the shape of the geoinformatics landscape. The OpenStreetMap (OSM) project provided us with an exciting, evolving, free and open solution as a base dataset for our geoserver and spatial data provider for our research. OSM is probably the best known and best supported example of VGI and user generated spatial content on the Internet. In this paper we will describe current results from the development of quality indicators for measures for OSM data. Initially we have analysed the Ireland OSM data in grid cells (5km) to gather statistical data about the completeness, accuracy, and fitness for purpose of the underlying spatial data. This analysis included: density of user contributions, spatial density of points and polygons, types of tags and metadata used, dominant contributors in a particular area or for a particular geographic feature type, etc. There greatest OSM activity and spatial data density is highly correlated with centres of large population. The ability to quantify and assess if VGI, such as OSM, is of sufficient quality for mobile mapping applications and Location-based services is critical to the future success of VGI as a spatial data source for these technologies.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2011, 22; 105-116
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Effectiveness of business process management in B2B model
Efektywność zarządzania procesami biznesowymi w modelu B2B opartym o technologie internetowe
Autorzy:
Łobaziewicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/405818.pdf
Data publikacji:
2013
Wydawca:
Politechnika Częstochowska
Tematy:
business process management
efficiency
B2B
ICT
electronic data interchange
EDI
web technology
zarządzanie procesami biznesowymi
efektywność
elektroniczna wymiana danych
Opis:
A dynamic progress in development of ICT technologies based on B2B, as well as their application in order to improve business processes carried out between enterprises and their business partners, have gained much importance during recent years. It was influenced by such factors as developing and tightening national and international cooperation, high competitiveness, time pressure and striving for improvement of customer and business partners service quality. While the reference books provide many titles referring to the effectiveness of processes, it turns out that there is not enough research on the volume of this effectiveness on the economic, operational and organizational level, measured after having applied B2B system. Taking into consideration the above reasons, the paper provides an analysis and an assessment of the level of enterprise’s business processes effectiveness, resulting from application of integration platform based on B2B model and created using selected ICT technology of Electronic Data Interchange type.
Dynamiczny postęp w rozwoju technologii ICT opartych na modelu B2B i ich zastosowanie w celu usprawnienia procesów biznesowych realizowanych pomiędzy przedsiębiorstwami i ich partnerami biznesowymi w ciągu ostatnich lat nabrały dużego znaczenia. Wpływ na to mają takie czynniki jak rozwój i zacieśnianie współpracy krajowej oraz międzynarodowej, wysoka konkurencyjność, presja czasu, dążenie do poprawy jakości obsługi klientów i kontrahentów. O ile w literaturze przedmiotu można znaleźć wiele pozycji dotyczących efektywności procesów to okazuje się, że brakuje badań o wielkości tej efektywności na poziomie ekonomicznym, operacyjnym i organizacyjnym mierzonej po zastosowaniu systemu informatycznego typu B2B. Biorąc pod uwagę powyższe przesłanki, w artykule dokonano analizy i oceny poziomu efektywności procesów biznesowych przedsiębiorstwa w wyniku zastosowania platformy integracyjnej opartej na modelu B2B zbudowanej z wykorzystaniem wybranej technologii informatycznej ICT typu Electronic Data Interchange.
Źródło:
Polish Journal of Management Studies; 2013, 8; 179-191
2081-7452
Pojawia się w:
Polish Journal of Management Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The proposal of realization the OGC geospatial web services symbolization
Propozycja realizacji symbolizacji w serwisach usług geoprzestrzennych OGC
Autorzy:
Olejarz, G.
Powiązania:
https://bibliotekanauki.pl/articles/385843.pdf
Data publikacji:
2011
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
OGC web services
INSPIRE
SDI
bazy danych przestrzennych
WMS
Styled Layer Descriptor
SLD
GeoServer
OpenLayers
PostGIS
spatial data infrastructure (SDI)
databases
Opis:
In the mining industry there is a lack of good standards of creating the mining maps. Such documents are usually issued by non-free software for commercial purposes. Main aim of this article is to analyze the possibilities free and open standards for style spatial data, in according to Polish law and norms. Achieving this goal was possible because of system using Web Services, also based on open software and standards. This article presents installation and configuration of a geospatial service system based on free and open source software: GeoServer, PostGIS and OpenLayers. The sample vector mine data were converted and saved in the spatial database PostGIS and then they were published by using geodata server GeoServer as Web Map Service. Next there were created the portrayal styles of the mining maps elements. The main aim was the adaptation to Polish PKN norms: Mapy górnicze. Umowne znaki granic (Mining maps. Conventional symbols of borders) and Umowne znaki podziemnych wyrobisk górniczych (Conventional symbols of underground excavations). For these styles there were used SLD and SVG OGC standards. Last step was connected with creation of geospatial web services client using OpenLayers. It allowed to display maps just in web browser.
W pracy przedstawiono instalację i konfigurację systemu usług geoprzestrzennych opartych na oprogramowaniu typu „open source”: GeoServer, PostGIS oraz OpenLayers. Pozyskane przykładowe wektorowe dane kartograficzne mapy wyrobisk górniczych zostały skonwertowane oraz zapisane w przestrzennej bazie danych PostGIS, a następnie za pomocą serwera danych przestrzennych GeoServer zostały udostępnione w postaci usługi WMS. W kolejnym etapie stworzono style wyświetlania poszczególnych elementów mapy górniczej w celu dostosowania ich do norm górniczych PKN: Mapy górnicze. Umowne znaki granic oraz Umowne znaki podziemnych wyrobisk górniczych. Wykorzystano do tego standardy SLD oraz SVG, które posłużyły do resymbolizacji kartograficznej. Ostatnim krokiem było opracowanie klienta usług geoprzestrzennych przy użyciu biblioteki OpenLayers, który umożliwił wyświetlenie mapy w środowisku przeglądarki internetowej.
Źródło:
Geomatics and Environmental Engineering; 2011, 5, 2; 69-80
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Budowa modeli przepływu z wykorzystaniem danych infrastruktury geoinformacyjnej INSPIRE
Groundwater flow models construction with application of data from geoinformation infrastructure INSPIRE
Autorzy:
Michalak, J.
Powiązania:
https://bibliotekanauki.pl/articles/2063222.pdf
Data publikacji:
2008
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
modelowanie hydrogeologiczne
dane geoprzestrzenne
infrastruktura geoinformacyjna
webowa usługa map (WMS)
webowa usługa wyróżnień (WFS)
webowa usługa pokryć (WCS)
webowa usługa przetwarzania (WPS)
hydrogeological modelling
geospatial data
geospatial infrastructure
Web Map Service (WMS)
Web Feature Service (WFS)
Web Coverage Service (WCS)
Processing Service (WPS)
Opis:
Tradycyjne podejście do metodyki modelowania przepływu wody podziemnej ma niekorzystny wpływ na obecny rozwój tego działu hydrogeologii. Konsekwencją tego jest traktowanie danych wejściowych i wynikowych modeli jako „poprodukcyjne” pozostałości prac, których podstawowym celem jest papierowa mapa zawierająca wyniki lub tabelaryczne zestawienie arbitralnie wybranych wielkości liczbowych charakteryzujących warunki hydrogeologiczne. Szczegółowe i kompletne dane opracowane dla modelu lub uzyskane z symulacji są nieporównywalnie cenniejsze i koszty ich uzyskania są znaczne. Najczęściej jednak dane te przepadają bezpowrotnie. Z tego względu zastosowanie nowych technologii geoinformatycznych i teleinformatycznych do przechowywania i udostępniania tych danych jest sprawą bardzo ważną i wymagającą pilnych prac teoretycznych, eksperymentalnych i aplikacyjnych. Podstawę prawną dla wszelkich działań w tym zakresie stanowi dyrektywa INSPIRE, a podstawą w zakresie standardów są specyfikacje OGC i normy grupy ISO 19100.W tekście zawarte są przykłady koncepcji rozwiązań opartych na tych dokumentach.
Traditional approach to the methodology of groundwater flow modelling has adverse impact on current development of this branch of hydrogeology. In consequence, input data and results of simulations are treated as “postproduction” remains of work, which fundamental aim is a paper map comprising results or tabular list of arbitrarily selected numerical quantities describing hydrogeological conditions. Detailed and complete data for a model or obtained from simulation are incomparably more valuable, and acquiring costs are considerable.However, most often we lose these data irretrievably. For this reason, application of new geospatial data technologies and data communication technologies for storage and making these data available is currently a very important issue and needs urgent theoretical, experimental and implicational works. The INSPIRE Directive is a legislative base for all activities in this scope, together with OGC specifications and ISO 19100 group of standards. There are examples of conceptual solutions based on these documents in the text.
Źródło:
Biuletyn Państwowego Instytutu Geologicznego; 2008, 431, Hydrogeologia; 161--168
0867-6143
Pojawia się w:
Biuletyn Państwowego Instytutu Geologicznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Transmisja danych niemedialnych z wykorzystaniem WebRTC
Transmission of the non-media data with the use of the WebRTC
Autorzy:
Chodorek, A.
Chodorek, R. R.
Powiązania:
https://bibliotekanauki.pl/articles/310276.pdf
Data publikacji:
2017
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
dane niemedialne
transmisja danych niemedialnych
WebRTC
architektura WebRTC
technika WebRTC
architektura systemów konferencyjnych
system konferencyjny
non-media data
transmission of non-media data
WebRTC technology
Web Real-Time Communication
conference system
architecture of conference systems
Opis:
Architektura WebRTC umożliwia budowę połączeń konferencyjnych, którymi przesyłane są dane medialne (dźwięk z mikrofonu, obraz z kamery). Umożliwia ona również przesyłanie danych niemedialnych (pliki, obrazy, wykresy, ale również dane pomiarowe - np. pochodzące z Internetu Rzeczy). Dane niemedialne w systemach zgodnych z architekturą WebRTC przesyłane są równocześnie z danymi medialnymi, a transmisja odbywa się osobnym kanałem danych. W artykule przedstawione zostały istotne elementy techniki WebRTC wykorzystywane do transmisji danych niemedialnych. Przedstawiono sposób zarządzania połączeniem dla transmisji danych oraz procedury stosowane do wymiany danych. Opisane zostały sposoby reprezentacji danych niemedialnych dostępne w technice WebRTC. Przedstawione zostały również podstawowe elementy sygnalizacji, wykorzystywane podczas tworzenia sesji WebRTC dla transmisji danych niemedialnych.
This paper presents the most important elements of the WebRTC technology that are used for transmission of non-media data. Non media data (as files, pictures or results of measurements) are transmitted simultaneously with the media data (real-time transmission of multimedia information), although real-time constraints haven't to be preserved. The paper shows connection management and session setup for the purposes of transmission of non-media data.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2017, 18, 6; 1356-1359, CD
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating, Integration and Making Available Spatial Data with the Use of the State-of-the-Art Technologies
Aktualizacja, integracja i udostępnienie danych przestrzennych z wykorzystaniem najnowszych technologii
Autorzy:
Michałowska, K.
Głowienka-Mikrut, E.
Mikrut, S.
Bochenek, M.
Powiązania:
https://bibliotekanauki.pl/articles/385576.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
SDI
SIP
GIS
data integration
WMS and WFS Web services
open-source applications
IIP
integracja danych
usługi sieciowe WMS i WFS
aplikacje open source
Opis:
This paper presents possibilities for the utilization of spatial information derived from various sources (GPS field measurements, map scanning, data resources in centres for land survey and cartography documentation, orthophotomaps, WMS and WFS data, map Websites). It also draws attention to potential problems encountered in the process of data integration with the use of state-of-the-art processing technologies and making available geographical information. The authors also introduce the issue of the quality of processed data in the aspect of their accuracy and reliability, and the possibility of their incorporating into Spatial Data Infrastructure (SDI) resources.
W artykule przedstawiono możliwośd wykorzystania informacji przestrzennych pochodzących z różnych źródeł (pomiary terenowe GPS, skany map, zasoby danych w ośrodkach dokumentacji geodezyjnej i kartograficznej, ortofotomapy, dane WMS i WFS, serwisy mapowe). Opisano także potencjalne utrudnienia napotykane w procesie integracji danych z zastosowaniem najnowszych technologii przetwarzania i udostępniania informacji geograficznej. Autorzy poruszają także temat jakości przetworzonych danych w aspekcie ich dokładności i wiarygodności oraz możliwości włączenia do zasobów infrastruktury informacji przestrzennej (IIP).
Źródło:
Geomatics and Environmental Engineering; 2013, 7, 3; 57-67
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-44 z 44

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies