Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "web data" wg kryterium: Wszystkie pola


Tytuł:
Web data scraping for digital public relations analysis based on the example of companies installing photovoltaic systems
Autorzy:
Zdonek, Dariusz
Powiązania:
https://bibliotekanauki.pl/articles/27313485.pdf
Data publikacji:
2022
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
digital public relations
Polska
cities
photovoltaics
web scraping
cyfrowe public relations
Polska
miasta
fotowoltaika
Opis:
Purpose: The first objective of this article was an attempt at identifying the major differences between such terms as public relations (PR), digital public relations (DPR) and digital marketing (DM). The second objective was to employ selected web data scraping techniques to analyse DPR of service providers installing photovoltaic systems. Design/methodology/approach: The first objective of this article was achieved by analysing reference works. To achieve the second objective, the author used MS Excel, web scraping and proprietary computer scripts in R and Python. In this way, selected details were obtained from the companies catalogue at panoramafirm.pl and Google search engine, and then the received results were compared and analysed. What is more, the results from Google search engine were obtained and analysed for 964 towns and cities entered in the engine with the “photovoltaics” phrase. Findings: 50 thousand URLs were obtained and 1,755 unique website domain addresses were extracted. Analysing the content of websites at the obtained Internet domains, 6 major categories of websites were identified, which appeared in the first 10 search results for the photovoltaic-related queries. These are: Company Websites (CW), Blog Websites (BW), Announcement Services (AS), SEO Landing Pages (SLP), Public Announcement Pages (PAP) and Social Media Page (SMP). Each of these categories is characterised briefly and a few examples are provided for each of them. Research limitations/implications: The limitations of this article include the focus on one companies catalogue, i.e., panoramafirm.pl, and the results from Google search engine solely for the Polish language. Moreover, only the results of the first 10 links from Google engine for the single “photovoltaics” phrase and town/city name were taken into consideration. Originality/value: This article has a theoretical and practical value. The analysis allowed to identify six categories of websites, which may be analysed with respect to digital public relations in the area of photovoltaic system installation. The most important of them are the websites belonging to the Company Website (CW) and Social Media Page (SMP) types. This article is addressed to anyone interested in obtaining data from the Internet using web scraping technique and data analysis in the area of digital public relations (DPR).
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2022, 161; 365--380
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Visualization as support for web honeypot data analysis
Autorzy:
Cabaj, K.
Powiązania:
https://bibliotekanauki.pl/articles/94737.pdf
Data publikacji:
2015
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
HoneyPot systems
visualization
data mining
monitoring
systemy honeypot
wizualizacja
Opis:
The paper presents methodologies associated with visualization, which supports data analysis. Analyzed data has been gathered by HoneyPot systems deployed in the network of Institute of Computer Science. Due to the vast amounts of data, the manual analysis was almost impossible and very impractical, also considering time constraints. Introduced visualization techniques and supporting filtering features are implemented in HPMS (HoneyPot Management System). The paper describes in details two introduced methodologies which support data analysis using both charts and graphs. The first one is used for the discovery of basic activities observed by HoneyPot. The second one is used for advanced analysis of machines used during attacks concerning PhpMyAdmin software.
Źródło:
Information Systems in Management; 2015, 4, 1; 14-25
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Transfer wiedzy w rolnictwie a serwisy internetowe – przykład eksploracji danych sieciowych
Knowledge transfer in agriculture and websites – an example of web data mining
Autorzy:
Janc, K.
Powiązania:
https://bibliotekanauki.pl/articles/791023.pdf
Data publikacji:
2015
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Opis:
Celem artykułu jest określenie znaczenia i wykorzystania przez użytkowników internetowych serwisów instytucji, będących źródłem wiedzy dla rolników. Zagadnienie to przedstawiono w kontekście transferu wiedzy. Możliwość pozyskania i wykorzystana informacji, która może być przekształcona w wiedzę, nie zawsze musi przekładać się na zachowanie użytkowników w zakresie korzystania z określonych źródeł wiedzy. Opracowanie koncentruje się na randze serwisów z perspektywy ich użytkowania. Zagadnienie to przeanalizowano na podstawie rankingu Alexa. W wyniku przeprowadzonych badań stwierdzono, że z perspektywy użytkowników najważniejsze serwisy internetowe to portale rolnicze oraz portale należące do uczelni wyższych. W zakresie czasu spędzanego przez użytkowników na stronach internetowych instytucje rządowe (centralne) osiągają słabe rezultaty, w odróżnieniu od głównych portali rolniczych. Uwagę użytkowników najlepiej przyciągają te serwisy, które oferują możliwość pozyskania większych zasobów tzw. wiedzy nieskodyfikowanej.
This paper discusses selected aspects concerning the actual use of websites representing different groups of institutions that are considered potential sources of knowledge for farmers. It should be stressed that the potential to acquire and use information, which can be then converted into knowledge, will not necessarily translate into actual behaviour in terms of taking advantage of these sources. Given the above, this study focus on the actual use of those websites. This aspect was studied using data from the Alexa Ranking. It should be noted that most of the leading websites belong to the category of portals and universities. In terms of user time on site, governmental institutions achieve poor results, in stark contrast to the major portals. In terms of attracting user attention, those website that offer greater resources of uncodified knowledge (less accessible and transferable) are more successful.
Źródło:
Roczniki Naukowe Ekonomii Rolnictwa i Rozwoju Obszarów Wiejskich; 2015, 102, 1
2353-4362
Pojawia się w:
Roczniki Naukowe Ekonomii Rolnictwa i Rozwoju Obszarów Wiejskich
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Current challenges and possible big data solutions for the use of web data as a source for official statistics
Współczesne wyzwania i możliwości w zakresie stosowania narzędzi big data do uzyskania danych webowych jako źródła dla statystyki publicznej
Autorzy:
Daas, Piet
Maślankowski, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/31232088.pdf
Data publikacji:
2023-12-29
Wydawca:
Główny Urząd Statystyczny
Tematy:
big data
web data
websites
web scraping
dane webowe
strony internetowe
Opis:
Web scraping has become popular in scientific research, especially in statistics. Preparing an appropriate IT environment for web scraping is currently not difficult and can be done relatively quickly. Extracting data in this way requires only basic IT skills. This has resulted in the increased use of this type of data, widely referred to as big data, in official statistics. Over the past decade, much work was done in this area both on the national level within the national statistical institutes, and on the international one by Eurostat. The aim of this paper is to present and discuss current problems related to accessing, extracting, and using information from websites, along with the suggested potential solutions. For the sake of the analysis, a case study featuring large-scale web scraping performed in 2022 by means of big data tools is presented in the paper. The results from the case study, conducted on a total population of approximately 503,700 websites, demonstrate that it is not possible to provide reliable data on the basis of such a large sample, as typically up to 20% of the websites might not be accessible at the time of the survey. What is more, it is not possible to know the exact number of active websites in particular countries, due to the dynamic nature of the Internet, which causes websites to continuously change.
Web scraping jest coraz popularniejszy w badaniach naukowych, zwłaszcza w dziedzinie statystyki. Przygotowanie środowiska do scrapowania danych nie przysparza obecnie trudności i może być wykonane relatywnie szybko, a uzyskiwanie informacji w ten sposób wymaga jedynie podstawowych umiejętności cyfrowych. Dzięki temu statystyka publiczna w coraz większym stopniu korzysta z dużych wolumenów danych, czyli big data. W drugiej dekadzie XXI w. zarówno krajowe urzędy statystyczne, jak i Eurostat włożyły dużo pracy w doskonalenie narzędzi big data. Nadal istnieją jednak trudności związane z dostępnością, ekstrakcją i wykorzystywaniem informacji pobranych ze stron internetowych. Tym problemom oraz potencjalnym sposobom ich rozwiązania został poświęcony niniejszy artykuł. Omówiono studium przypadku masowego web scrapingu wykonanego w 2022 r. za pomocą narzędzi big data na próbie 503 700 stron internetowych. Z analizy wynika, że dostarczenie wiarygodnych danych na podstawie tak dużej próby jest niemożliwe, ponieważ w czasie badania zwykle do 20% stron internetowych może być niedostępnych. Co więcej, dokładna liczba aktywnych stron internetowych w poszczególnych krajach nie jest znana ze względu na dynamiczny charakter Internetu, skutkujący ciągłymi zmianami stron internetowych.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 12; 49-64
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of web-scraped data to analyze the dynamics of footwear prices
Autorzy:
Juszczak, Adam
Powiązania:
https://bibliotekanauki.pl/articles/2027264.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Big data
Consumer Price Index
Inflation
Online shopping
Web-scraping
Opis:
Aim/purpose – Web-scraping is a technique used to automatically extract data from websites. After the rise-up of online shopping, it allows the acquisition of information about prices of goods sold by retailers such as supermarkets or internet shops. This study examines the possibility of using web-scrapped data from one clothing store. It aims at comparing known price index formulas being implemented to the web-scraping case and verifying their sensitivity on the choice of data filter type. Design/methodology/approach – The author uses the price data scrapped from one of the biggest online shops in Poland. The data were obtained as part of eCPI (electronic Consumer Price Index) project conducted by the National Bank of Poland. The author decided to select three types of products for this analysis – female ballerinas, male shoes, and male oxfords to compare their prices in over one-year time period. Six price indexes were used for calculation – The Jevons and Dutot indexes with their chain and GEKS (acronym from the names of creators – Gini–Éltető–Köves–Szulc) versions. Apart from the analysis conducted on a full data set, the author introduced filters to remove outliers. Findings – Clothing and footwear are considered one of the most difficult groups of goods to measure price change indexes due to high product churn, which undermines the possibility to use the traditional Jevons and Dutot indexes. However, it is possible to use chained indexes and GEKS indexes instead. Still, these indexes are fairly sensitive to large price changes. As observed in case of both product groups, the results provided by the GEKS and chained versions of indexes were different, which could lead to conclusion that even though they are lending promising results, they could be better suited for other COICOP (Classification of Individual Consumption by Purpose) groups. Research implications/limitations – The findings of the paper showed that usage of filters did not significantly reduce the difference between price indexes based on GEKS and chain formulas. Originality/value/contribution – The usage of web-scrapped data is a fairly new topic in the literature. Research on the possibility of using different price indexes provides useful insights for future usage of these data by statistics offices.
Źródło:
Journal of Economics and Management; 2021, 43; 251-269
1732-1948
Pojawia się w:
Journal of Economics and Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A web-based electronic data interchange as supplier and assembly interface
Autorzy:
Yunitarini, Rika
Pratikto, -
Santoso, Purnomo Budi
Sugiono, -
Powiązania:
https://bibliotekanauki.pl/articles/952859.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
electronic data interchange
production outsourcing
supplier
assembly
communication
Opis:
In the assembly industry, almost all components are outsourced or transferred to other parties, in order to meet the need for supply. This is referred as outsourcing of production. The outsourcing of assembly product components is based on a relationship model between the contractor and the industry. However, there is no relationship or communication pattern between the contractor or supplier and the assembler. Hence, in order to accelerate line production and overcome problems with assembly components, the communication path is shortened by providing a direct communication channel between the assembler and the supplier or contractor, in order to communicate any problems that arise during the assembly process by internal communication within the industry. The purpose of this study is the design and development of a web-based software application electronic data interchange (EDI) that can be used as a tool for communication between the assembler and supplier. The EDI application provides formal communication between the assembly industry and the contractor providing the components or parts needed in the assembly process. The main purpose of using EDI technology is to help the assembler to communicate the relevant documents to suppliers quickly, accurately and efficiently. The documents to be communicated are in the form of reports or claims, and are related to non-conformities, errors and component difficulties arising during the assembly process. This research novelty is providing direct communication between assembly and supplier by using EDI application that can give contribution in manufacturing area so it can accelerate the line production in assembly.
Źródło:
Management and Production Engineering Review; 2019, 10, 4; 65-71
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Bike-sharing system in Poznan – what will Web API data tell us?
System rowerów miejskich w Poznaniu - co nam powiedzą dane z Web API?
Autorzy:
Dzięcielski, Michał
Radzimski, Adam
Woźniak, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/2089635.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Gdański. Komisja Geografii Komunikacji Polskiego Towarzystwa Geograficznego
Tematy:
bike-sharing
cycling
mobility
big data
Poznań
system rowerów miejskich
zbiór danych duży
Opis:
Bike-sharing systems, also known as public bicycles, are among the most dynamically developing mobility solutions in contemporary cities. In the past decade, numerous Polish cities hoping to increase the modal share of cycling have also adopted bike-sharing. Such systems continuously register user movements through installed sensors. The resulting database allows a highly detailed representation of this segment of urban mobility. This article illustrates how a database accessed via a Web API (Web Application Programming Interface) could be used to investigate the spatial distribution of trips, using the case study of Poznań, the fifth-largest city in Poland. Using geographical information systems, we identify the hot spots of bike-sharing as well as areas with low usage. The research procedure outlined in the paper provides knowledge that allows better responding to users’ needs.
Źródło:
Prace Komisji Geografii Komunikacji PTG; 2020, 23(3); 29-40
1426-5915
2543-859X
Pojawia się w:
Prace Komisji Geografii Komunikacji PTG
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie cen i wskaźników cen konsumpcyjnych: tradycyjna metoda uzyskiwania danych a źródła alternatywne
Comparison of prices and consumer price indices: traditional data collection and alternative data sources
Autorzy:
Białek, Jacek
Dominiczak-Astin, Alina
Turek, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/1813758.pdf
Data publikacji:
2021-09-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
wskaźniki cen
dane skanowane
dane skrapowane
inflacja
price indices
scanner data
web scraped data
inflation
Opis:
Jednym z większych wyzwań stojących przed statystyką publiczną w XXI w. jest wykorzystanie alternatywnych źródeł danych o cenach w celu unowocześnienia statystyki cen konsumpcyjnych, a w rezultacie – zwiększenia dokładności i rzetelności danych o inflacji. Trudności w zbieraniu danych metodą tradycyjną spowodowane przez COVID-19 (obostrzenia dotyczące utrzymywania dystansu, które ograniczyły wyjścia ankieterów w teren, i zamykanie punktów sprzedaży) wpłynęły na zintensyfikowanie prac nad alternatywnymi źródłami danych. W artykule przedstawiono wyniki badania eksperymentalnego, w którym wykorzystano dane o cenach uzyskane metodą tradycyjną (przez ankieterów) oraz dane skanowane i skrapowane, pochodzące z sieci handlowej działającej w Polsce. Głównym celem badania było określenie występowania i oszacowanie wielkości różnic w poziomie cen i wartościach wskaźnika cen wybranych produktów spożywczych obliczonych metodą tradycyjną oraz z wykorzystaniem alternatywnych źródeł danych, czyli danych skanowanych i skrapowanych. Za dodatkowy cel postawiono sobie zidentyfikowanie przyczyn tych różnic w odniesieniu do specyfiki źródeł danych. Badaniem empirycznym objęto luty i marzec 2021 r. Wyniki otrzymane na podstawie danych z różnych źródeł porównano za pomocą metod graficznych (histogramy, wykresy pudełkowe) oraz wyznaczenia elementarnych indeksów według formuł Dutota, Carliego i Jevonsa. Wyniki wskazały na rozbieżności – niekiedy znaczne – w rozkładach cen uzyskanych z różnych źródeł danych, co skłania do wniosku, że zastosowanie danych skanowanych i skrapowanych może prowadzić do zawyżania lub zaniżania wskaźników cen uzyskanych metodą tradycyjną. W artykule omówiono również podstawowe aspekty metodologiczne dotyczące uzyskiwania i wykorzystywania danych ze źródeł alternatywnych oraz wskazano prawdopodobne przyczyny różnic, jakie zaobserwowano zarówno w rozkładach cen produktów, jak i w wartościach miesięcznego wskaźnika cen obliczonego przy wykorzystaniu danych z różnych źródeł.
One of the major challenges official statistics is faced with in the 21st century is the use of alternative sources of price data in order to modernise consumer price statistics and, as a result, to improve the accuracy and reliability of inflation data. Data collecting based on the traditional method encountered numerous difficulties caused by COVID-19 (distance-keeping restrictions limiting price collectors’ fieldwork, closures of points of sale). As a consequence, the work on alternative data sources intensified. The article presents the results of an experimental study involving the use of prices collected by means of the traditional method (by price collectors), and scanner and web scraped data from one of the retail chains operating in Poland. The aim of the study was to investigate the occurrence of differences in prices and price indices of selected food products and to estimate them, using the traditional method and alternative data sources, i.e. scanner and web scraped data. An additional goal was set to identify sourcebased reasons for these differences. The empirical study covered the period of February and March 2021. The results based on data from different sources were compared using both graphical methods (histograms, box plots) and the calculation of elementary price indices according to the Dutot, Carli and Jevons formulas. The findings revealed certain, sometimes serious discrepancies in the distributions of prices obtained from various data sources, which suggests that the application of scanner and web scraped data may lead to the over- and understating of price indices obtained via the traditional method. The article also discusses the main methodological aspects of obtaining and applying data from alternative sources, and indicates the probable causes of the differences observed both in distributions of product prices and in monthly price indices calculated using data from various sources.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2021, 66, 9; 32-69
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The use of web-scraped data to analyse the dynamics of clothing and footwear prices
Wykorzystanie danych scrapowanych do analizy dynamiki cen odzieży i obuwia
Autorzy:
Juszczak, Adam
Powiązania:
https://bibliotekanauki.pl/articles/28408209.pdf
Data publikacji:
2023-09-29
Wydawca:
Główny Urząd Statystyczny
Tematy:
inflation
web scraping
online shopping
GEKS-J
inflacja
zakupy online
Opis:
Web scraping is a technique that makes it possible to obtain information from websites automatically. As online shopping grows in popularity, it became an abundant source of information on the prices of goods sold by retailers. The use of scraped data usually allows, in addition to a significant reduction of costs of price research, the improvement of the precision of inflation estimates and real-time tracking. For this reason, web scraping is a popular research tool both for statistical centers (Eurostat, British Office of National Statistics, Belgian Statbel) and universities (e.g. the Billion Prices Project conducted at Massachusetts Institute of Technology). However, the use of scraped data to calculate inflation brings about many challenges at the stage of their collection, processing, and aggregation. The aim of the study is to compare various methods of calculating price indices of clothing and footwear on the basis of scraped data. Using data from one of the largest online stores selling clothing and footwear for the period of February 2018–November 2019, the author compared the results of the Jevons chain index, the GEKS-J index and the GEKS-J expanding and updating window methods. As a result of the calculations, a high chain index drift was confirmed, and very similar results were found using the extension methods and the updated calculation window (excluding the FBEW method).
Web scraping to technika pozwalająca automatycznie pobierać informacje zamieszczone na stronach internetowych. Wraz ze wzrostem popularności zakupów online stała się ona ważnym źródłem informacji o cenach dóbr sprzedawanych przez detalistów. Wykorzystanie danych scrapowanych na ogół nie tylko pozwala znacząco obniżyć koszty badania cen, lecz także poprawia precyzję szacunków inflacji i umożliwia śledzenie jej w czasie rzeczywistym. Z tego względu web scraping jest dziś popularną techniką badań prowadzonych zarówno w ośrodkach statystycznych (Eurostat, brytyjski Office of National Statistics, belgijski Statbel), jak i na uniwersytetach (m.in. Billion Prices Project realizowany na Massachusetts Institute of Technology). Zastosowanie danych scrapowanych do obliczania inflacji wiąże się jednak z wieloma wyzwaniami na poziomie ich zbierania, przetwarzania oraz agregacji. Celem badania omawianego w artykule jest porównanie różnych metod obliczania indeksów cen odzieży i obuwia wykorzystujących dane scrapowane. Na podstawie danych z jednego z największych sklepów internetowych zajmujących się sprzedażą odzieży i obuwia za okres od lutego 2018 r. do listopada 2019 r. porównano wyniki indeksu łańcuchowego Jevonsa, indeksu GEKS-J oraz indeksów GEKS-J z użyciem metod rozszerzenia i aktualizowania okna obliczeń. Potwierdzono wysokie obciążenie dryfem łańcuchowym, a ponadto stwierdzono bardzo podobne wyniki przy użyciu metod rozszerzenia i aktualizowania okna obliczeń (z wyłączeniem metody FBEW).
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2023, 68, 9; 15-33
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Spanning Trees of the World Trade Web: Real-World Data and the Gravity Model of Trade
Autorzy:
Skowron, P.
Karpiarz, M.
Fronczak, A.
Fronczak, P.
Powiązania:
https://bibliotekanauki.pl/articles/1388204.pdf
Data publikacji:
2015-03
Wydawca:
Polska Akademia Nauk. Instytut Fizyki PAN
Tematy:
89.75.-k
89.65.Gh
89.65.-s
Opis:
In this paper, we investigate the statistical features of the weighted international-trade network. By finding the maximum weight spanning trees for this network we make the extraction of the truly relevant connections forming the network's backbone. We discuss the role of large-sized countries (strongest economies) in the tree. Finally, we compare the topological properties of this backbone to the maximum weight spanning trees obtained from the gravity model of trade. We show that the model correctly reproduces the backbone of the real-world economy.
Źródło:
Acta Physica Polonica A; 2015, 127, 3A; A-123-A-128
0587-4246
1898-794X
Pojawia się w:
Acta Physica Polonica A
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Processing of marine satellite data in a web-based GIS
Autorzy:
Kulawiak, M.
Bruniecki, K.
Bielinski, T.
Powiązania:
https://bibliotekanauki.pl/articles/332085.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Akustyczne
Opis:
Geographic Information Systems (GIS) are an excellent tool for integrating various types of spatial information. They provide functionalities which allow for quick analysis and correlation of various types of data in a geographical context. The paper presents a Webbased GIS dedicated for integration and analysis of marine data from satellite imagery. The system operates with the use of automatic image processing procedures, which allow for detection of several different characteristics such as surface temperature or the existence and location of blooming algae. The system correlates the processing results with information from other sources, including vessel movement acquired from the Automatic Identification System, as well as results of oil spill simulation. The paper presents the architecture of the system as well as sample layers produced by the employed algorithms.
Źródło:
Hydroacoustics; 2013, 16; 135-144
1642-1817
Pojawia się w:
Hydroacoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wybranych aplikacji internetowych w dziennikarstwie danych – analiza porównawcza
Use of Selected Web Applications for Data Journalism – Comparative Analysis
Autorzy:
Król, Karol
Powiązania:
https://bibliotekanauki.pl/articles/649880.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
interactive data charts
online journalism
internet applications
Opis:
Media convergence and multimediality of message brought about a situation where journalists and editors of the content posted on the Internet are more and more frequently required to acquire the skills which have never been necessary for them before. It often forces them to become acquainted with professional software and information technology. On the other hand, availability of different databases and Internet applications provides journalists with possibilities of gathering, processing and visualization of data unheard of to date. The objective of the paper was a comparative analysis of selected Web applications generating interactive maps, data charts and diagrams, that may be useful in journalist’s everyday work, in the browser in an automatic way. The conducted research allows concluding that the tested applications may be applied in Internet, citizen or data journalism, that is wherever the concise and attractive form of data visualization is of primary importance.
-
Źródło:
Acta Universitatis Lodziensis. Folia Litteraria Polonica; 2017, 41, 3
1505-9057
2353-1908
Pojawia się w:
Acta Universitatis Lodziensis. Folia Litteraria Polonica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Three-dimensional representation of geographic data in a web-based GIS
Autorzy:
Kulawiak, M.
Powiązania:
https://bibliotekanauki.pl/articles/331531.pdf
Data publikacji:
2013
Wydawca:
Polskie Towarzystwo Akustyczne
Opis:
Presenting geographic data in a web environment has been a long standing problem. For many years the low performance of web browsers has limited the visualization of spatial data to only two dimensions. More recently, the introduction of open standards for 3D acceleration of web applications sparked the emergence of new methods of presenting threedimensional data in a web browser without using third-party extensions. However, these solutions are relatively young and not yet fit for use in a production environment. This work presents a method of three-dimensional representation of geospatial data in the context of two-dimensional map. The presented system uses the well-proven OpenLayers library as well as HTML5 and WebGL technologies to display three-dimensional geospatial data in the web without the need for additional web browser plug-ins. The presented application may thus constitute a viable solution until the more robust solutions mature.
Źródło:
Hydroacoustics; 2013, 16; 129-134
1642-1817
Pojawia się w:
Hydroacoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Integration, Analysis and Visualization of Sensor Data from Dispersed Wireless Sensor Network Systems Using the SWE Framework
Autorzy:
Lee, Y. J.
Trevathan, J.
Atkinson, I.
Read, W.
Powiązania:
https://bibliotekanauki.pl/articles/308227.pdf
Data publikacji:
2015
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
environment data
environmental monitoring
sensor technologies
standardization
web-based visualization
Opis:
Wireless Sensor Networks (WSNs) have been used in numerous applications to remotely gather real-time data on important environmental parameters. There are several projects where WSNs are deployed in different locations and operate independently. Each deployment has its own models, encodings, and services for sensor data, and are integrated with different types of visualization/analysis tools based on individual project requirements. This makes it dicult to reuse these services for other WSN applications. A user/system is impeded by having to learn the models, encodings, and services of each system, and also must integrate/interoperate data from different data sources. Sensor Web Enablement (SWE) provides a set of standards (web service interfaces and data encoding/model specications) to make sensor data publicly available on the web. This paper describes how the SWE framework can be extended to integrate disparate WSN systems and to support standardized access to sensor data. The proposed system also introduces a web-based data visualization and statistical analysis service for data stored in the Sensor Observation Service (SOS) by integrating open source technologies. A performance analysis is presented to show that the additional features have minimal impact on the system. Also some lessons learned through implementing SWE are discussed.
Źródło:
Journal of Telecommunications and Information Technology; 2015, 4; 86-97
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Web-based 3D processing and dissemination of multibeam sonar data
Autorzy:
Kulawiak, M.
Powiązania:
https://bibliotekanauki.pl/articles/332240.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Akustyczne
Tematy:
GIS
web
multibeam sonars
3D
point clouds
processing
Opis:
The continuous detailed surveys of the various water bodies, over time, produce a large and ever-increasing volume and density of underwater sounding data. Threedimensional data, such as that obtained by multibeam sonar systems, are quite complex to manage; and thus, their growing numbers increase the pressure on the development of new solutions dedicated to processing them. This paper presents a concept system for a web-based dissemination of multibeam data in a geographic context. In order to maintain an easily accessible user interface, processing and distribution of such datasets in the web environment requires the data to be converted into a file format which is fit for processing via a web browser. Because of this, the presented system uses the emerging 3D Tiles open standard for serving multibeam point clouds alongside reconstructed three-dimensional models of shipwrecks, to remote users in a web environment, by means of Cesium, an open source WebGIS library for 3D visualization of geospatial data.
Źródło:
Hydroacoustics; 2016, 19; 259-264
1642-1817
Pojawia się w:
Hydroacoustics
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies