Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "open source data" wg kryterium: Wszystkie pola


Wyświetlanie 1-24 z 24
Tytuł:
Sampler: Open-Source Data Acquisition Module for Quantum Physics
Autorzy:
Kasprowicz, Grzegorz
Harty, Thomas
Bourdeauducq, Sébastien
Jördens, Robert
Allcock, David
Slichter, Daniel
Nadlinger, David
Britton, Joseph W.
Sotirova, Ana
Powiązania:
https://bibliotekanauki.pl/articles/2200730.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
ADC
FPGA
ion trap
ARTIQ
Sinara
quantum instrumentation
Opis:
The Sinara hardware platform is a modular, opensource measurement and control system dedicated to quantum applications that require hard real-time performance. The hardware is controlled and managed by the ARTIQ, open-source software that provides nanosecond timing resolution and submicrosecond latency. The Sampler is a general-purpose precision ADC sampling unit with programmable gain and configurable interface. It is used in numerous applications like laser frequency and intensity servo. This paper presents the Sampler module construction and obtained characteristics.
Źródło:
International Journal of Electronics and Telecommunications; 2022, 68, 4; 761--766
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of the GPM IMERG and CHIRPS precipitation estimations for the steppe region of the Crimea
Autorzy:
Popovych, Victor F.
Dunaieva, Ielizaveta A.
Powiązania:
https://bibliotekanauki.pl/articles/2014155.pdf
Data publikacji:
2021
Wydawca:
Instytut Meteorologii i Gospodarki Wodnej - Państwowy Instytut Badawczy
Tematy:
precipitation
open source data
GPM IMERG
CHIRPS
weather station
local level
agriculture
Crimea
Opis:
This paper compares the spatial distribution datasets on monthly precipitation totals derived from the Famine Early Warning System Network FEWS NET service (CHIRPS 2.0 product) and the International Mission of the Global Precipitation Measurement GPM (IMERG v06 product) with ground-based observations of a stationary weather stations located in the steppe region of the Crimean Peninsula in order to assess the representativeness of the precipitation spatial distribution and the applicability of the datasets for water balance calculations and agricultural crop dynamics modeling. A close convergence was observed between the estimated monthly precipitation totals and the precipitation gauge data during the study period (January 2017 - July 2020), with mean correlation coefficients of 0.75 and 0.73 for the GPM IMERG and CHIRPS, respectively. Both products generally overestimated the precipitation values compared to the measured data, with GPM IMERG (final run) exhibiting the greatest overestimations (1.3-2.1 times the weather station values). Our results demonstrate the requirement of GPM-derived precipitation estimations (particularly those from the GPM_3IMERDL v06 daily accumulated late run dataset) to be additionally verified and calibrated based on data from regional weather stations or the CHIRPS 2.0 product (if available).
Źródło:
Meteorology Hydrology and Water Management. Research and Operational Applications; 2021, 9, 1-2; 1-13
2299-3835
2353-5652
Pojawia się w:
Meteorology Hydrology and Water Management. Research and Operational Applications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Revitalization as an action in space - case study of large cities in Poland and Bulgaria
Autorzy:
Krajewska, Małgorzata
Szopińska, Kinga
Siemińska, Ewa
Kostov, Ivo
Powiązania:
https://bibliotekanauki.pl/articles/2191403.pdf
Data publikacji:
2022
Wydawca:
Stowarzyszenie SILGIS
Tematy:
revitalization
public space
open source data
Polska
Bulgaria
rewitalizacja
przestrzeń publiczna
dane open source
Polska
Bułgaria
Opis:
The main goal of revitalization is to improve the spatial condition of the city, which improves its image and increases the value of space. Any revitalization process requires the acquisition of geolocation data. This data can help visualize the spatial changes that were the goal of revitalization efforts. Acquiring such data is not always easy and requires the use of multiple sources of GIS information. The purpose of this paper is a spatial presentation of the analyzed areas with their identification before and after the revitalization process using spatial data made available in an open resource on Google Maps map application. Data is presented for two cities: Bydgoszcz (Poland), Varna (Bulgaria), characterized by a similar population. The paper uses current and archival orthophotos of the revitalized areas, Street View panoramic views from street level and own photographic documentation. The results of the analysis show that regardless of the stage of revitalization, the use of spatial data is essential in the designation of a degraded area, as well as later in its design, monitoring and management.
Źródło:
GIS Odyssey Journal; 2022, 2, 1; 153--173
2720-2682
Pojawia się w:
GIS Odyssey Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Database for monitoring the spatial management plans of the Polish marine areas. Updating and practical use of data
Baza danych do monitoringu planów zagospodarowania przestrzennego polskich obszarów morskich. Uaktualnianie i praktyczne wykorzystanie danych
Autorzy:
Szydłowski, Ł.
Powiązania:
https://bibliotekanauki.pl/articles/111556.pdf
Data publikacji:
2018
Wydawca:
Instytut Morski w Gdańsku
Tematy:
spatial planning
monitoring
database
Geodatabase
system
model builder
data update
open source data
ArcGis
planowanie przestrzenne
baza danych
geobaza
uaktualnienie danych
ArcGIS
Opis:
Planning and marine spatial development are based on an exceptionally wide range of knowledge and information which are used in the process of creating plans and their later evaluation. The first type is spatial data describing the present state of the natural and anthropogenic environment within a widely understood spectrum. Second type data are statistical information describing spatial occurrence in the environment. Geoinformation within a planning process is hugely important, as the quality of spatial data influences decisions made and final results of planning work. Undoubtedly, efficient spatial database management and creating a compatible system to operate it are the key elements of effective work in a planning process. In Europe, the monitoring process together with creation of tools supporting database management is highly developed. There is a range of examples for the use of the spatial information systems in work linked to preparation and evaluation of spatial management plans at sea. Due to the specifics of works related to spatial planning in Poland, this paper presents a new solution for the future monitoring of the generated plans. The nature of this paper is determined by the local approach to taking advantage of the ArcGis software related with the use of a range of tools in the monitoring approach to plans of spatial management of the Polish marine areas. The purpose is to demonstrate a selected tool which is supposed to improve the planners’ work, from the point of view of the use of statistical data linked to the dynamics of changes in the coastal area. This is an exemplary use of the tool which might be modified at will, according to the needs of a user. Due to such a solution, the tool can be adjusted to the most of required data based on statistical tables.
Planowanie i zagospodarowanie przestrzeni morskiej opiera się na wyjątkowo szerokim zakresie wiedzy oraz informacji, które są wykorzystane w procesie tworzenia planów oraz ich późniejszej ewaluacji. Jednym rodzajem są dane przestrzenne opisujące aktualny stan środowiska naturalnego i antropogenicznego w szeroko pojętym spektrum. Geoinformacja jest niezwykle istotna w procesie planistycznym, gdyż jakość danych przestrzennych wpływa na podjęte decyzje i wyniki końcowe pracy planistycznej. Niewątpliwie sprawne zarządzanie bazą danych przestrzennych oraz tworzenie kompatybilnego systemu jej obsługi to kluczowy element efektywnej pracy w procesie planistycznym. W Europie proces monitoringu wraz z tworzeniem narzędzi wspomagających zarządzanie bazami danych jest wysoko rozwinięty. Istnieje szereg przykładów wykorzystywania systemów informacji przestrzennej w zakresie pracy związanej z przygotowaniem i ewaluacją planów zagospodarowania przestrzennego na morzu. Z uwagi na specyfikę prac w Polsce, poniższy tekst przedstawia nowe rozwiązanie dla przyszłego monitoringu powstałych planów. Charakter pracy określa regionalne podejście do wykorzystania możliwości oprogramowania ArcGis związanej z użyciem narzędzi w podejściu monitoringu planów zagospodarowania przestrzennego polskich obszarów morskich. Celem jest ukazanie wybranego narzędzia, mającego usprawnić pracę planistów, w ujęciu wykorzystania danych statystycznych związanych z dynamiką zmian strefy brzegowej. Jest to przykładowe wykorzystanie narzędzia, które może zostać dowolnie zmodyfikowane na potrzeby użytkownika. Dzięki takiemu rozwiązaniu narzędzie może zostać przystosowane do większości potrzebnych danych bazujących na tabelach statystycznych.
Źródło:
Biuletyn Instytutu Morskiego w Gdańsku; 2018, 33, 1; 128-136
1230-7424
2450-5536
Pojawia się w:
Biuletyn Instytutu Morskiego w Gdańsku
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GIS-based land cover analysis and prediction based on open-source software and data
Autorzy:
Dawid, Wojciech
Bielecka, Elżbieta
Powiązania:
https://bibliotekanauki.pl/articles/15805022.pdf
Data publikacji:
2022
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
land cover change
prediction
MOLUSCE
CA-ANN
open data
Opis:
The study aims at land cover prediction based on cellular automata and artificial neural network (CA-ANN) method implemented in the Methods Of Land Use Change Evaluation (MOLUSCE) tool. The Tricity region and the neighbouring counties of Gdański and Kartuzy were taken as the research areas, and coordination of information on the environment (CORINE Land Cover, CLC, CLMS 2022) data for 2006, 2012 and 2018 were used to analyse, simulate and predict land cover for 2024, the next reference year of the CORINE inventory. The results revealed an increase in artificial surfaces, with the highest value during the period 2006–2012 (86.56 km2). In total, during the period 2006–2018, the growth in urbanised area amounted to 95.37 km2. The 2024 prediction showed that artificial surfaces increased by 9.19 km2, resulting in a decline in agricultural land.
Źródło:
Quaestiones Geographicae; 2022, 41, 3; 75-86
0137-477X
2081-6383
Pojawia się w:
Quaestiones Geographicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Environmentally Sustainable Transport Planning in the First and Last Mile Section of the Supply Chain
Autorzy:
Sierpiński, Grzegorz
Staniek, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/504333.pdf
Data publikacji:
2019
Wydawca:
Międzynarodowa Wyższa Szkoła Logistyki i Transportu
Tematy:
eco-friendly supply chains
freight transport planning
ICT systems in logistic
sustainable development
open data source
Opis:
Background: The article provides a discussion on freight transport planning. The existing solutions applied in this sphere have been compared with the environment-related needs. The concept which has been proposed involves a dedicated travel planner that takes some additional non-standard criteria into consideration. At the same time, the authors have highlighted the necessity to expand the algorithms being applied, and to address the comprehensive nature of the problem. However, it is the first and last mile section of supply chains on which the article focuses. The planner described in the paper is being developed as a part of an integrated platform implemented under the international S-mile project. Research methodology: The solutions proposed for transport planning purposes include application of ICT. A review of the available solutions has made it possible to indicate one of the planners currently in use as the foundation upon which a more advanced freight transport planning tool dedicated to the first/last mile section can be built. The planner requires application of several optimisation algorithms, including those which consider route parameters, the selection of fleet vehicles available for the given task, cargo distribution over the vehicle etc. The article defines both primary and secondary criteria that such a planner should take into account, including the environmental ones. What the authors have also highlighted is the possibility to make use of open data sources. The approach they have proposed makes it possible to raise the level of environmental awareness at the first and the last mile management stage, and since multiple transport aspects have been addressed, it also increases planning efficiency. Goals: The purpose of the article has been to discuss an eco-friendly solution which may limit the negative environmental impact of transport. Conclusions: The solution described in the paper may change the manner in which freight transport is managed in cities. Taking environmental criteria into consideration makes it possible to reduce the negative environmental impact of transport. Planning of freight transport requires that far more criteria should be taken into account compared to route planning for the travelling population. A comprehensive fleet management platform featuring a planning module combined with other modules of the S-mileSys system being currently developed is also aimed at integration of large freight companies with the carriers that service first and last miles.
Źródło:
Logistics and Transport; 2019, 42, 2; 83-92
1734-2015
Pojawia się w:
Logistics and Transport
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fusing multiple open-source remote sensing data to estimate $\text{PM}_\text{2.5}$ and $\text{PM}_\text{10}$ monthly concentrations in Croatia
Autorzy:
Mamić, Luka
Kaplan, Gordana
Gašparović, Mateo
Powiązania:
https://bibliotekanauki.pl/articles/2191359.pdf
Data publikacji:
2022
Wydawca:
Stowarzyszenie SILGIS
Tematy:
air quality
TROPOMI
machine learning
PM2.5
PM10
remote sensing
jakość powietrza
uczenie maszynowe
teledetekcja
Opis:
The objective of this study is to create a methodology for accurately estimating atmospheric concentrations of PM2.5 and PM10 using Sentinel-5P and other open-source remote sensing data from the Google Earth Engine (GEE) platform on a monthly basis for June, July and August which are considered as months of non-heating season in Croatia, and December, January and February, which, on the other hand, are considered as months of the heating season. Furthermore, machine learning algorithms were employed in this study to build models that can accurately identify air quality. The proposed method uses open-source remote sensing data accessible on the GEE platform, with in-situ data from Croatian National Network for Continuous Air Quality Monitoring as ground truth data. A common thing for all developed monthly models is that the predicted values slightly underestimate the actual ones and appear slightly lower. However, all models have shown the general ability to estimate PM2.5 and PM10 levels, even in areas without high pollution. All developed models show moderate to high correlation between in-situ and estimated PM2.5 and PM10 values, with overall better results for PM2.5 than for PM10 concentrations. Regarding PM2.5 models, the model with the highest correlation (r = 0.78) is for January. The PM10 model with the highest correlation (r = 0.79) is for December. All things considered, developed models can effectively detect all PM2.5 and PM10 hotspots.
Źródło:
GIS Odyssey Journal; 2022, 2, 2; 59--77
2720-2682
Pojawia się w:
GIS Odyssey Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Otwarte dane jako źródło innowacyjności przedsiębiorstw
Open data as a source of innovativeness of enterprises
Autorzy:
Golińska-Pieszyńska, M.
Batorowicz, B.
Powiązania:
https://bibliotekanauki.pl/articles/321231.pdf
Data publikacji:
2018
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
otwarte dane
innowacje
proces innowacyjny
otwarte innowacje
open data
innovations
innovation process
open innovation
Opis:
Celem artykułu jest wskazanie dużego znaczenia otwartych danych w tworzeniu innowacji i stymulowaniu procesów innowacyjnych. Niewątpliwie jest to bardzo ważne źródło innowacji oraz innowacyjności przedsiębiorstwa. W artykule zwrócono przede wszystkim uwagę na to, że otwarte dane mogą wpisać się na stałe w proces innowacyjny, ze szczególnym uwzględnieniem modelu otwartych innowacji. Na podstawie analizy badań brytyjskich dostrzeżono powiązania pomiędzy kategorią danych a ich wartością dla przedsiębiorstwa. Opracowanie jest uproszczonym studium teoretycznym, które stanowi asumpt do badań empirycznych.
The main objective of this article is to stress the role and importance of open data as an factor creating innovation and stimulating innovative processes. Undoubtedly, open data are very important source of innovation and innovativeness of enterprises. The article first of all points out that open data can be permanently embedded in the innovation process, with particular emphasis on the open innovation model. Based on the analyses of British research, links between the category of data and their value for the enterprises were underlined. This study gives theoretical basis for further empirical research.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2018, 120; 85-99
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Development of an open source software to transform acoustic data for classification of benthic habitats
Autorzy:
Sanchez-Carnero, N.
Bernardez, C.
Moszyński, M.
Freire, J.
Powiązania:
https://bibliotekanauki.pl/articles/332576.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Akustyczne
Opis:
Knowledge and detailed mapping of benthic habitats is a key tool for the development of strategies for coastal ecosystem management. However, existing methods are used as a “black box” where the user cannot know the equations and criteria used in the acoustic corrections, nor inspect and modify the statistical and computational protocols used too. The RMyP is developing an open protocol for marine habitat classification, from the field techniques and sampling details to large data manipulation techniques and statistical data analyses. Several echosounders will be operated from small boats, with a resulting low cost. Computing and statistical methods will be made open and free to allow for their posterior use, modification and improvement by other researchers. A fundamental point in the design of an open protocol is the independence from commercial software. Thus, a software is being built which uses the raw data from the echosounder as an input, generating energy matrixes with the corrected values (transmission loss and depth adjustment) as an output, for their further statistical analysis.
Źródło:
Hydroacoustics; 2007, 10; 169-174
1642-1817
Pojawia się w:
Hydroacoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wybrane aspekty wdrażania oprogramowania Open Source i otwartych standardów wymiany danych w Polsce i krajach UE
Selected aspects of implementation of Open Source Software and Open Standards data interchange in Poland and UE
Autorzy:
Nowakowski, Jacek
Sankowski, Dominik
Powiązania:
https://bibliotekanauki.pl/articles/905211.pdf
Data publikacji:
2004
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Opis:
This article presents advantages of Open Source software application. Some emerging projects about introducing such software in Italy and Spain were presented. Common to Open Source software is also open standard to data interchange. ebXML - standard for exchanging business information, conformed currently by ISO is characterized.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2004, 183
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of free and open-source software in analysing experimental research data
Wykorzystanie otwartego i darmowego oprogramowania w analizie danych doświadczalnych
Autorzy:
Książkiewicz, A.
Powiązania:
https://bibliotekanauki.pl/articles/376430.pdf
Data publikacji:
2012
Wydawca:
Politechnika Poznańska. Wydawnictwo Politechniki Poznańskiej
Tematy:
free software
open source software
Scilab
gnuplot
Opis:
During research process there is often large amount of experimental data acquired. These data can be obtain from all kinds of measurement devices, such as oscilloscopes for example. Most of the time the raw data collected cannot be used directly but has to be processed. That process can involve filtering the data, numerical computations to acquire new information and finally making a visual representation of the results in form of a graph. All those tasks can be carried out with the uses of specialized, scientific computer software which is free and open-sourced. Examples of such programs are Scilab, used for numerical calculations, and gnuplot, used for creating both simple and complex graphs. Both of the programs are described in this article with examples of how to used them.
Podczas procesu badawczego często gromadzone są znaczne ilości danych doświadczalnych. Dane te mogą być uzyskanie z wykorzystaniem wszelkiego rodzaju urządzeń pomiarowych, na przykład oscyloskopów. Przeważnie zebrane surowe dane nie nadają się do bezpośredniego wykorzystania i muszą zostać przetworzone. Proces ten może obejmować filtrowanie danych, obliczenia numeryczne, z których uzyskuje się nowe informacje, i wreszcie tworzenie wizualnej reprezentacji wyników w postaci wykresów. Wszystkie te zadania mogą być wykonywane z zastosowaniem specjalistycznego, naukowego oprogramowania, który może być darmowe i otwarto-źródłowe. Przykładami takich programów są Scilab, używany do obliczeń numerycznych, i gnuplot, używany do tworzenia zarówno prostych, jak i skomplikowanych wykresów. W tym artykule opisano oba te programy wraz z przykładami ich wykorzystania.
Źródło:
Poznan University of Technology Academic Journals. Electrical Engineering; 2012, 69; 193-198
1897-0737
Pojawia się w:
Poznan University of Technology Academic Journals. Electrical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
OGD jako źródło danych w aplikacjach mobilnych
OGD as a data source in mobile applications
Autorzy:
Polańska, Krystyna
Powiązania:
https://bibliotekanauki.pl/articles/2197605.pdf
Data publikacji:
2021-10-15
Wydawca:
Uniwersytet Rzeszowski
Tematy:
otwarte dane
otwarte dane sektora publicznego
API
aplikacje mobilne
Open Data
Open Government Data
Application Programming Interface
Mobile Applications
Opis:
Otwarte dane sektora publicznego mają istotne znaczenie zarówno pod względem wartości gospodarczej, biznesowej, jak i realizacji postulatów demokracji uczestniczącej i społeczeństwa obywatelskiego. Wystarczy udostępnić zbiory danych gromadzonych i przetwarzanych przez administrację publiczną w formatach umożliwiających ich dalsze wykorzystanie, by uruchomić kreatywność obywateli ich pożytecznego wykorzystania. Zbiory te powinny być udostępniane na podstawie otwartych licencji, by wykorzystujące je aplikacje były w jak najszerszym stopniu dostępne obywatelom. Celem artykułu jest wskazanie relatywnie nowego kanału pozyskiwania wartościowych danych, które można wygodnie wykorzystać w aplikacjach atrakcyjnych dla społeczeństwa.
OGD are crucial in terms of economic and business value, as well as achieving participatory democracy and civil society. It is enough to provide data sets collected and processed by the public administration in formats enabling their further application to trigger citizen’s creativity on how to exploit them usefully. These sets should be made available on the basis of open licenses so that software (apps) using them are as widely available to citizens as possible. The aim of the article is to show a relatively new channel of obtaining valuable data that can be conveniently used in apps interesting for society.
Źródło:
Dydaktyka informatyki; 2021, 16; 41-47
2083-3156
2543-9847
Pojawia się w:
Dydaktyka informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automated anonymization of sensitive data on production unit
Autorzy:
Kujawa, Marcin
Piotrowski, Robert
Powiązania:
https://bibliotekanauki.pl/articles/27314231.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
data anonymization
sensitive data
open source tools
industrial data processing
historian data anonymization
Honeywell DCS
IT/OT integration
operational technology
Opis:
The article presents an approach to data anonymization with the use of generally available tools. The focus is put on the practical aspects of using open‐source tools in conjunction with programming libraries provided by suppliers of industrial control systems. This universal ap‐ proach shows the possibilities of using various operating systems as a platform for process data anonymization. An additional advantage of the described approach is the ease of integration with various types of advanced data analysis tools based both on the out‐of‐the‐box approach (e.g., business intelligence tools) as well as customized solutions. The discussed case describes the anonymiza‐ tion of data for the needs of sensitive analysis by a wider group of recipients during the construction of a predictive model used to support decisions.
Źródło:
Journal of Automation Mobile Robotics and Intelligent Systems; 2023, 17, 1; 40--44
1897-8649
2080-2145
Pojawia się w:
Journal of Automation Mobile Robotics and Intelligent Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie wolnego oprogramowania do administrowania danymi przestrzennymi w zarządzaniu kryzysowym
Aplication of open source software to manage the spatial data in crisis management
Autorzy:
Berski, S.
Wojtyto, D.
Powiązania:
https://bibliotekanauki.pl/articles/952245.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
bazy danych
dane przestrzenne
zarządzanie kryzysowe
wolne oprogramowanie
PostgreSQL
PostGIS
QGIS
databases
spatial data
crisis management
open source
Opis:
W artykule przedstawiono możliwości zastosowania przestrzennych baz danych w zarządzaniu sytuacjami kryzysowymi w jednostkach samorządu terytorialnego, na przykładzie tworzenia i administrowania bazą danych obiektów kwarantannowych wykorzystanych w ćwiczeniach z zakresu zarządzania kryzysowego (ZK) Kwarantanna 2015. Na podstawie analizy wniosków z ćwiczeń wojewódzkich z zakresu zagrożeń epidemiologicznych utworzono bazę danych obiektów kwarantannowych w województwie śląskim przy użyciu narzędzi opartych o licencje typu Open Source (OS) lub wolnego oprogramowania do rozwoju narzędzi informatycznych dla jednostek samorządu terytorialnego.
In the article possibilities of using spatial databases in management of crisis situations in self-government units on the example of creating and administration a database of quarantine objects used in crisis management exercises Quarantine 2015 were presented. Based on the analysis of applications from provincial exercises in the field of epidemiological threats, a database of quarantine objects in the Śląskie Voivodeship using tools based on open source licenses (OS) for the development of IT tools for local government units was created.
Źródło:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa; 2018, T. 6; 443-453
2300-5343
Pojawia się w:
Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Technika, Informatyka, Inżynieria Bezpieczeństwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Load Spectrum Analysis with Open Source Software - An Application Example
Autorzy:
Łukasiewicz, Marek S.
Powiązania:
https://bibliotekanauki.pl/articles/2105185.pdf
Data publikacji:
2021
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Lotnictwa
Tematy:
load spectrum
rainflow counting
data visualisation
Opis:
Processing of digital experimental data has become a key part of virtually every research project. As sensors get both more diverse and cheaper, the amount of information to be handled greatly increases as well. Especially fatigue failure modelling requires by its nature large numbers of samples to be processed, and visualised. The presented paper is based on analysis of load data gathered in flight on an unmanned aircraft. A few versions of an analysis program were developed and considered for the use case. Each implementation included ingesting the data files, creating transfer arrays and the “rain flow counting” algorithm. For the sake of the ease of use and functionality, the version based on Python programming language was selected for presentation. Short development iteration time of this approach allowed gaining new insights by tweaking parameters to better represent actual acquired data. Both the results and the software itself can be easily viewed in a web browser and run with modifications without the need to install any software locally. The developed software is meant as a demonstration of capabilities of open source computation tools dedicated to aerospace and mechanical engineering research, where they remain relatively unpopular.
Źródło:
Fatigue of Aircraft Structures; 2021, 13; 17--30
2081-7738
2300-7591
Pojawia się w:
Fatigue of Aircraft Structures
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Cluo: web-scale text mining system for open source intelligence purposes
Autorzy:
Maciołek, P.
Dobrowolski, G.
Powiązania:
https://bibliotekanauki.pl/articles/305361.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
text mining
big data
OSINT
natural language processing
monitoring
Opis:
The amount of textual information published on the Internet is considered to be in billions of web pages, blog posts, comments, social media updates and others. Analyzing such quantities of data requires high level of distribution – both data and computing. This is especially true in case of complex algorithms, often used in text mining tasks. The paper presents a prototype implementation of CLUO – an Open Source Intelligence (OSINT) system, which extracts and analyzes significant quantities of openly available information.
Źródło:
Computer Science; 2013, 14 (1); 45-62
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Otwarte dane przestrzenne jako bazowe źródło informacji w systemach integrujących dane BIM oraz GIS
Open geospatial data as a core source of information for systems integrating BIM and GIS data
Autorzy:
Glinka, Szymon
Owerko, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2074132.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
GIS
BIM
integracja BIM&GIS
otwarte dane przestrzenne
bazy danych
BIM&GIS integration
open geospatial data
databases
Opis:
W niniejszej pracy przedstawiono analizę wykorzystania otwartych danych przestrzennych, szczególnie podczas fazy koncepcyjnej, projektowania oraz realizacyjnej projektu infrastruktury kolejowej lub drogowej. Aspekt efektywnego wykorzystania tego typu danych jest szczególnie istotny, ponieważ świadomość możliwości dostępu do danych otwartych udostępnianych poprzez portale różnych instytucji jest oceniana na niską. Powiązanie powyżej opisanych danych z technologią BIM, daje możliwość posiadania większej ilości informacji na temat obiektu i jego otoczenia, w różnych fazach projektu, a w konsekwencji, podejmowania właściwszych decyzji.
This paper presents an analysis of the use of open spatial data, especially during the conceptual, design and construction phases of a railway Or road infrastructure project. The aspect of the effective use of this type of data is important because the awareness of the possibility of accessing open data, made available through portals of various institutions, is assessed as low. Linking the data described above with the BIM technology gives the possibility to have more information about the object and its surroundings in different phases of the Project and, as a result, to make better decisions.
Źródło:
Zeszyty Naukowo-Techniczne Stowarzyszenia Inżynierów i Techników Komunikacji w Krakowie. Seria: Materiały Konferencyjne; 2021, 2 (123); 145--158
1231-9171
Pojawia się w:
Zeszyty Naukowo-Techniczne Stowarzyszenia Inżynierów i Techników Komunikacji w Krakowie. Seria: Materiały Konferencyjne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Updating, Integration and Making Available Spatial Data with the Use of the State-of-the-Art Technologies
Aktualizacja, integracja i udostępnienie danych przestrzennych z wykorzystaniem najnowszych technologii
Autorzy:
Michałowska, K.
Głowienka-Mikrut, E.
Mikrut, S.
Bochenek, M.
Powiązania:
https://bibliotekanauki.pl/articles/385576.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
SDI
SIP
GIS
data integration
WMS and WFS Web services
open-source applications
IIP
integracja danych
usługi sieciowe WMS i WFS
aplikacje open source
Opis:
This paper presents possibilities for the utilization of spatial information derived from various sources (GPS field measurements, map scanning, data resources in centres for land survey and cartography documentation, orthophotomaps, WMS and WFS data, map Websites). It also draws attention to potential problems encountered in the process of data integration with the use of state-of-the-art processing technologies and making available geographical information. The authors also introduce the issue of the quality of processed data in the aspect of their accuracy and reliability, and the possibility of their incorporating into Spatial Data Infrastructure (SDI) resources.
W artykule przedstawiono możliwośd wykorzystania informacji przestrzennych pochodzących z różnych źródeł (pomiary terenowe GPS, skany map, zasoby danych w ośrodkach dokumentacji geodezyjnej i kartograficznej, ortofotomapy, dane WMS i WFS, serwisy mapowe). Opisano także potencjalne utrudnienia napotykane w procesie integracji danych z zastosowaniem najnowszych technologii przetwarzania i udostępniania informacji geograficznej. Autorzy poruszają także temat jakości przetworzonych danych w aspekcie ich dokładności i wiarygodności oraz możliwości włączenia do zasobów infrastruktury informacji przestrzennej (IIP).
Źródło:
Geomatics and Environmental Engineering; 2013, 7, 3; 57-67
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The method of processing of rapidly changing data for the inventory of flood effects purposes
Autorzy:
Klewski, A.
Sanecki, J.
Pokonieczny, K.
Stępień, G.
Beczkowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/359142.pdf
Data publikacji:
2013
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Tematy:
GIS
orthophotomap
flood
open source
Opis:
This article presents the method of inventory of flood in the real-time GIS system. The method includes: obtaining data, sending data to the server of data base, their analysis in GIS environment and presentation of results. For this purpose the Open Source type of applications were used. The last stage of the presented method is the cartographic development of the hybrid map (orthophotomap with thematic overlays). The authors gave the boundary conditions of these types of studies taking into consideration the data obtained from various sensors of high resolution image systems. The presented method in a complex way describes the development of fast-changing data from the moment of existence of the change, through their acquisition, analysis, to the cartographic development of the map of flood changes.
Źródło:
Zeszyty Naukowe Akademii Morskiej w Szczecinie; 2013, 33 (105); 40-45
1733-8670
2392-0378
Pojawia się w:
Zeszyty Naukowe Akademii Morskiej w Szczecinie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of the possibility of using archival maps as a source of elevation data
Autorzy:
Cichociński, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/2191382.pdf
Data publikacji:
2021
Wydawca:
Stowarzyszenie SILGIS
Tematy:
contours
Military Geographical Institute
open geodata
SRTM
vectorization
kontury
Wojskowy Instytut Geograficzny
geodane otwarte
wektoryzacja
Opis:
One of the most popular sources of elevation data covering the most of the Earth's surface with spatial resolution of up to 30 m (1 angular second to be exact) is the SRTM model. This terrain model has two main disadvantages: it covers the area of the Earth between the parallels 54°S and 60°N only, and in some mountainous and desert areas there are gaps (voids) in the data. Additionally, it may not be suitable for more detailed visualization and analysis due to their limited accuracy. Therefore, the paper attempts to find an alternative source of elevation data. One of them may be archival maps, on which the terrain is presented by means of contours. By vectorization of such lines and adding respective attributes they can serve as a base for building digital terrain models. Examples of such maps are maps created in the period before World War II by Polish Military Geographical Institute (WIG). Although newer topographic maps or even more accurate spatial databases exist, it is assumed that as official materials WIG maps were not covered by copyright, so they are in public domain, just like SRTM. Conducted research and literature studies have shown that the issue of using contours extracted from archival topographic maps is not unambiguous. The lack of reproducibility in the results obtained does not allow making clear recommendations on the feasibility of using archival maps. Using a contour drawing as the sole source of elevation data, without any control, should be considered risky. On the other hand, it seems possible to use them as supplementary and perhaps refining material, but only in places where consistency with other data can be observed.
Źródło:
GIS Odyssey Journal; 2021, 1, 1; 177--188
2720-2682
Pojawia się w:
GIS Odyssey Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Pozyskiwanie informacji z Internetu metodą Google Hacking – biały, szary czy czarny wywiad?
The Internet Data Collection with the Google Hacking Tool – White, Grey or Black Open-Source Intelligence?
Autorzy:
Mider, Daniel
Garlicki, Jan
Mincewicz, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/501569.pdf
Data publikacji:
2019-04-23
Wydawca:
Agencja Bezpieczeństwa Wewnętrznego
Tematy:
Google Hacking
FOCA
metadata harvesting
wyszukiwarka internetowa
browser
Opis:
W artykule dokonano analizy potencjału technik pozyskiwania informacji w Internecie określanych mianem Google Hacking (GH), tj. formułowania zapytań dla przeglądarki Google, ujawniających dane niedostępne bezpośrednio lub te, których pozyskanie jest nieuprawnione z powodów etycznych, prawnych lub z obu tych przyczyn. Techniki zdobywania informacji metodą GH pogrupowano w trzy zbiory. Pierwszy sposób pozyskiwania danych, który nie budzi zastrzeżeń etycznych i prawnych, określono mianem białego wywiadu. Zaliczono do niego wyszukiwanie stron usuniętych i archiwalnych, wyszukiwanie niektórych informacji o użytkownikach oraz innych informacji merytorycznych. Do drugiej grupy technik, określanych jako szary wywiad, wątpliwych z etycznego punktu widzenia, włączono zdobywanie informacji pozostawionych nieświadomie przez twórców i właścicieli witryn internetowych, informacji o strukturze witryn internetowych oraz parametrów konfiguracyjnych serwerów www. Ostatnią grupę technik stanowi czarny wywiad, tj. działania nielegalne i najczęściej nieetyczne. Przeanalizowano tu potencjał uzyskiwania informacji zabezpieczonych, osobowych danych wrażliwych oraz parametrów konfiguracyjnych programów i urzą- dzeń. Uzupełnienie tekstu stanowi analiza możliwości pozyskiwania informacji za pomocą programu FOCA (Fingerprinting Organizations with Collected Archives), służą- cego do automatyzowania zapytań GH i zorientowanego na metadata harvesting, czyli masowe odnajdywanie i analizowanie metadanych zawartych w dokumentach online.
The article analyzes the potential of obtaining internet-based information techniques referring to as Google Hacking (GH), that is, the forwarding of Google search queries revealing data not available directly or whose acquisition is unauthorized for ethical reasons, legal reasons or both. Techniques of obtaining information by GH method have been divided into three groups. The first method of obtaining data that does not raise ethical and legal concerns is referred to as open-source, white intelligence, including the search for deleted and archived pages, search for some information about users and other substantive information. The second group of techniques (grey intelligence) – raising ethical concerns – included the acquisition of information left (unconsciously) by the authors and owners of websites, information about the structure of websites and the configuration parameters of www servers. The last group of techniques is the so-called black intelligence – illegal and mostly unethical acts. There subject of analysis was the potential of obtaining secured information, of sensitive personal data and configuration parameters of programs and devices. The text is complemented by the analysis of the possibilities of obtaining information through the FOCA (Fingerprinting Organizations with Collected Archives) program, used to automate GH queries, metadata harvesting oriented, i.e. mass mining and analysis of meta-data contained in online documents.
Źródło:
Przegląd Bezpieczeństwa Wewnętrznego; 2019, 11, 20; 68-91
2080-1335
2720-0841
Pojawia się w:
Przegląd Bezpieczeństwa Wewnętrznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Internet Data Collection with the Google Hacking Tool – White, Grey or Black Open-Source Intelligence?
Pozyskiwanie informacji z Internetu metodą Google Hacking – biały, szary czy czarny wywiad?
Autorzy:
Mider, Daniel
Garlicki, Jan
Mincewicz, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/501858.pdf
Data publikacji:
2019-04-23
Wydawca:
Agencja Bezpieczeństwa Wewnętrznego
Tematy:
Google Hacking
FOCA
metadata harvesting
browser
wyszukiwarka internetowa
Opis:
The article analyzes the potential of obtaining internet-based information techniques referring to as Google Hacking (GH), that is, the forwarding of Google search queries revealing data not available directly or whose acquisition is unauthorized for ethical reasons, legal reasons or both. Techniques of obtaining information by GH method have been divided into three groups. The first method of obtaining data that does not raise ethical and legal concerns is referred to as open-source, white intelligence, including the search for deleted and archived pages, search for some information about users and other substantive information. The second group of techniques (grey intelligence) – raising ethical concerns – included the acquisition of information left (unconsciously) by the authors and owners of websites, information about the structure of websites and the configuration parameters of www servers. The last group of techniques is the so-called black intelligence – illegal and mostly unethical acts. There subject of analysis was the potential of obtaining secured information, of sensitive personal data and configuration parameters of programs and devices. The text is complemented by the analysis of the possibilities of obtaining information through the FOCA (Fingerprinting Organizations with Collected Archives) program, used to automate GH queries, metadata harvesting oriented, i.e. mass mining and analysis of meta-data contained in online documents.
W artykule dokonano analizy potencjału technik pozyskiwania informacji w Internecie określanych mianem Google Hacking (GH), tj. formułowania zapytań dla przeglądarki Google, ujawniających dane niedostępne bezpośrednio lub te, których pozyskanie jest nieuprawnione z powodów etycznych, prawnych lub z obu tych przyczyn. Techniki zdobywania informacji metodą GH pogrupowano w trzy zbiory. Pierwszy sposób pozyskiwania danych, który nie budzi zastrzeżeń etycznych i prawnych, określono mianem białego wywiadu. Zaliczono do niego wyszukiwanie stron usuniętych i archiwalnych, wyszukiwanie niektórych informacji o użytkownikach oraz innych informacji merytorycznych. Do drugiej grupy technik, określanych jako szary wywiad, wątpliwych z etycznego punktu widzenia, włączono zdobywanie informacji pozostawionych nieświadomie przez twórców i właścicieli witryn internetowych, informacji o strukturze witryn internetowych oraz parametrów konfiguracyjnych serwerów www. Ostatnią grupę technik stanowi czarny wywiad, tj. działania nielegalne i najczęściej nieetyczne. Przeanalizowano tu potencjał uzyskiwania informacji zabezpieczonych, osobowych danych wrażliwych oraz parametrów konfiguracyjnych programów i urządzeń. Uzupełnienie tekstu stanowi analiza możliwości pozyskiwania informacji za pomocą programu FOCA (Fingerprinting Organizations with Collected Archives), służącego do automatyzowania zapytań GH i zorientowanego na metadata harvesting, czyli masowe odnajdywanie i analizowanie metadanych zawartych w dokumentach online.
Źródło:
Przegląd Bezpieczeństwa Wewnętrznego; 2019, 11, 20; 280-300
2080-1335
2720-0841
Pojawia się w:
Przegląd Bezpieczeństwa Wewnętrznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Digital Future of Information. Determinants of the Use of Open Source Intelligence
Autorzy:
Lipińska, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/31341998.pdf
Data publikacji:
2024-05-09
Wydawca:
Akademia Sztuki Wojennej
Tematy:
OSINT
hacktivism
hybrid warfare
disinformation
cyber security
data analytics
internet blocking
Opis:
Cyberspace as a place of information acquisition is in constant flux. Recognizing the threats and challenges associated with it is one of the key elements influencing national security. Knowledge of the current conditions affecting information security and the possibility of obtaining information is an essential element of the work of the institutions forming the state security system. This article will outline the factors affecting the future of information operation and distribution in the digital world confirming the increased need for OSINT in state institutions, especially in the face of new challenges. These include: hacktivism, the dissemination of specialized tools and technologies for data acquisition and analysis among the network user community, hybrid and diplomatic-propaganda activities carried out in the info-sphere by nation states. The article will also provide a forecast of the development of cyberspace in the context of future OSINT activities.
Źródło:
Cybersecurity and Law; 2024, 11, 1; 271-280
2658-1493
Pojawia się w:
Cybersecurity and Law
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-24 z 24

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies