Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "duże zbiory danych" wg kryterium: Temat


Wyświetlanie 1-10 z 10
Tytuł:
Społeczeństwo równości czy zniewolone danetyzacją?
Society of equality or enslaved by datafication?
Общество равенства или порабощение?
Autorzy:
Leśniak-Moczuk, Krystyna
Powiązania:
https://bibliotekanauki.pl/articles/547446.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
duże zbiory danych
danetyzacja
społeczeństwo informacyjne
Big Data
datafication
information society
Opis:
W epoce społeczeństwa informacyjnego postęp techniczny stwarza możliwości gromadzenia, przechowywania i analizowania dużych zbiorów danych (Big Data). Nie są one zbierane podczas prowadzenia odrębnych badań naukowych, lecz za pośrednictwem narzędzi elektronicznych, często poza świadomością ich dostarczycieli. W artykule dokonano charakterystyki nowej metodyki w naukach społecznych w postaci Big Data, procesu danetyzacji polegającego na zbieraniu informacji o wszystkim, nawet o czymś, co nie jest brane pod uwagę jako źródło danych. Podjęto także zagadnienie konsekwencji tej wolności informacyjnej dla jednostki żyjącej w społeczeństwie informacyjnym.
In the age of information society the technological progress creates opportunities for collecting, storing and analyzing large sets of data (Big Data). They are not collected when conducting separate research, but through electronic tools, often beyond the awareness of their providers. The article presents the characteristics of a new methodology in the social sciences in the form of the Big Data, which is a datafication process involving collecting information about everything, even about something that is not taken into account as a data source. There is also an issue of consequence of such freedom of information for individuals living in the information society.
Źródło:
Nierówności Społeczne a Wzrost Gospodarczy; 2017, 52; 235-246
1898-5084
2658-0780
Pojawia się w:
Nierówności Społeczne a Wzrost Gospodarczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data significance in remote medical diagnostics based on deep learning techniques
Autorzy:
Kwaśniewska, A.
Giczewska, A.
Rumiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/1940561.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
telemedicine
deep learning
multimedia databases
big data
telemedycyna
uczenie głębokie
multimedialne bazy danych
duże zbiory danych
Opis:
In this paper we discuss the evaluation of neural networks in accordance with medical image classification and analysis. We also summarize the existing databases with images which could be used for training deep models that can be later utilized in remote home-based health care systems. In particular, we propose methods for remote video-based estimation of patient vital signs and other health-related parameters. Additionally, potential challenges of using, storing and transferring sensitive patient data are discussed.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 309-319
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data i cyfrowa transformacja w NOK - ramy instytucjonalne, korzyści, wyzwania
Big Data and Digital Transformation of SAIs – Institutional Framework, Benefits and Challenges
Autorzy:
BĘDZIESZAK, MARCIN
Powiązania:
https://bibliotekanauki.pl/articles/30148640.pdf
Data publikacji:
2023-12
Wydawca:
Najwyższa Izba Kontroli
Tematy:
analityka danych
big data
duże zbiory danych
cyfrowa transformacja w NOK
data analytics
digital transformation in SAIs
Opis:
Ostatnie lata przyniosły szybki rozwój technologii przetwarzania danych, poczynając od uczenia maszynowego, przez big data (zbiory danych) do sztucznej inteligencji (ang. artificial intelligence, AI). W konsekwencji zwiększają się możliwości ich wykorzystania we wszystkich dziedzinach wiedzy (m.in. bezpieczeństwo, finanse, handel, marketing). Komisja Europejska oszacowała udział gospodarki opartej na danych w unijnym PKB na 3,9%1 w 2022 r. Obszarem wykorzystania big data stopniowo staje się działalność najwyższych organów kontroli (NOK). Wiąże się to jednak z wieloma wyzwaniami oraz koniecznością dokonania zmian metodycznych i organizacyjnych, ale może doprowadzić do skuteczniejszej kontroli administracji publicznej i innych podmiotów, a jednocześnie do lepszego wykorzystania zasobów.
Over the last years, we have been witnessing a fast development of data processing, starting from machine learning, through big data, to artificial intelligence (AI), which results in new opportunities for using them in many areas (e.g. security, finance, trade, marketing). The European Commission estimates that the share of data based economy in the EU gross domestic product reached 3.9 percent in 2022. The area where big data has been gradually used is the activity of Supreme Audit Institutions (SAIs). There are, however, many challenges here, and the need to introduce methodological and organisational changes. Yet this may lead to more effective auditing of the public administration and other entities, and to better spending of resources. The aim of the article is to discuss opportunities of using big data tools in the activities of Supreme Audit Institutions. The first part of the article presents the significance of this technology in the public sector, the second part discusses the conditions related to using big data, and the last part contains considerations related to digital transformation of SAIs, as well as factors that have an impact on the use of big data in SAIs.
Źródło:
Kontrola Państwowa; 2023, 68, 6 (413); 58-70
0452-5027
Pojawia się w:
Kontrola Państwowa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Processing of satellite data in the cloud
Autorzy:
Proficz, J.
Drypczewski, K.
Powiązania:
https://bibliotekanauki.pl/articles/1940555.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
Apache Spark
satellite data
Sentinel-2
ESA
big data
cloud
OpenStack
dane satelitarne
duże zbiory danych
chmura
Opis:
The dynamic development of digital technologies, especially those dedicated to devices generating large data streams, such as all kinds of measurement equipment (temperature and humidity sensors, cameras, radio-telescopes and satellites – Internet of Things) enables more in-depth analysis of the surrounding reality, including better understanding of various natural phenomenon, starting from atomic level reactions, through macroscopic processes (e.g. meteorology) to observation of the Earth and the outer space. On the other hand such a large quantitative improvement requires a great number of processing and storage resources, resulting in the recent rapid development of Big Data technologies. Since 2015, the European Space Agency (ESA) has been providing a great amount of data gathered by exploratory equipment: a collection of Sentinel satellites – which perform Earth observation using various measurement techniques. For example Sentinel-2 provides a stream of digital photos, including images of the Baltic Sea and the whole territory of Poland. This data is used in an experimental installation of a Big Data processing system based on the open source software at the Academic Computer Center in Gdansk. The center has one of the most powerful supercomputers in Poland – the Tryton computing cluster, consisting of 1600 nodes interconnected by a fast Infiniband network (56 Gbps) and over 6 PB of storage. Some of these nodes are used as a computational cloud supervised by an OpenStack platform, where the Sentinel-2 data is processed. A subsystem of the automatic, perpetual data download to object storage (based on Swift) is deployed, the required software libraries for the image processing are configured and the Apache Spark cluster has been set up. The above system enables gathering and analysis of the recorded satellite images and the associated metadata, benefiting from the parallel computation mechanisms. This paper describes the above solution including its technical aspects.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 365-377
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zone estimation with cluster analysis of public transport stops
Ocena strefowa z analizą skupień przystanków transportu publicznego
Autorzy:
Horváth, B.
Nagy, V.
Powiązania:
https://bibliotekanauki.pl/articles/192544.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
public transport
big data
time series
similarity matrix
clustering
transport publiczny
duże zbiory danych
szeregi czasowe
podobieństwa macierzy
grupowanie
Opis:
Nowadays the data sets are spreading continually, generated by different devices and systems. The public transport is also not an exception in this. The modern GPS based tracking systems and the electronic tickets are producing lot of data, and we could use them for improving the service level. In the right case, these data are storing, and the service suppliers are not dealing with its information content, but, on the other hand, maybe they are just deleting these, in the interest of the avoidance of digital space occupancy. However, these data are processable with the modern devices and methods, and we can use them for information obtaining. Thanks to the spread of data mining, these tools are not appearing only in marketing research but in the most various kind of scientific area too, and they are advertising a new scientific revolution. Although the importance of these data sources is essential it is not widespread in general in transport planning, only in some specific areas [1] as described by Csiszár et al. This article presents possible application of the digital raw materials, taking the public transport passengers boarding information as base. We created a three step method which could be useful in automatic zone shaping or to supervise the manually created zone borders. It is also able to give help in land-usage examinations. The procedure is effective in making traveling chains from smart card data and in creation of origin destination matrix from check-in data. In this article we are showing how the zone distribution is possible with the assistance of different distance measurement methods and clustering procedures, and we are presenting the results on the example of a selected city.
Obecnie nieustannie powstają różne zbiory danych, generowane przez różne urządzenia i systemy. Transport publiczny nie jest w tym zakresie wyjątkiem. Nowoczesne systemy monitorowania oparte na GPS i bilety elektroniczne wytwarzają duże ilości danych, i moglibyśmy je wykorzystać dla poprawy poziomu usług. Z jednej strony dane te są przechowywane, a dostawcy usług nie mają do czynienia z zawartością informacji, ale z drugiej strony, być może są one po prostu usuwane, aby ograniczyć obciążanie cyfrowej przestrzeni. Dane te mogą być przetwarzane dzięki nowoczesnym urządzeniom i metodom, i możemy je wykorzystać do uzyskania informacji. Dzięki rozprzestrzenianiu eksploracji danych, narzędzia te pojawiają się nie tylko w badaniach marketingowych, ale w większości różnych działań badawczych, i reklamują one nową rewolucję naukową. Chociaż znaczenie tych źródeł danych jest zasadnicze, nie jest to rozpowszechnione w planowaniu transportu, a jedynie w pewnych określonych obszarach [1], tak jak pisze Csiszár i in. W artykule przedstawiono możliwości zastosowania materiałów nieprzetworzonych, biorąc jako podstawę informacje o pasażerach podróżujących transportem publicznym. Stworzono metodę trzech kroków, która może być przydatna do automatycznego kształtowania strefy lub do nadzorowania granic stref utworzonych konwencjonalnie. Może też przydać się przy kontroli gruntów użytkowych. Procedura ta jest skuteczna w tworzeniu łańcuchów podróży z danych z kart inteligentnych oraz w tworzeniu macierzy żródło-cel na podstawie danych zameldowania. W artykule pokazano, w jaki sposób możliwa jest dystrybucja stref, za pomocą różnych metod pomiaru odległości i procedur gromadzenia, i zaprezentowano tego efekty na przykładzie wybranego miasta.
Źródło:
Transport Miejski i Regionalny; 2016, 7; 9-12
1732-5153
Pojawia się w:
Transport Miejski i Regionalny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja i wizualizacja zobrazowań dpTK w środowisku trójwymiarowym
Classification and visualization of dpCT in three-dimensional environment
Autorzy:
Ogiela, M. R.
Hachaj, T.
Powiązania:
https://bibliotekanauki.pl/articles/153810.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
wizualizacja trójwymiarowych pól skalarnych
dynamiczna perfuzja mózgowa
duże zbiory danych
analiza kognitywna
volume rendering
dynamic brain perfusion
large datasets
cognitive analysis
Opis:
W artykule został zaprezentowany wspomagany sprzętowo algorytm wizualizujący trójwymiarowe dyskretne pola skalarne o teoretycznie dowolnych rozmiarach. Zostały również przedstawione oryginalne wyniki badań, w których określono zależność pomiędzy szybkością wizualizacji (fps) a ilością przesłań danych pomiędzy pamięcią RAM komputera i kartą graficzną. Zbadano także w jaki sposób szacowanie gradientu pola skalarnego przed procesem wizualizacji wpływa na przyspieszenie tworzenia grafiki w wypadku dużych objętości. Jeżeli zbiór danych został podzielony na wiele podzbiorów (w przeprowadzany doświadczeniu było ich 512) algorytmy estymujące gradient we wstępnym przetwarzaniu działały wolniej niż liczące go czasie rzeczywistym, ponieważ te drugie redukują ilość danych, które muszą być przesłane do GPU.
In this paper a new hardware accelerated algorithm pipeline (Fig. 1) for visualization of three-dimensional scalar fields without limitation on dataset size (Fig. 2) is described. There are presented original results of research on average performance speed (fps) of rendering algorithms as a function of data transitions between RAM and GPU (Tab 1. and Fig. 3). The speed of rendering decreases with number of partitioning and view-aligned slices. It has also been investigated how the pre-rendering gradient estimation influences the visualization process in case of large volumetric datasets. It is shown that in case of large partitioning of volume it is better to transfer less data to GPU memory and to compute the gradient value on the fly. The potential usage of that algorithm as a visualization module for the system performing cognitive analysis of dpCT data [3, 4, 5] is presented. The output data of the diagnostic algorithm is a superimposition onto the volume CT data (Fig. 4). This particular solution gives additional support to medical personnel by supplying them with simultaneous visualization of medical data of different modalities enabling more accurate diagnosis.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 11, 11; 1444-1447
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wpływu wybranych metod redukcji NMT w tworzeniu map zagrożenia powodziowego
Comparison of the impact of selected DTM reduction method in flood hazard map creation
Autorzy:
Bakuła, K.
Powiązania:
https://bibliotekanauki.pl/articles/130866.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
numeryczny model terenu
redukcja
mapa zagrożenia powodziowego
duże zbiory danych
LIDAR
DEM/DTM
reduction
flood hazard map
large data set
lidar
Opis:
Oprogramowania tworzące mapy zagrożenia związanego z kataklizmem powodzi opierają się w dużej mierze na danych o terenie w formie numerycznego modelu terenu. Produkt ten generowany jest na podstawie danych ze skaningu laserowego, który dostarcza odpowiednio dokładne, ale i ogromne zbiory danych, stwarzające problemy dla skomplikowanych obliczeń przy modelowaniu hydraulicznym. W niniejszej pracy przedstawiono wpływ redukcji NMT na określanie miejsc potencjalnego wystąpienia katastrofy powodzi poprzez tworzenie map zagrożenia powodziowego. Numeryczny model terenu obszaru testowego poddany został znaczącej redukcji wybranymi metodami, co posłużyło do późniejszych analiz związanych z jej wpływem na wielkość obszaru zagrożonego katastrofą powodzi. Celem badania jest przede wszystkim udowodnienie istnienia możliwości wykorzystania jedynie nieznacznej części informacji zawartej w NMT dla stworzenia równie wysoko dokładnych opracowań co takie, dla pozyskania których wykorzystano oryginalne dane. Wyniki doświadczenia potwierdzają przypuszczenie o niewielkich rozbieżnościach w określeniu miejsc zagrożonych powodzią pomiędzy analizami z użyciem oryginalnych danych i tych poddanych różnowariantowej redukcji.
Software for creating flood risk maps and simulation of flood water is based on Digital Terrain Model (DTM). Such product is generated on a basis of laser scanning data which provide appropriately accurate results and huge data sets as well, what causes many problems for hydrodynamic – numerical calculations. The essential issue for such data is high redundancy which can guarantee the opportunity to thin it out. However, it is possible to provide suitable DTM for flood modeling by its intelligent reduction, which could still ensure sufficient accuracy for application such as hydrodynamic modeling. In this paper, the impact of DTM reduction on determination of area at risk of flood disaster by creating flood hazard maps was presented. Digital terrain model of case study was significantly reduced with use of six selected methods, what gave possibility for subsequent analysis of reduction impact on the size of the area endangered by a flood disaster. This reduction was based on the automation of the process where points, containing key information, were retained while redundant points, duplicating information about terrain height, were removed from the data set. For comparison of the result of reduction, such reduced models were used in practice to determine flood risk by creating flood hazard maps for selected water levels. For each reduction method, flood simulation with different river water level (i.e. digital water surface model) was created. In this way, area endangered by flood was determined in result of the intersection of digital terrain model and digital water surface model. Size of such area was compared then for each approach with the results obtained on the basis of original DTM data and methods were assessed in terms of their accuracy, efficiency and suitability for presented issues. The aim of this research is particularly to prove that it is possible to use only small percentage of the information contained in DTM for the creation as highly accurate studies as can be obtained from original data. The results of experiment confirm the assumption of small disparities in identifying areas endangered by flood disaster between analysis with use of original data and those reduced by various methods. Difference between results from unreduced and reduced DTMs was very slight what proves that well-generalized models of terrain can be effectively used in that application.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 19-28
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzy comprehensive model of manufacturing industry transfer risk based on economic big data analysis
Autorzy:
Sun, Tong
Liu, Chunzhi
Powiązania:
https://bibliotekanauki.pl/articles/2173644.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
economic big data
manufacturing industry
industrial transfer risk
entropy weight method
fuzzy model
duże zbiory danych ekonomicznych
przemysł wytwórczy
ryzyko transferu przemysłowego
metoda wag entropii
model rozmyty
Opis:
Aiming at the problems of low accuracy, low efficiency and low stability of traditional methods and recent developments in advanced technology incite the industries to be in sync with modern technology. With respect to various available techniques, this paper designs a fuzzy comprehensive evaluation model of the manufacturing industry for transferring risk based on economic big-data analytics. The big-data analysis method is utilized to obtain the data source of fuzzy evaluation of the manufacturing industry to transfer risk using data as the basis of risk evaluation. Based on the risk factors, the proposed model establishes the risk index system of the manufacturing industry and uses the expert evaluation method to design the scoring method of the evaluation index system. To ensure the accuracy of the evaluation results, the manufacturing industry’s fuzzy comprehensive model is established using the entropy weight method, and the expert evaluation results are modified accordingly. The experimental results show that the highest efficiency of the proposed method is 96%, the highest accuracy of the evaluation result is 75%. The evaluation result’s stability is higher than the other existing methods, which fully verifies the effectiveness and can provide a reliable theoretical basis for enterprise risk evaluation research.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 2; art. no. e139959
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kluczowe trendy dla budowania biznesu w branży big data
The key trends for business building in the industry of big data
Autorzy:
Miciuła, Ireneusz
Miciuła, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/1367357.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Szczeciński. Wydawnictwo Naukowe Uniwersytetu Szczecińskiego
Tematy:
information society
large collections of unstructured data (called: big data)
business trends
społeczeństwo informacyjne
duże zbiory nieusystematyzowanych danych (big data)
trendy biznesowe
Opis:
Artykuł prezentuje istotę Big Data we współczesnej gospodarce elektronicznej oraz analizę obecnie występujących kluczowych trendów dla budowania biznesu w tej branży. W artykule przedstawiono również znaczenie i wpływ korzystania z usług na zasadzie Big Data i procesów w działalności e-biznesowej, które w erze globalnego społeczeństwa informacyjnego wydają się nieuniknione.
The article presents the essence of big data in the modern economy and an analysis of the electronic key trends existing today for building a business in this industry. The article presents the importance and impact of the use of services on the basis of big data and processes in e-business activities, which in the era of global information society seem to inevitable.
Źródło:
Zeszyty Naukowe. Studia Informatica; 2015, 36; 51-63
0867-1753
Pojawia się w:
Zeszyty Naukowe. Studia Informatica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big Data – szanse i zagrożenia
Big Data – chances and threats
Autorzy:
RACZYŃSKA, Maria
Powiązania:
https://bibliotekanauki.pl/articles/455965.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Rzeszowski
Tematy:
duże ilości danych
zbiory danych
uporządkowanie danych
przetwarzanie w chmurze
prywatność człowieka
big data
sets of data
cloud computing
privacy
human
Opis:
W artykule przedstawione zostały różne aspekty zjawiska Big Data. Ukazany został wpływ technologii informacyjnej na analizę różnorodnych dostępnych w ogromnych ilościach zbiorów danych, często w czasie rzeczywistym. Przedstawione zostały przykłady wykorzystania Big Data. Zwrócona została także uwaga na kwestie, które wymagają badań w cyfrowym świecie danych.
The article presents the different aspects of phenomenon of Big Data. It shows is effect information technology on the analysis of various available in huge amounts of data sets in real time. Presented are examples of Big Data. The return was a note on the issues that require research data in the digital world.
Źródło:
Edukacja-Technika-Informatyka; 2013, 4, 2; 29-37
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-10 z 10

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies