Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "zbiory danych" wg kryterium: Temat


Tytuł:
Diagnoza wykorzystania Big Data w organizacjach – wybrane wyniki badań
Autorzy:
Bartuś, Kamila
Batko, Kornelia
Lorek, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/432300.pdf
Data publikacji:
2017
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
big data
business intelligence
strategia organizacji
zbiory danych
Opis:
Celem artykułu była identyfikacja sposobów i obszarów wykorzystania danych Big Data w przedsiębiorstwach w oparciu o wyniki badań bezpośrednich. W artykule omówiono specyfikę dużych zbiorów danych – Big Data oraz zaprezentowano systemy Business Intelligence jako narzędzia ich analizy. W dalszej części zaprezentowano wyniki badań dotyczące wykorzystania Big Data w organizacjach. Badanie opiera się na: 1) krytycznej analizie literatury przedmiotu dotyczącej Big Data, 2) analizie przypadków wykorzystania BD w działalności różnych organizacji i na 3) prezentacji wybranych wyników badań ankietowych dotyczących wykorzystania tego rozwiązania informatycznego w organizacjach. W ramach projektu badawczego przeprowadzono badania, które miały charakter bezpośredni i były wykonane za pomocą kwestionariusza ankietowego. Badaniami objęto firmy z branży produkcyjnej, usługowej oraz handlowej
Źródło:
Informatyka Ekonomiczna; 2017, 3(45); 9-20
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Społeczeństwo równości czy zniewolone danetyzacją?
Society of equality or enslaved by datafication?
Общество равенства или порабощение?
Autorzy:
Leśniak-Moczuk, Krystyna
Powiązania:
https://bibliotekanauki.pl/articles/547446.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
duże zbiory danych
danetyzacja
społeczeństwo informacyjne
Big Data
datafication
information society
Opis:
W epoce społeczeństwa informacyjnego postęp techniczny stwarza możliwości gromadzenia, przechowywania i analizowania dużych zbiorów danych (Big Data). Nie są one zbierane podczas prowadzenia odrębnych badań naukowych, lecz za pośrednictwem narzędzi elektronicznych, często poza świadomością ich dostarczycieli. W artykule dokonano charakterystyki nowej metodyki w naukach społecznych w postaci Big Data, procesu danetyzacji polegającego na zbieraniu informacji o wszystkim, nawet o czymś, co nie jest brane pod uwagę jako źródło danych. Podjęto także zagadnienie konsekwencji tej wolności informacyjnej dla jednostki żyjącej w społeczeństwie informacyjnym.
In the age of information society the technological progress creates opportunities for collecting, storing and analyzing large sets of data (Big Data). They are not collected when conducting separate research, but through electronic tools, often beyond the awareness of their providers. The article presents the characteristics of a new methodology in the social sciences in the form of the Big Data, which is a datafication process involving collecting information about everything, even about something that is not taken into account as a data source. There is also an issue of consequence of such freedom of information for individuals living in the information society.
Źródło:
Nierówności Społeczne a Wzrost Gospodarczy; 2017, 52; 235-246
1898-5084
2658-0780
Pojawia się w:
Nierówności Społeczne a Wzrost Gospodarczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Budowa neuronowych modeli prognostycznych na przykladzie wybranych zagadnien inzynierii rolniczej
Construction of neural forecasting models for example of selected issues in agricultural engineering
Autorzy:
Dejewska, T
Boniecki, P.
Jakubek, A.
Powiązania:
https://bibliotekanauki.pl/articles/883707.pdf
Data publikacji:
2009
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Maszyn Rolniczych
Tematy:
zbiory danych
modelowanie
modele prognostyczne
inzynieria rolnicza
sieci neuronowe sztuczne
uczenie sie
Opis:
Celem pracy było omówienie metodyki budowy modeli prognostycznych w oparciu o sztuczne sieci neuronowe. Podczas konstruowania modelu neuronowego realizującego predykcję występują często złożone problemy. Z uwagi na to przybliżono metody pozwalające na poprawny przebieg poszczególnych etapów budowy. Przedstawiono również wartość poznawczą i skuteczność działania tych modeli dla inżynierii rolniczej.
The aim of the following thesis was the description of methods of building of prognostic models with the use of the artificial neural networks. During constructing of neuronal model of prediction, a variety of complex problems may often appear. In consideration of those problems, some methods enabling appropriate course of each of the stages of building the model were presented. Moreover, a cognitive value and effectiveness of working of those models in the agricultural engineering were introduced.
Źródło:
Technika Rolnicza Ogrodnicza Leśna; 2009, 05; 7-10
1732-1719
2719-4221
Pojawia się w:
Technika Rolnicza Ogrodnicza Leśna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data significance in remote medical diagnostics based on deep learning techniques
Autorzy:
Kwaśniewska, A.
Giczewska, A.
Rumiński, J.
Powiązania:
https://bibliotekanauki.pl/articles/1940561.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
telemedicine
deep learning
multimedia databases
big data
telemedycyna
uczenie głębokie
multimedialne bazy danych
duże zbiory danych
Opis:
In this paper we discuss the evaluation of neural networks in accordance with medical image classification and analysis. We also summarize the existing databases with images which could be used for training deep models that can be later utilized in remote home-based health care systems. In particular, we propose methods for remote video-based estimation of patient vital signs and other health-related parameters. Additionally, potential challenges of using, storing and transferring sensitive patient data are discussed.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 309-319
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data i cyfrowa transformacja w NOK - ramy instytucjonalne, korzyści, wyzwania
Big Data and Digital Transformation of SAIs – Institutional Framework, Benefits and Challenges
Autorzy:
BĘDZIESZAK, MARCIN
Powiązania:
https://bibliotekanauki.pl/articles/30148640.pdf
Data publikacji:
2023-12
Wydawca:
Najwyższa Izba Kontroli
Tematy:
analityka danych
big data
duże zbiory danych
cyfrowa transformacja w NOK
data analytics
digital transformation in SAIs
Opis:
Ostatnie lata przyniosły szybki rozwój technologii przetwarzania danych, poczynając od uczenia maszynowego, przez big data (zbiory danych) do sztucznej inteligencji (ang. artificial intelligence, AI). W konsekwencji zwiększają się możliwości ich wykorzystania we wszystkich dziedzinach wiedzy (m.in. bezpieczeństwo, finanse, handel, marketing). Komisja Europejska oszacowała udział gospodarki opartej na danych w unijnym PKB na 3,9%1 w 2022 r. Obszarem wykorzystania big data stopniowo staje się działalność najwyższych organów kontroli (NOK). Wiąże się to jednak z wieloma wyzwaniami oraz koniecznością dokonania zmian metodycznych i organizacyjnych, ale może doprowadzić do skuteczniejszej kontroli administracji publicznej i innych podmiotów, a jednocześnie do lepszego wykorzystania zasobów.
Over the last years, we have been witnessing a fast development of data processing, starting from machine learning, through big data, to artificial intelligence (AI), which results in new opportunities for using them in many areas (e.g. security, finance, trade, marketing). The European Commission estimates that the share of data based economy in the EU gross domestic product reached 3.9 percent in 2022. The area where big data has been gradually used is the activity of Supreme Audit Institutions (SAIs). There are, however, many challenges here, and the need to introduce methodological and organisational changes. Yet this may lead to more effective auditing of the public administration and other entities, and to better spending of resources. The aim of the article is to discuss opportunities of using big data tools in the activities of Supreme Audit Institutions. The first part of the article presents the significance of this technology in the public sector, the second part discusses the conditions related to using big data, and the last part contains considerations related to digital transformation of SAIs, as well as factors that have an impact on the use of big data in SAIs.
Źródło:
Kontrola Państwowa; 2023, 68, 6 (413); 58-70
0452-5027
Pojawia się w:
Kontrola Państwowa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Artificial intelligence-based analysis of small data sets in medicine
Analiza małych zbiorów danych medycznych oparta na sztucznej inteligencji
Autorzy:
Mikołajewski, Dariusz
Mikołajewska, Emilia
Powiązania:
https://bibliotekanauki.pl/articles/41205822.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
artificial intelligence
small data set
clinical applications
sztuczna inteligencja
małe zbiory danych
zastosowanie kliniczne
Opis:
AI-based computing of small data sets are a step towards edge computing and further personalization of diagnostics, therapy and predictions in clinical practice. However, this still requires many intermediate steps, both in hardware and software. The aim of the work is to assess to what extent current achievements in the area of AI-based small sets analysis constitute the basis for the development of a new group of clinical and programming solutions.
Obliczenia małych zbiorów danych w oparciu o sztuczną inteligencję stanowią krok w kierunku obliczeń brzegowych i dalszej personalizacji diagnostyki, terapii i prognoz w praktyce klinicznej.Jednak nadal wymaga to wielu etapów pośrednich, zarówno sprzętowych, jak i programowych. Celem pracy jest ocena, w jakim stopniu dotychczasowe osiągnięcia w obszarze analizy małych zbiorów w oparciu o sztuczną inteligencję stanowią podstawę do opracowania nowej grupy rozwiązań klinicznych i programistycznych.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2023, 15, 2; 18-23
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja chronionych w Polsce motyli z rodziny Papilionidae z wykorzystaniem wybranych topologii neuronowych
Classification of protected Papilionidae butterflies using selected neural network topology
Autorzy:
Boniecki, P
Mueller, W.
Nowakowski, K.
Powiązania:
https://bibliotekanauki.pl/articles/883223.pdf
Data publikacji:
2009
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Maszyn Rolniczych
Tematy:
zbiory danych
klasyfikacja
gatunki chronione
obrazy cyfrowe
sieci neuronowe sztuczne
paziowate
Papilionidae
uczenie sie
motyle
Opis:
Celem badań było porównanie zdolności klasyfikacyjnych modeli neuronowych, uczonych dwoma różnymi metodami: wzorcową oraz bezwzorcową. Klasyfikacji poddano wybrane owady należące do rodziny „Papilionidae”, które objęte są ochroną prawną na terenie Polski. Neuronowej klasyfikacji dokonano w oparciu o informację zakodowaną w postaci zbioru dwuwymiarowych obrazów owadów. Jako cechy reprezentatywne, stanowiące podstawę do klasyfikacji, przyjęto pięć dominujących kolorów występujących w ubarwieniu motyli. W celu porównawczym wygenerowano dwie topologie neuronowe: sieć typu MLP (ang. MultiLayer Perceptron: perceptron wielowarstwowy) uczonej technikami „z nauczycielem” orazsieæ Kohonena, która była uczona metodą „beznauczyciela”.
The aim of this study was to compare the classification ability of neural models, learned with two different ways: with reference and without reference. Selected insects subjected to classification belong to the family “Papilionidae”, and are a subject to legal protection in Poland. Neural classification was based on the information encoded in the form of a file of two-dimensional images of insects. As representatives of features, which form the basis of the classification, adopted were five dominant butterflies colors. For comparison two neural topologies were generated: a network type MLP (Multilayer Perceptron) learned by method "with the teacher" and a neural network type Kohonen, which was learned by method „without a teacher”.
Źródło:
Technika Rolnicza Ogrodnicza Leśna; 2009, 03; 23-26
1732-1719
2719-4221
Pojawia się w:
Technika Rolnicza Ogrodnicza Leśna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big Data – szanse i zagrożenia
Big Data – chances and threats
Autorzy:
RACZYŃSKA, Maria
Powiązania:
https://bibliotekanauki.pl/articles/455965.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Rzeszowski
Tematy:
duże ilości danych
zbiory danych
uporządkowanie danych
przetwarzanie w chmurze
prywatność człowieka
big data
sets of data
cloud computing
privacy
human
Opis:
W artykule przedstawione zostały różne aspekty zjawiska Big Data. Ukazany został wpływ technologii informacyjnej na analizę różnorodnych dostępnych w ogromnych ilościach zbiorów danych, często w czasie rzeczywistym. Przedstawione zostały przykłady wykorzystania Big Data. Zwrócona została także uwaga na kwestie, które wymagają badań w cyfrowym świecie danych.
The article presents the different aspects of phenomenon of Big Data. It shows is effect information technology on the analysis of various available in huge amounts of data sets in real time. Presented are examples of Big Data. The return was a note on the issues that require research data in the digital world.
Źródło:
Edukacja-Technika-Informatyka; 2013, 4, 2; 29-37
2080-9069
Pojawia się w:
Edukacja-Technika-Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metody pozyskiwania zbiorow uczacych dla modelu neuronowego identyfikujacego uszkodzenia ziarniakow
Method of learning sets extraction for identification neutral model of kernel damages
Autorzy:
Nowakowski, K
Powiązania:
https://bibliotekanauki.pl/articles/883156.pdf
Data publikacji:
2007
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Maszyn Rolniczych
Tematy:
barwa
ksztalt
zbiory danych
wymiary
pole powierzchni
uszkodzenia mechaniczne
ziarniaki
sieci neuronowe sztuczne
uczenie sie
identyfikacja
Źródło:
Technika Rolnicza Ogrodnicza Leśna; 2007, 04; 6-7
1732-1719
2719-4221
Pojawia się w:
Technika Rolnicza Ogrodnicza Leśna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Processing of satellite data in the cloud
Autorzy:
Proficz, J.
Drypczewski, K.
Powiązania:
https://bibliotekanauki.pl/articles/1940555.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska
Tematy:
Apache Spark
satellite data
Sentinel-2
ESA
big data
cloud
OpenStack
dane satelitarne
duże zbiory danych
chmura
Opis:
The dynamic development of digital technologies, especially those dedicated to devices generating large data streams, such as all kinds of measurement equipment (temperature and humidity sensors, cameras, radio-telescopes and satellites – Internet of Things) enables more in-depth analysis of the surrounding reality, including better understanding of various natural phenomenon, starting from atomic level reactions, through macroscopic processes (e.g. meteorology) to observation of the Earth and the outer space. On the other hand such a large quantitative improvement requires a great number of processing and storage resources, resulting in the recent rapid development of Big Data technologies. Since 2015, the European Space Agency (ESA) has been providing a great amount of data gathered by exploratory equipment: a collection of Sentinel satellites – which perform Earth observation using various measurement techniques. For example Sentinel-2 provides a stream of digital photos, including images of the Baltic Sea and the whole territory of Poland. This data is used in an experimental installation of a Big Data processing system based on the open source software at the Academic Computer Center in Gdansk. The center has one of the most powerful supercomputers in Poland – the Tryton computing cluster, consisting of 1600 nodes interconnected by a fast Infiniband network (56 Gbps) and over 6 PB of storage. Some of these nodes are used as a computational cloud supervised by an OpenStack platform, where the Sentinel-2 data is processed. A subsystem of the automatic, perpetual data download to object storage (based on Swift) is deployed, the required software libraries for the image processing are configured and the Apache Spark cluster has been set up. The above system enables gathering and analysis of the recorded satellite images and the associated metadata, benefiting from the parallel computation mechanisms. This paper describes the above solution including its technical aspects.
Źródło:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk; 2017, 21, 4; 365-377
1428-6394
Pojawia się w:
TASK Quarterly. Scientific Bulletin of Academic Computer Centre in Gdansk
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie zbiorów danych RDF do modelowania czasoprzestrzennego w geoinformatyce
The application of RDF datasets for spatiotemporal modelling in geoinformatics
Autorzy:
Łukowicz, J.
Iwaniak, A.
Powiązania:
https://bibliotekanauki.pl/articles/346047.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
ontologie
zbiory danych RDF
grafy nazwane
ontologie formalne
model czasoprzestrzenny
ontologies
RDF datasets
named graphs
formal ontologies
spatiotemporal model
Opis:
Istotnym wyzwaniem dla gospodarki przestrzennej jest poprawny opis zjawisk zachodzących w przestrzeni i prognozowanie przyszłego jej stanu. Potrzebne są systemy służące gromadzeniu i porządkowaniu danych opisujących stan przestrzeni w jej dynamicznej postaci. Takich rozwiązań mogą dostarczyć technologie sieci semantycznych (Semantic Web), w tym grafy RDF, służące udostępnianiu zasobów przestrzennych, jako danych powiązanych (Linked Data) oraz ontologie, zarówno w postaci taksonomicznej, jak i aksjomatycznej. Obrazowanie odniesienia przestrzennego i czasowego może być realizowane w bezpośrednim odniesieniu do obiektów odzwierciedlających przedmioty i zjawiska występujące w rzeczywistej przestrzeni albo w formie kontekstu czasoprzestrzennego, w jakim informacja o tych obiektach została pozyskana. Pierwsze podejście odnosi się do modelowania danych, a drugie do modelowania metadanych. Autorzy prezentują strukturę, która, dzięki wykorzystaniu grafów RDF w formie tzw. zbiorów danych RDF (RDF Datasets), łączy oba modele w jeden spójny system. Wspólny system, który daje możliwość wykorzystania tych samych narzędzi do wyszukiwania zasobów na podstawie metadanych, a następnie do eksploracji i przetwarzania samych zasobów, które są nimi opisane. Dodatkowo pozwala uzupełniać brakujące informacje o lokalizacji lub trwaniu obiektów rzeczywistych, dzięki informacji zawartej w metadanych.
The crucial challenge for spatial development is proper description of phenomena occurring in real space and forecasting their future state. We need systems for gathering and organizing data describing the state of space in its dynamic form. Semantic Web technologies could be considered as promising tools to acquire such an aim. Among them, RDF graphs in the form of Linked Data and ontologies (in the form of taxonomic as well as axiomatic ontologies) seem to be very useful for such purpose. Presentation of spatial and temporal reference of reflected real objects can be performed by direct object description and by exposing spatiotemporal context of information about object from which this information was retrieved. First approach is related to data modeling, second to metadata modeling. The authors present the structure of RDF Datasets which makes it possible to combine both models in a coherent system. The joint system makes it possible to reuse common tools for searching of resources using metadata, and then for exploration and processing of the spatial data found. In addition, such approach gives us a chance to fill the gaps in retrieved data, referring to duration or location of objects, through the information contained in metadata.
Źródło:
Roczniki Geomatyki; 2015, 13, 1(67); 21-34
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zone estimation with cluster analysis of public transport stops
Ocena strefowa z analizą skupień przystanków transportu publicznego
Autorzy:
Horváth, B.
Nagy, V.
Powiązania:
https://bibliotekanauki.pl/articles/192544.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
public transport
big data
time series
similarity matrix
clustering
transport publiczny
duże zbiory danych
szeregi czasowe
podobieństwa macierzy
grupowanie
Opis:
Nowadays the data sets are spreading continually, generated by different devices and systems. The public transport is also not an exception in this. The modern GPS based tracking systems and the electronic tickets are producing lot of data, and we could use them for improving the service level. In the right case, these data are storing, and the service suppliers are not dealing with its information content, but, on the other hand, maybe they are just deleting these, in the interest of the avoidance of digital space occupancy. However, these data are processable with the modern devices and methods, and we can use them for information obtaining. Thanks to the spread of data mining, these tools are not appearing only in marketing research but in the most various kind of scientific area too, and they are advertising a new scientific revolution. Although the importance of these data sources is essential it is not widespread in general in transport planning, only in some specific areas [1] as described by Csiszár et al. This article presents possible application of the digital raw materials, taking the public transport passengers boarding information as base. We created a three step method which could be useful in automatic zone shaping or to supervise the manually created zone borders. It is also able to give help in land-usage examinations. The procedure is effective in making traveling chains from smart card data and in creation of origin destination matrix from check-in data. In this article we are showing how the zone distribution is possible with the assistance of different distance measurement methods and clustering procedures, and we are presenting the results on the example of a selected city.
Obecnie nieustannie powstają różne zbiory danych, generowane przez różne urządzenia i systemy. Transport publiczny nie jest w tym zakresie wyjątkiem. Nowoczesne systemy monitorowania oparte na GPS i bilety elektroniczne wytwarzają duże ilości danych, i moglibyśmy je wykorzystać dla poprawy poziomu usług. Z jednej strony dane te są przechowywane, a dostawcy usług nie mają do czynienia z zawartością informacji, ale z drugiej strony, być może są one po prostu usuwane, aby ograniczyć obciążanie cyfrowej przestrzeni. Dane te mogą być przetwarzane dzięki nowoczesnym urządzeniom i metodom, i możemy je wykorzystać do uzyskania informacji. Dzięki rozprzestrzenianiu eksploracji danych, narzędzia te pojawiają się nie tylko w badaniach marketingowych, ale w większości różnych działań badawczych, i reklamują one nową rewolucję naukową. Chociaż znaczenie tych źródeł danych jest zasadnicze, nie jest to rozpowszechnione w planowaniu transportu, a jedynie w pewnych określonych obszarach [1], tak jak pisze Csiszár i in. W artykule przedstawiono możliwości zastosowania materiałów nieprzetworzonych, biorąc jako podstawę informacje o pasażerach podróżujących transportem publicznym. Stworzono metodę trzech kroków, która może być przydatna do automatycznego kształtowania strefy lub do nadzorowania granic stref utworzonych konwencjonalnie. Może też przydać się przy kontroli gruntów użytkowych. Procedura ta jest skuteczna w tworzeniu łańcuchów podróży z danych z kart inteligentnych oraz w tworzeniu macierzy żródło-cel na podstawie danych zameldowania. W artykule pokazano, w jaki sposób możliwa jest dystrybucja stref, za pomocą różnych metod pomiaru odległości i procedur gromadzenia, i zaprezentowano tego efekty na przykładzie wybranego miasta.
Źródło:
Transport Miejski i Regionalny; 2016, 7; 9-12
1732-5153
Pojawia się w:
Transport Miejski i Regionalny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Klasyfikacja i wizualizacja zobrazowań dpTK w środowisku trójwymiarowym
Classification and visualization of dpCT in three-dimensional environment
Autorzy:
Ogiela, M. R.
Hachaj, T.
Powiązania:
https://bibliotekanauki.pl/articles/153810.pdf
Data publikacji:
2011
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
wizualizacja trójwymiarowych pól skalarnych
dynamiczna perfuzja mózgowa
duże zbiory danych
analiza kognitywna
volume rendering
dynamic brain perfusion
large datasets
cognitive analysis
Opis:
W artykule został zaprezentowany wspomagany sprzętowo algorytm wizualizujący trójwymiarowe dyskretne pola skalarne o teoretycznie dowolnych rozmiarach. Zostały również przedstawione oryginalne wyniki badań, w których określono zależność pomiędzy szybkością wizualizacji (fps) a ilością przesłań danych pomiędzy pamięcią RAM komputera i kartą graficzną. Zbadano także w jaki sposób szacowanie gradientu pola skalarnego przed procesem wizualizacji wpływa na przyspieszenie tworzenia grafiki w wypadku dużych objętości. Jeżeli zbiór danych został podzielony na wiele podzbiorów (w przeprowadzany doświadczeniu było ich 512) algorytmy estymujące gradient we wstępnym przetwarzaniu działały wolniej niż liczące go czasie rzeczywistym, ponieważ te drugie redukują ilość danych, które muszą być przesłane do GPU.
In this paper a new hardware accelerated algorithm pipeline (Fig. 1) for visualization of three-dimensional scalar fields without limitation on dataset size (Fig. 2) is described. There are presented original results of research on average performance speed (fps) of rendering algorithms as a function of data transitions between RAM and GPU (Tab 1. and Fig. 3). The speed of rendering decreases with number of partitioning and view-aligned slices. It has also been investigated how the pre-rendering gradient estimation influences the visualization process in case of large volumetric datasets. It is shown that in case of large partitioning of volume it is better to transfer less data to GPU memory and to compute the gradient value on the fly. The potential usage of that algorithm as a visualization module for the system performing cognitive analysis of dpCT data [3, 4, 5] is presented. The output data of the diagnostic algorithm is a superimposition onto the volume CT data (Fig. 4). This particular solution gives additional support to medical personnel by supplying them with simultaneous visualization of medical data of different modalities enabling more accurate diagnosis.
Źródło:
Pomiary Automatyka Kontrola; 2011, R. 57, nr 11, 11; 1444-1447
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wpływu wybranych metod redukcji NMT w tworzeniu map zagrożenia powodziowego
Comparison of the impact of selected DTM reduction method in flood hazard map creation
Autorzy:
Bakuła, K.
Powiązania:
https://bibliotekanauki.pl/articles/130866.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
numeryczny model terenu
redukcja
mapa zagrożenia powodziowego
duże zbiory danych
LIDAR
DEM/DTM
reduction
flood hazard map
large data set
lidar
Opis:
Oprogramowania tworzące mapy zagrożenia związanego z kataklizmem powodzi opierają się w dużej mierze na danych o terenie w formie numerycznego modelu terenu. Produkt ten generowany jest na podstawie danych ze skaningu laserowego, który dostarcza odpowiednio dokładne, ale i ogromne zbiory danych, stwarzające problemy dla skomplikowanych obliczeń przy modelowaniu hydraulicznym. W niniejszej pracy przedstawiono wpływ redukcji NMT na określanie miejsc potencjalnego wystąpienia katastrofy powodzi poprzez tworzenie map zagrożenia powodziowego. Numeryczny model terenu obszaru testowego poddany został znaczącej redukcji wybranymi metodami, co posłużyło do późniejszych analiz związanych z jej wpływem na wielkość obszaru zagrożonego katastrofą powodzi. Celem badania jest przede wszystkim udowodnienie istnienia możliwości wykorzystania jedynie nieznacznej części informacji zawartej w NMT dla stworzenia równie wysoko dokładnych opracowań co takie, dla pozyskania których wykorzystano oryginalne dane. Wyniki doświadczenia potwierdzają przypuszczenie o niewielkich rozbieżnościach w określeniu miejsc zagrożonych powodzią pomiędzy analizami z użyciem oryginalnych danych i tych poddanych różnowariantowej redukcji.
Software for creating flood risk maps and simulation of flood water is based on Digital Terrain Model (DTM). Such product is generated on a basis of laser scanning data which provide appropriately accurate results and huge data sets as well, what causes many problems for hydrodynamic – numerical calculations. The essential issue for such data is high redundancy which can guarantee the opportunity to thin it out. However, it is possible to provide suitable DTM for flood modeling by its intelligent reduction, which could still ensure sufficient accuracy for application such as hydrodynamic modeling. In this paper, the impact of DTM reduction on determination of area at risk of flood disaster by creating flood hazard maps was presented. Digital terrain model of case study was significantly reduced with use of six selected methods, what gave possibility for subsequent analysis of reduction impact on the size of the area endangered by a flood disaster. This reduction was based on the automation of the process where points, containing key information, were retained while redundant points, duplicating information about terrain height, were removed from the data set. For comparison of the result of reduction, such reduced models were used in practice to determine flood risk by creating flood hazard maps for selected water levels. For each reduction method, flood simulation with different river water level (i.e. digital water surface model) was created. In this way, area endangered by flood was determined in result of the intersection of digital terrain model and digital water surface model. Size of such area was compared then for each approach with the results obtained on the basis of original DTM data and methods were assessed in terms of their accuracy, efficiency and suitability for presented issues. The aim of this research is particularly to prove that it is possible to use only small percentage of the information contained in DTM for the creation as highly accurate studies as can be obtained from original data. The results of experiment confirm the assumption of small disparities in identifying areas endangered by flood disaster between analysis with use of original data and those reduced by various methods. Difference between results from unreduced and reduced DTMs was very slight what proves that well-generalized models of terrain can be effectively used in that application.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 19-28
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Separable data aggregation by layers of elementary classifiers
Separowalna agregacja danych w warstwach klasyfikatorów elementarnych
Autorzy:
Bobrowski, L.
Powiązania:
https://bibliotekanauki.pl/articles/341103.pdf
Data publikacji:
2007
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
transformacje danych
agregacja danych
separowalne zbiory danych
klasyfikatory elementarne
wypukła i odcinkowo-liniowa (CPL) funkcja kryterialna
data transformations
data aggregation
separable data sets
elementary classifiers
convex and piecewise linear (CPL) criterion function
Opis:
Data exploration or data mining goals can be reached by using variety of methods such as the fuzzy set theory or the rough sets theory. An interesting group of data exploration methods is based on minimization of convex and piecewise linear (CPL) criterion functions. This method originated from the theory of neural networks (multilayer Perceptrons). Powerful methods of data mining based on the support vector machines (SVM) can be also linked to this concept. Hierarchical networks of formal neurons or multivariate decision trees can be induced from learning sets through minimization CPL criterion functions specified for classification problem. Another type of the CPL criterion functions can be used for designing visualizing data transformations. Separability of the transformed learning sets is a fundamental concept in the CPL approach to designing data mining tools.
Cele eksploracji danych mogą być osiągnięte przy użyciu różnorodnych metod, takich jak teoria zbiorów rozmytych lub teoria zbiorów przybliżonych. Interesująca grupa metod eksploracji danych bazuje na minimalizacji wypukłych i odcinkowo-liniowych (CPL) funkcji kryterialnych. Metody te wywodzą się z teorii sieci neuropodobnych (wielowarstwowy perceptron). Do tej grupy mogą być także zaliczone silne obliczeniowo metody eksploracji danych bazujące na maszynach wektorów podpierających (SVM). Hierarchiczne sieci neuronów formalnych lub wielowymiarowe drzewa decyzyjne mogą być zbudowane na podstawie zbiorów uczących poprzez minimalizację funkcji kryterialnych typu CPL dostosowanych do problemu klasyfikacji. Inny typ funkcji kryterialnych CPL może być użyty do projektowania wizualizacyjnych transformacji danych. Podstawą w omawianym podejściu CPL do projektowania narzędzi eksploracji danych jest separowalność transformowanych zbiorów uczących.
Źródło:
Zeszyty Naukowe Politechniki Białostockiej. Informatyka; 2007, 2; 19-37
1644-0331
Pojawia się w:
Zeszyty Naukowe Politechniki Białostockiej. Informatyka
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies