Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Analiza danych" wg kryterium: Temat


Tytuł:
Analiza wybranych metod walidacji krzyżowej w programie RSES
Analysis of selected cross-validation methods in the RSES program
Autorzy:
Kołpacki, Radosław
Powiązania:
https://bibliotekanauki.pl/articles/41203506.pdf
Data publikacji:
2024
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
walidacja krzyżowa
RSES
analiza danych
zależność
algorytm genetyczny
cross-validation
data analysis
dependency
genetic algorithm
Opis:
W artykule przeprowadzono analizę zbioru danych za pomocą dwóch metod walidacji krzyżowej. Wykorzystano program RSES do identyfikacji kluczowych właściwości i relacji w zbiorze. Wyniki wykazują wpływ niektórych parametrów na potencjalną dokładność wyników.
This article presents an analysis of a dataset using two cross-validation methods. The RSES program was employed to identify key properties and relationships within the dataset. The results indicate the impact of certain parameters on the potential accuracy of the outcomes.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2024, 16, 1
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wybranych metod walidacji krzyżowej w programie RSES
Analysis of selected cross-validation methods in the RSES program
Autorzy:
Bethke, Beata
Powiązania:
https://bibliotekanauki.pl/articles/41203515.pdf
Data publikacji:
2024
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
walidacja krzyżowa
RSES
analiza danych
zależność
algorytm genetyczny
cross-validation
data analysis
dependency
genetic algorithm
Opis:
W artykule przeprowadzono analizę zbioru danych za pomocą dwóch metod walidacji krzyżowej. Wykorzystano program RSES do identyfikacji kluczowych właściwości i relacji w zbiorze. Wyniki wykazują wpływ niektórych parametrów na potencjalną dokładność wyników.
This article presents an analysis of a dataset using two cross-validation methods. The RSES program was employed to identify key properties and relationships within the dataset. The results indicate the impact of certain parameters on the potential accuracy of the outcomes.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2024, 16, 1; 11-14
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza zbioru danych dotyczących oceny akceptowalności samochodów za pomocą teorii zbiorów przybliżonych i programu RSES
Analysis of the car acceptability assessment dataset using rough set theory and the RSES program
Autorzy:
Gorączka, Mateusz
Powiązania:
https://bibliotekanauki.pl/articles/41203532.pdf
Data publikacji:
2024
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
teoria zbiorów przybliżonych
zbiór danych
analiza danych
klasyfikacja danych
RSES
rough set theory
dataset
data analysis data classification
Opis:
Artykuł skupia się na analizie danych z wykorzystaniem teorii zbiorów przybliżonych oraz różnych metod, takich jak algorytm genetyczny, klasyfikacja za pomocą zestawu reguł i metoda walidacji krzyżowej. Przedstawiono także kompletny proces analizy danych przy użyciu programu RSES. Wykorzystany zbiór danych oraz wyniki analizy zostałyomówione w kontekście teorii zbiorów przybliżonych. Artykuł kończy się podsumowaniem i wnioskamiskupiającymi się na aspekcie skuteczności wspomnianych metod w analizie zbioru danych oraz efektywności programu w kwestii przeprowadzania w nim analiz.
The article focuses on data analysis using rough set theory and various methods such as the genetic algorithm, rule set classification and the cross-validation method. The complete data analysis process using RSES is also presented. The data set used and the results of the analysis are discussed in the context of rough set theory. The article concludes with a summary and conclusions focusing on the aspect of the effectiveness of aforementioned methods in analysing the dataset and the efficiency of the programin terms of performing analysis in it.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2024, 16, 1; 24-32
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Asymptotic Normality of Single Functional Index Quantile Regression for Functional Data with Missing Data at Random
Asymptotyczna normalność regresji kwantylowej pojedynczego wskaźnika funkcyjnego dla danych funkcjonalnych z losowymi brakującymi danymi
Autorzy:
Allal, Anis
Kadiri, Nadia
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/31233546.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
asymptotic normality
functional data analysis
functional single-index process
missing at random
nonparametric estimation
small ball probability
asymptotyczna normalność
funkcjonalna analiza danych
funkcjonalny proces poje- dynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
This work addresses the problem of the nonparametric estimation of the regression function, namely the conditional distribution and the conditional quantile in the single functional index model (SFIM) under the independent and identically distributed condition with randomly missing data. The main result of this study was the establishment of the asymptotic properties of the estimator, such as the almost complete convergence rates. Moreover, the asymptotic normality of the constructs was obtained under certain mild conditions. Lastly, the authors discussed how to apply the result to construct confidence intervals.
W artykule autorzy prowadzą rozważania dotyczące problemu nieparametrycznej estymacji funkcji regresji, a mianowicie rozkładu warunkowego i kwantyla warunkowego w modelu pojedynczego indeksu funkcjonalnego (SFIM) przy założeniu niezależnych i z identycznym rozkładem danych z losowymi brakami danych. Głównym rezultatem przeprowadzonych badań było ustalenie asymptotycznych właściwości estymatora, takich jak prawie całkowite współczynniki zbieżności. Co więcej, asymptotyczną normalność konstruktów uzyskano dla pewnych łagodnych warunków. Na koniec omówiono, jak zastosować uzyskany wynik do skonstruowania przedziałów ufności.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 1; 26-38
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Central Limit Theorem for Conditional Mode in the Single Functional Index Model with Data Missing at Random
Centralne twierdzenie graniczne dla trybu warunkowego w jednolitym funkcjonalnym modelu indeksowym z losowym brakiem danych
Autorzy:
Allal, Anis
Dib, Abdessamad
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/31233548.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
functional data analysis
functional single-index process
kernel estimator
missing at random
nonparametric estimation
small ball probability
funkcjonalna analiza danych
funkcjonalny proces pojedynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
This paper concentrates on nonparametrically estimating the conditional density function and conditional mode within the single functional index model for independent data, particularly when the variable of interest is affected by randomly missing data. This involves a semi-parametric single model structure and a censoring process on the variables. The estimator's consistency (with rates) in a variety of situations, such as the framework of the single functional index model (SFIM) under the assumption of independent and identically distributed (i.i.d) data with randomly missing entries, as well as its performance under the assumption that the covariate is functional, are the main areas of focus. For this model, the nearly almost complete uniform convergence and rate of convergence established. The rates of convergence highlight the critical part that the probability of concentration play in the law of the explanatory functional variable. Additionally, we establish the asymptotic normality of the derived estimators proposed under specific mild conditions, relying on standard assumptions in Functional Data Analysis (FDA) for the proofs. Finally, we explore the practical application of our findings in constructing confidence intervals for our estimators. The rates of convergence highlight the critical part that the probability of concentration play in the law of the explanatory functional variable.
W artykule skoncentrowano się na nieparametrycznym estymowaniu warunkowej funkcji gęstości i warunkowej dominanty w modelu pojedynczego wskaźnika funkcjonalnego dla niezależnych danych, szczególnie gdy na interesującą zmienną wpływają losowo brakujące dane. Obejmuje to strukturę półparametrycznego pojedynczego modelu i proces cenzurowania zmiennych. Zgodność estymatora (ze współczynnikami) w różnych sytuacjach, np. w ramach modelu pojedynczego wskaźnika funkcjonalnego przy założeniu niezależnych i z identycznym rozkładem danych z losowymi brakami, a także jego działanie w warunkach, gdy zmienna towarzysząca jest funkcjonałem, to główne obszary zainteresowania. Dla tego modelu wyznacza się prawie całkowicie jednolitą zbieżność i wskaźnik zbieżności. Wskaźniki zbieżności podkreślają kluczową rolę, jaką prawdopodobieństwo koncentracji odgrywa w założeniach dotyczących objaśniającej zmiennej funkcjonalnej. Dodatkowo ustala się asymptotyczną normalność wyprowadzonych estymatorów zaproponowanych w określonych łagodnych warunkach, opierając się na standardowych założeniach z analizy danych funkcjonalnych dla dowodów. Na koniec zbadano praktyczne zastosowanie ustaleń w konstruowaniu przedziałów ufności dla naszych estymatorów. Wskaźniki zbieżności podkreślają kluczową rolę, jaką prawdopodobieństwo koncentracji odgrywa w założeniach dotyczących objaśniającej zmiennej funkcjonalnej.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 1; 39-60
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identyfikacja rodzaju szkła z zastosowaniem teorii zbiorów przybliżonych w programie RSES
Glass TypeIdentificationUsing Rough Sets Theory in the RSES Program
Autorzy:
Januszewski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/41203491.pdf
Data publikacji:
2024
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
analiza danych
rodzaje szkła
teoria zbiorów przybliżonych
reguły decyzyjne
RSES
data analysis
glass type
rough sets theory
decision rules
Opis:
Artykuł przedstawia podejście do identyfikacji rodzaju szkła oparte na teorii zbiorów przybliżonych w programie RSES. Przedstawiono teoretyczne podstawy tej metody, opisano proces analizy danych oraz zaprezentowano wyniki identyfikacji rodzaju szkła.
The article presents an approach to glass type identification based on rough set theory in the RSES program. The theoretical basis of this method is presented, the data analysis process is described and the results of glass type identification are presented.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2024, 16, 1; 18-21
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Isolation Forests for Symbolic Data as a Tool for Outlier Mining
Lasy separujące dla danych symbolicznych jako narzędzie wykrywania obserwacji odstających
Autorzy:
Pełka, Marcin
Dudek, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/31233541.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
symbolic data analysis
isolation forest
outliers
analiza danych symbolicznych
lasy separujące
obserwacje odstające
Opis:
Aim: Outlier detection is a key part of every data analysis. Although there are many definitions of outliers that can be found in the literature, all of them emphasise that outliers are objects that are in some way different from other objects in the dataset. There are many different approaches that have been proposed, compared, and analysed for the case of classical data. However, there are only few studies that deal with the problem of outlier detection in symbolic data analysis. The paper aimed to propose how to adapt isolation forest for symbolic data cases. Methodology: An isolation forest for symbolic data is used to detect outliers in four different artificial datasets with a known cluster structure and a known number of outliers Results: The results show that the isolation forest for symbolic data is a fast and efficient tool for outlier mining. Implications and recommendations: As the isolation forest for symbolic data appears to be an efficient tool for outlier detection for artificial data, further studies should focus on real data sets that contain outliers (i.e. credit card fraud dataset), and this approach should be compared with other outlier mining tools (i.e. DBCSAN). The authors recommend using the same initial settings for the isolation forest for symbolic data as the settings that are proposed for the isolation forest for classical data. Originality/value: This paper is the first of its kind, focusing not only on the problem of outlier detection in general, but also extending the well-known isolation forest model for symbolic data cases. Keywords: symbolic data analysis, isolation forest, outliers
Cel: Identyfikacja obserwacji odstających stanowi kluczowy element w analizie danych. Pomimo że w literaturze funkcjonuje wiele różnych definicji, czym są obserwacje odstające, to ogólnie można stwierdzić, że są to obiekty różniące się od pozostałych obserwacji ze zbioru danych. Literatura przedmiotu wskazuje wiele różnorodnych metod, które można wykorzystać w przypadku danych klasycznych. Niestety w przypadku danych symbolicznych brakuje takich analiz. Celem artykułu jest zaproponowanie modyfikacji lasów separujących (isolation forests) dla danych symbolicznych. Metodyka: W artykule wykorzystano lasy separujące dla danych symbolicznych do identyfikacji obserwacji odstających w sztucznych zbiorach danych o znanej strukturze klas i znanej liczbie obserwacji odstających. Wyniki: Otrzymane wyniki wskazują, że lasy separujące dla danych symbolicznych są efektywnym i szybkim narzędziem w identyfikacji obserwacji odstających. Implikacje i rekomendacje: Ponieważ lasy separujące dla danych symbolicznych okazały się skutecznym narzędziem w identyfikacji obserwacji odstających, celem przyszłych badań powinno być przeanalizowanie skuteczności tej metody w przypadku rzeczywistych zbiorów danych (np. zbioru dotyczącego oszustw z użyciem kart kredytowych), a także porównanie tej metody z innymi metodami, które pozwalają odnaleźć obserwacje odstające (np. DBSCAN). Autorzy sugerują, by w przypadku lasów separujących dla danych symbolicznych stosować te same parametry, jakie zwykle stosuje się w przypadku lasów losowych dla danych klasycznych. Oryginalność/wartość: Artykuł nie tylko stanowi ujęcie teorii w zakresie obserwacji odstających, ale jednocześnie proponuje, jak zastosować lasy separujące w przypadku danych symbolicznych.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 1; 1-10
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza wydajności pracy z bazami danych na przykładzie Springi Symfony
Performance analysis of working with databases with Spring and Symfony
Autorzy:
Wieleba, Ewa
Wieleba, Bartłomiej
Powiązania:
https://bibliotekanauki.pl/articles/24083613.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
analiza porównawcza
Spring
Symfony
relacyjne bazy danych
comparative analysis
relational databases
Opis:
W artykule przedstawiono analizę porównawcząwydajności pracy z bazami danych MySQL i PostgreSQL, z wykorzystaniem popularnych szkieletów programistycznych Spring (Java) i Symfony. Badania przeprowadzono z wykorzystaniem autorskich aplikacji testowych, realizujących operacje typu CRUD na różnej liczbie rekordów. Wyniki testów wykazały, że czas wykonywania operacji zapisu i usuwania danych przy użyciu aplikacji Spring jest dłuższy niż przy wykonywaniu tych analogicznych operacji w Symfony. Natomiast w przypadku operacji UPDATE i SELECT, czas wykonywania operacji za pomocą aplikacji Spring okazał się krótszy niż w przypadku Symfony. Wyniki testów dowiodły, że niezależnie od szkieletu programistycznego MySQL jest mniej wydajny w stosunku do PostgreSQL przy wykonywaniu poleceń na dużej liczbie (10 000) rekordów dla wszystkich operacji poza operacją DELETE, gdzie MySQL z Symfony jest najszybszy.
The article presents a comparative analysis of the efficiency of work with MySQL and PostgreSQL databases, using the popular Spring (Java) and Symfony programming frameworks. The research was carried out with the use of proprietary test applications that perform CRUD operations on a different number of records. The test results showed that the execution time of writing and deleting data using the Spring application is longer than when performing the same operations in Symfony. On the other hand, in the case of UPDATE and SELECT operations, the operation execution time with the Spring application turned out to be shorter than in the case of Symfony. The test results also confirmed that, regardless of the development framework, MySQL is less efficient than PostgreSQL while operating on 10 000 records except for DELETE, where MySQL combined with Symfony is the fastest.
Źródło:
Journal of Computer Sciences Institute; 2023, 26; 75--82
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of the effectiveness of time series analysis methods: SMA, WMA, EMA, EWMA, and Kalman filter for data analysis
Porównanie skuteczności metod analizy szeregów czasowych: SMA, WMA, EMA, EWMA i filtr Kalmana do analizy danych
Autorzy:
Lotysh, Volodymyr
Gumeniuk, Larysa
Humeniuk, Pavlo
Powiązania:
https://bibliotekanauki.pl/articles/27315442.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
data analysis
modeling
moving average
Kalman filter
analiza danych
modelowanie
średnia ruchoma
filtr Kalmana
Opis:
In time series analysis, signal processing, and financial analysis, simple moving average (SMA), weighted moving average (WMA), exponential moving average (EMA), exponential weighted moving average (EWMA), and Kalman filter are widely used methods. Each method has its own strengths and weaknesses, and the choice of method depends on the specific application and data characteristics. It is important for researchers and practitionersto understand the properties and limitations of these methods in order to make informed decisions when analyzing time seriesdata. This study investigates the effectiveness of time series analysis methods using data modeled with a known exponential function with overlaid random noise. This approach allows for control of the underlying trend in the data while introducing the variability characteristic of real-world data. The relationships were written using scripts for the construction of dependencies, and graphical interpretation of the results is provided.
W analizie szeregów czasowych, przetwarzaniu sygnałów i analizie finansowej szeroko stosowane są: prosta średnia ruchoma (SMA), ważona średnia ruchoma (WMA), wykładnicza średniaruchoma (EMA), wykładniczo-ważona średnia ruchoma (EWMA) i filtr Kalmana. Każda z metod ma swoje mocne i słabe strony, a wybór metody zależy od konkretnego zastosowania i charakterystyki danych. Dla badaczyi praktyków ważne jest zrozumienie właściwości i ograniczeń tych metod w celu podejmowania świadomych decyzji podczas analizy danych szeregów czasowych. W niniejszej pracy zbadano skuteczność metod analizy szeregów czasowych z wykorzystaniem danych modelowanych znaną funkcją wykładniczą z nałożonym szumem losowym. Takie podejście pozwala na kontrolowanie głównego trendu w danych przy jednoczesnym wprowadzeniu zmienności typowej dla danych rzeczywistych. Do budowy zależności zostały napisane skrypty. Podanajest graficzna interpretacja wyników.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2023, 13, 3; 71--74
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Development of Digital Culture Research — Bibliometric Analysis Using CiteSpace
Autorzy:
Osiński, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/14440856.pdf
Data publikacji:
2023-03-31
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
digital culture
bibliographic data
Scopus
CiteSpace
bibliometric analysis
data visualisation
kultura cyfrowa
dane bibliograficzne
analiza bibliometryczna
wizualizacja danych
Opis:
The article contains a bibliometric analysis conducted on the basis of bibliographic data from the years 1996–2022, extracted from the Scopus database (May 2022). The method used involved steps beyond the traditional counting of publications and citations as well as drawing conclusions based on reading the content of academic papers. Complete biographic datasets were used for advanced analyses performed in the program CiteSpace. The state of research into digital culture may be described as follows: (1) it constitutes a new area of research that has seen particularly intensive development for the last 15 years or so; (2) systematic research is conducted by a small set of researchers; (3) they publish the findings of their research in a small selection of journals (around a dozen) and in books; (4) books contribute most to the development of such research (mainly around a dozen of the most popular ones); (5) the subject-matter of this research embraces mainly such issues as: copyright law, critical digital studies, digital art, network society, digital media, digital modernity, information technology, digitalisation, influencers, the internet era, memes, new media, social media, social networks, video games, and visual culture.
Artykuł zawiera analizę bibliometryczną przeprowadzoną na podstawie danych bibliograficznych z lat 1996–2022 wydobytych z bazy Scopus (maj 2022). Zastosowana metoda wykracza poza tradycyjne liczenie publikacji i cytowań oraz wyciąganie wniosków na podstawie lektury treści artykułów naukowych. Kompletne zbiory danych bibliograficznych zostały wykorzystane do zaawansowanych analiz przeprowadzonych w programie CiteSpace. Stan badań kultury cyfrowej można scharakteryzować następująco: (1) jest to nowy obszar badawczy, który rozwija się intensywniej od około 15 lat; (2) systematyczne badania prowadzone są przez niewielką grupę badaczy; (3) publikują oni wyniki swoich badań w niewielkiej grupie czasopism (jest ich kilkanaście) oraz w książkach; (4) największy wpływ na rozwój badań mają książki (głównie kilkanaście najpopularniejszych); (5) przedmiot badań obejmuje głównie takie zagadnienia jak: prawo autorskie, krytyczne studia cyfrowe, sztuka cyfrowa, społeczeństwo cyfrowe, media cyfrowe, cyfrowa nowoczesność, technologia informacyjna, digitalizacja, influencer, era internetu, memy, nowe media, media społecznościowe, sieci społecznościowe, gry wideo, kultura wizualna.
Źródło:
Kultura i Społeczeństwo; 2023, 67, 1; 205-230
2300-195X
Pojawia się w:
Kultura i Społeczeństwo
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dwuwymiarowa analiza korelacyjna
Two-dimensional correlation analysis
Autorzy:
Czarnecki, Mirosław Antoni
Powiązania:
https://bibliotekanauki.pl/articles/27310035.pdf
Data publikacji:
2023
Wydawca:
Polskie Towarzystwo Chemiczne
Tematy:
dwuwymiarowa analiza korelacyjna
interpretacja widm 2DCOS
przygotowanie danych do analizy
metoda ruchomego okna
widmo mocy
analiza danych spektralnych
spektroskopia oscylacyjna
two-dimensional correlation analysis
interpretation of 2DCOS spectra
data pretreatment
moving-window analysis
power spectra
spectral analysis
vibrational spectroscopy
Opis:
This review provides fundamental information on theoretical and practical aspects of two-dimensional correlation spectroscopy (2DCOS). At first, is shown a brief development of this method since its introduction by Isao Noda in 1986. In the next part is explained the general idea of 2DCOS, and details of determination of the synchronous and asynchronous spectra from the experimental data. Next section includes comprehensive description of the properties and the rules for interpretation of the 2D correlation spectra. The most common problems with interpretation of 2DCOS spectra, and the ways of improving results of correlation analysis by a proper data pre-treatment are widely discussed. In addition, some of the most important modifications of this method like moving-window analysis and PCMW2D are described. Finally, the usefulness of the power spectra is presented. It has been shown that 2D correlation analysis is a versatile and powerful tool for data analysis and provides information not readily accessible from the original data set.
Źródło:
Wiadomości Chemiczne; 2023, 77, 7-8; 775--800
0043-5104
2300-0295
Pojawia się w:
Wiadomości Chemiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dynamiczna analiza porównawcza rozwoju społeczno-gospodarczego i jakości życia w Polsce na tle krajów UE
A dynamic comparative analysis of socio-economic development and quality of life in Poland on the background of EU countries
Autorzy:
Kasprzyk, Beata
Wojnar, Jolanta
Powiązania:
https://bibliotekanauki.pl/articles/36403353.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
dane
wskaźniki
pomiar danych
Unia Europejska
analiza porównawcza
Data
Indicators
Measurement and Data
European Union
Comparative Country Studies
Opis:
Celem artykułu była analiza i ocena pozycji Polski na tle krajów UE-27 poprzez określenie poziomu rozwoju gospodarczego i jakości życia w Polsce w latach 2005–2021. Badania przeprowadzono z wykorzystaniem metody taksonomicznej TOPSIS na podstawie dostępnych, wybranych danych Eurostat i GUS. Wyniki przeprowadzonych badań empirycznych pozwoliły zauważyć, że nastąpiły istotne zmiany w poziomach i dynamice w badanych zakresach procesów w czasie. W wyniku wielowymiarowych analiz określono zróżnicowanie poziomu rozwoju społeczno-gospodarczego dla Polski i dla krajów UE. Przyporządkowano kraje do czterech różnych klas poziomu rozwoju gospodarczego i społecznego (jakości życia). Potwierdzona została także statystyczna zależność określająca stopień zgodności wskaźników taksonomicznych dla dwóch odrębnych sfer: gospodarczej i jakości życia. Dokonano uszeregowania badanych krajów pod względem wartości syntetycznego wskaźnika rozwoju społeczno-gospodarczego. W  wyniku badania stwierdzono, że ogólnie badane kraje charakteryzują się dużym zróżnicowaniem badanych procesów. Polska znacznie nadrobiła i nadrabia zaległości w rozwoju gospodarczym i społecznym w stosunku do pozostałych państw Unii Europejskiej. Spośród krajów europejskich Polska zyskała najwięcej w zakresie rozwoju gospodarczego, przesuwając się o 9 lokat w górę w ogólnym rankingu UE-27. Równocześnie Polska z grupy krajów o najniższej jakości życia po wejściu do Unii Europejskiej po 16 latach, tj. w 2021 roku, awansowała do grupy charakteryzującej się wysokim poziomem jakości życia (aktualnie zajmuje 15. miejsce wśród krajów UE-27).
The aim of the article is to analyse and evaluate Poland’s position on the background of the EU-27 countries by determining the level of economic development and quality of life in Poland in 2005–2021. Empirical data made it possible to apply a multivariate data analysis, a case of linear ordering of objects (TOPSIS method). The research was carried out using the taxonomic method on the basis of available, selected data from Eurostat and the Central Statistical Office. The results of the empirical research show that there were significant changes in the levels and dynamics in the examined processes. As a result of multidimensional analyses, differences in the level of socioeconomic development for Poland and the EU-27 countries were determined. Countries were assigned to four different classes of the level of economic and social development (quality of life). The statistical relationship determining the degree of compliance of taxonomic indicators for two separate spheres – economic and quality of life – was also confirmed. The applied method made it possible to construct a synthetic indicator of the level of economic and social development in each of the EU-27 countries. In general, the studied countries are characterised by a large diversity of the studied processes. The analysis of results in terms of ‘economic and social processes’ of the countries made it possible to create a ranking of the countries, separately in 2005 and 2020. Poland, over time, has moved favourably in terms of ‘economic and social development’ in relation to other European Union countries. 
Źródło:
Nierówności Społeczne a Wzrost Gospodarczy; 2023, 74; 33-52
1898-5084
2658-0780
Pojawia się w:
Nierówności Społeczne a Wzrost Gospodarczy
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Narzędzia Business Intelligence dedykowane do analityki big data
Business Intelligence tools dedicated to big data analytics
Autorzy:
Zabroń, Mariusz
Wołoszyn, Jacek
Powiązania:
https://bibliotekanauki.pl/articles/28394709.pdf
Data publikacji:
2023-11
Wydawca:
Uniwersytet Rzeszowski
Tematy:
raportowanie
analiza danych
predykcja
eksploracja danych
sztuczna inteligencja
reporting
data analysis
prediction
data mining
artificial intelligence
Opis:
W dobie transformacji cyfrowej przedsiębiorstw, sprawna analityka biznesowa staje się koniecznością. Zastosowanie odpowiednich systemów informatycznych dedykowanych do tych operacji może sprawić, że podejmowanie decyzji biznesowych stanie się szybkie, proste i trafne. W niniejszym opracowaniu opisano szereg zagadnień związanych z terminem „Business Intelligence” (BI). Wyjaśniono kwestię samego pojęcia, a także przedstawiono dedykowane do tego narzędzia wraz z rozwiązaniami opartymi na elementach sztucznej inteligencji. Podstawowe rozważania dotyczą opisu narzędzi informatycznych dedykowanych analizie danych biznesowych, może być doskonałym punktem wyjścia do szczegółowych rozważań w tej dziedzinie.
In the era of digital transformation of enterprises, efficient business analytics is becoming a necessity. The use of appropriate IT systems dedicated to these operations can make making business decisions fast, simple and accurate. This paper describes a number of issues related to the term “Business Intelligence” (BI). The issue of the concept it self was explained, as well as dedicated tools were presented along with solutions based on elements of artificial intelligence. Basic consideration and description of IT tools dedicated to business data analysis can be an excellent starting point for detailed considerations in this field.
Źródło:
Dydaktyka informatyki; 2023, 18, 18; 185-193
2083-3156
2543-9847
Pojawia się w:
Dydaktyka informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rejestratory prawne w pojazdach szynowych. Sygnały bezpieczeństwa i ich interpretacja
Event and data recorders in rail vehicles – safety signals and their interpretation
Autorzy:
Tokarczyk, Łukasz
Basiaga, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/26917695.pdf
Data publikacji:
2023
Wydawca:
Wydawnictwo Instytutu Ekspertyz Sądowych
Tematy:
pojazdy kolejowe
bezpieczeństwo
analiza danych
interpretacja danych
event recorder
data recorder
data analysis
data interpretation
Opis:
Celem artykułu jest przybliżenie zakresu sygnałów zapisywanych w rejestratorach prawnych używanych w kolejnictwie oraz ich interpretacji. W metodyce badawczej wykorzystano zarówno pomiary sygnałów w ramach testów przed eksploatacyjnych pojazdów kolejowych produkowanych w Newag SA, jak również późniejszą obserwację sygnałów podczas użytkowania. W wyniku finalnych analiz możliwe stało się wyszczególnienie sygnałów kluczowych dla bezpieczeństwa, jak również określenie ich prawidłowej interpretacji w odniesieniu analizowanego zdarzenia.
The aim of the article is to present the scope of signals recorded in event and data law recorders in railways and their interpretation. In the research methodology both signal measurements as part of pre-operational tests of railway vehicles manufactured by Newag SA as well as the subsequent observation of signals during operation were employed. The final analyses enabled the specification of safety-critical signals and determination of their correct interpretation relative to the analyzed event.
Źródło:
Paragraf na Drodze; 2023, 2; 51-63
1505-3520
2956-3631
Pojawia się w:
Paragraf na Drodze
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Single Functional Index Quantile Regression for Functional Data with Missing Data at Random
Właściwości asymptotyczne estymatorów półparametrycznych dla kwantyla warunkowego pojedynczego wskaźnika funkcjonalnego z losowymi brakami danych
Autorzy:
Kadiri, Nadia
Mekki, Sanaà Dounya
Rabhi, Abbes
Powiązania:
https://bibliotekanauki.pl/articles/21375671.pdf
Data publikacji:
2023
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
functional data analysis
functional single index process
kernel estimator
missing at random
nonparametric estimation
small ball probability
funkcjonalna analiza danych
funkcjonalny proces pojedynczego indeksu
estymator jądra
losowe braki
estymacja nieparametryczna
prawdopodobieństwo małej kuli
Opis:
The primary goal of this research was to estimate the quantile of a conditional distribution using a semi-parametric approach in the presence of randomly missing data, where the predictor variable belongs to a semi-metric space. The authors assumed a single index structure to link the explanatory and response variable. First, a kernel estimator was proposed for the conditional distribution function, assuming that the data were selected from a stationary process with missing data at random (MAR). By imposing certain general conditions, the study established the model’s uniform almost complete consistencies with convergence rates.
Głównym celem przedstawionych w artykule badań jest oszacowanie kwantyla rozkładu warunkowego przy użyciu podejścia półparametrycznego w obecności losowo brakujących danych, gdzie zmienna predykcyjna należy do przestrzeni semimetrycznej. Założono strukturę pojedynczego indeksu, aby połączyć zmienną objaśniającą i zmienną odpowiedzi. Wstępnie zaproponowano estymator jądra dla funkcji rozkładu warunkowego, zakładając, że dane są losowo wybierane z procesu stacjonarnego z brakującymi danymi (MAR). Nakładając pewne ogólne warunki, ustalono jednolitą, prawie całkowitą zgodność modelu ze współczynnikami konwergencji.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2023, 27, 3; 1-19
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies