Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "data set" wg kryterium: Temat


Wyświetlanie 1-41 z 41
Tytuł:
Performance evaluation of deep neural networks applied to speech recognition : RNN, LSTM and GRU
Autorzy:
Shewalkar, Apeksha
Powiązania:
https://bibliotekanauki.pl/articles/91735.pdf
Data publikacji:
2019
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
spectrogram
connectionist temporal classification
TED-LIUM data set
Opis:
Deep Neural Networks (DNN) are nothing but neural networks with many hidden layers. DNNs are becoming popular in automatic speech recognition tasks which combines a good acoustic with a language model. Standard feedforward neural networks cannot handle speech data well since they do not have a way to feed information from a later layer back to an earlier layer. Thus, Recurrent Neural Networks (RNNs) have been introduced to take temporal dependencies into account. However, the shortcoming of RNNs is that long-term dependencies due to the vanishing/exploding gradient problem cannot be handled. Therefore, Long Short-Term Memory (LSTM) networks were introduced, which are a special case of RNNs, that takes long-term dependencies in a speech in addition to shortterm dependencies into account. Similarily, GRU (Gated Recurrent Unit) networks are an improvement of LSTM networks also taking long-term dependencies into consideration. Thus, in this paper, we evaluate RNN, LSTM, and GRU to compare their performances on a reduced TED-LIUM speech data set. The results show that LSTM achieves the best word error rates, however, the GRU optimization is faster while achieving word error rates close to LSTM.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2019, 9, 4; 235-245
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying a neural network ensemble to intrusion detection
Autorzy:
Ludwig, Simone A.
Powiązania:
https://bibliotekanauki.pl/articles/91620.pdf
Data publikacji:
2019
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
ensemble learning
Deep Neural Networks
NSL-KDD data set
Opis:
An intrusion detection system (IDS) is an important feature to employ in order to protect a system against network attacks. An IDS monitors the activity within a network of connected computers as to analyze the activity of intrusive patterns. In the event of an ‘attack’, the system has to respond appropriately. Different machine learning techniques have been applied in the past. These techniques fall either into the clustering or the classification category. In this paper, the classification method is used whereby a neural network ensemble method is employed to classify the different types of attacks. The neural network ensemble method consists of an autoencoder, a deep belief neural network, a deep neural network, and an extreme learning machine. The data used for the investigation is the NSL-KDD data set. In particular, the detection rate and false alarm rate among other measures (confusion matrix, classification accuracy, and AUC) of the implemented neural network ensemble are evaluated.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2019, 9, 3; 177-178
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The analysis of properties of insertion sort algorithm for large data sets
Analiza własności algorytmu sortowania przez wstawianie dla dużych zbiorów danych
Autorzy:
Woźniak, M.
Marszałek, Z.
Gabryel, M.
Powiązania:
https://bibliotekanauki.pl/articles/1203410.pdf
Data publikacji:
2012
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
algorytm sortowania przez wstawianie
zbiór danych
insertion sort algorithm
data set
Opis:
Insertion sort algorithm is one of the sorting algorithms. It is characterized by the computational complexity and time complexity, which represent the possibility of using it for large data sets. The present work is to describe this algorithm and describe it’s performance when sorting large scale data sets.
Algorytm sortowania przez wstawianie jest jednym z algorytmów opisywanych w literaturze. Omawiana metoda została scharakteryzowana poprzez złożoność czasową i obliczeniową algorytmu, która opisuje możliwość stosowania tego algorytmu do sortowania dużych zbiorów danych. Praca ta ma na celu opisanie zachowania algorytmu i jego wydajności dla dużych zbiorów danych.
Źródło:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska; 2012, 2; 45-55
2084-073X
Pojawia się w:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison and combination of interpolation methods for daily precipitation in Poland: evaluation using the correlation coefficient and correspondence ratio
Autorzy:
Konca-Kędzierska, Krystyna
Wibig, Joanna
Gruszczyńska, Marta
Powiązania:
https://bibliotekanauki.pl/articles/24085172.pdf
Data publikacji:
2023
Wydawca:
Instytut Meteorologii i Gospodarki Wodnej - Państwowy Instytut Badawczy
Tematy:
precipitation
interpolation methods
daily gridded data
validation of precipitation gridded data set
observational data
Opis:
Interpolation of precipitation data is a common practice for generating continuous, spatially-distributed fields that can be used for a range of applications, including climate modeling, water resource management, and agricultural planning. To obtain the reference field, daily observation data from the measurement network of the Institute of Meteorology and Water Management – National Research Institute was used. In this study, we compared and combined six different interpolation methods for daily precipitation in Poland, including bilinear and bicubic interpolation, inverse distance weighting, distance-weighted average, nearest neighbor remapping, and thin plate spline regression. Implementations of these methods available in the R programming language (e.g., from packages akima, gstat, fields) and the Climate Data Operators (CDO) were applied. The performance of each method was evaluated using multiple metrics, including the Pearson correlation coefficient (RO) and the correspondence ratio (CR), but there was no clear optimal method. As an interpolated resulting field, a field consisting of the best interpolations for individual days was proposed. The assessment of daily fields was based on the CR and RO parameters. Our results showed that the combined approach outperformed individual methods with higher accuracy and reliability and allowed for generating more accurate and reliable precipitation fields. On a group of selected stations (data quality and no missing data), the precipitation result fields were compared with the fields obtained in other projects-CPLFD-GDPT5 (Berezowski et al. 2016) and G2DC-PLC (Piniewski et al. 2021). The variance inflation factor (VIF) was bigger for the resulting fields (~5), while for the compared fields, it was below 3. However, for the mean absolute error (MAE), the relationship was reversed - the MAE was approximately half as low for the fields obtained in this work.
Źródło:
Meteorology Hydrology and Water Management. Research and Operational Applications; 2023, 11, 2; 1--27
2299-3835
2353-5652
Pojawia się w:
Meteorology Hydrology and Water Management. Research and Operational Applications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On classic bubble sort performance for large data sets
O wydajności klasycznej wersji sortowania bąbelkowego dla dużych zbiorów danych
Autorzy:
Marszałek, Z.
Połap, D.
Woźniak, M.
Powiązania:
https://bibliotekanauki.pl/articles/87286.pdf
Data publikacji:
2014
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
NoSQL
algorytm komputerowy
duży zbiór danych
computer algorithm
large data set
Opis:
In the paper we discuss performance of classic bubble sort algorithm for large data sets. Research results discussed and described in this article help to evaluate computer methods used in NoSQL database systems for large amounts of the input data. Therefore we try to analyze one of the most common sorting algorithms and its properties for large data sets.
Artykuł ma na celu przedstawienie analizy wydajności algorytmu sortowania bąbelkowego w postaci klasycznej dla dużych zbiorów danych. Podjęty temat ma duże znaczenie dla rozwoju współczesnej informatyki ze względu na to, że komputery muszą pracować na coraz większych ilościach danych.
Źródło:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska; 2014, 4; 103-112
2084-073X
Pojawia się w:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On bubble sort performance for large data sets and NoSQL database systems
O wydajności sortowania bąbelkowego dla dużych zbiorów danych i systemów bazodanowych typu NoSQL
Autorzy:
Marszałek, Z.
Połap, D.
Woźniak, M.
Powiązania:
https://bibliotekanauki.pl/articles/87339.pdf
Data publikacji:
2014
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
NoSQL
algorytm komputerowy
duży zbiór danych
computer algorithm
large data set
Opis:
In the paper we discuss performance of bubble sort algorithm. Research results discussed and described in this article help to evaluate this method when used in NoSQL database systems for large amounts of the input data. In the article is analyzed bubble sort algorithm for large scale data sets in two versions: classic version and modified version with logic control of order.
Sortowanie jest jednym z ważniejszych problemów współczesnej informatyki. Obecnie komputery muszą pracować na coraz większych ilościach danych, dlatego w niniejszym artykule przedstawiamy analizę algorytmu sortowania bąbelkowego pod względem jego własności dla dużych zbiorów danych i baz tybu NoSQL. W analizie zbadaliśmy wersję klasyczną i zmodyfikowaną z funkcją kontroli ułożenia elementów.
Źródło:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska; 2014, 4; 113-122
2084-073X
Pojawia się w:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On some properties of bubble sort with logic control of order for large scale data sets
O własnościach algorytmu sortowania bąbelkowego z funkcją kontroli ułożenia elementów dla dużych zbiorów danych
Autorzy:
Woźniak, M.
Marszałek, Z.
Powiązania:
https://bibliotekanauki.pl/articles/87292.pdf
Data publikacji:
2013
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
sortowanie danych
algorytm bąbelkowy
duży zbiór danych
data sorting
bubble algorithm
large data set
Opis:
Sorting is a one of very important topics for computer science. In the modern computing, computers must operate on bigger and bigger amounts of data. Therefore we try to analyze modified version of bubble sort algorithm and its properties for large data sets. Article aims to show and analyze the possible behavior of bubble sort with logic control of order for large scale data sets.
Sortowanie jest jednym z bardzo ważnych tematów współczesnej informatyki. We współczesnej informatyce komputery muszą pracować na coraz większej liczbie danych, dlatego staramy się analizować jeden z podstawowych algorytmów sortowania i jego właściwości dla dużych zbiorów danych. Artykuł ma na celu przeanalizowanie możliwego zachowania badanej wersji algorytmu z funkcją logicznej kontroli ułożenia dla dużych zbiorów danych.
Źródło:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska; 2013, 3; 47-58
2084-073X
Pojawia się w:
Zeszyty Naukowe. Matematyka Stosowana / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Set representation for rule-generation algorithms
Autorzy:
Kharkongor, Carynthia
Nath, Bhabesh
Powiązania:
https://bibliotekanauki.pl/articles/27312912.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
item set
item set representation
apriori algorithm
rule-generation algorithm
data set
set representation
bitmap
memory
time
Opis:
The task of mining association rules has become one of the most widely used discovery pattern methods in knowledge discovery in databases (KDD). One such task is to represent an item set in the memory. The representation of the item set largely depends on the type of data structure that is used for storing them. Computing the process of mining an association rule impacts the memory and time requirements of the item set. With the constant increase of the dimensionality of data and data sets, mining such a large volume of data sets will be difficult since all of these item sets cannot be placed in the main memory. As the representation of an item set greatly affects the efficiency of the rule-mining association, a compact and compressed representation of the item set is needed. In this paper, a set representation is introduced that is more memory- and cost-efficient. Bitmap representation takes 1 byte for an element, but a set representation uses 1 bit. The set representation is being incorporated in the Apriori algorithm. Set representation is also being tested for different rule-generation algorithms. The complexities of these different rule-generation algorithms that use set representation are being compared in terms of memory and time of execution.
Źródło:
Computer Science; 2022, 23 (2); 205--225
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal Ensemble Learning Based on Distinctive Feature Selection by Univariate ANOVA-F Statistics for IDS
Autorzy:
Shakeela, Shaikh
Sai Shankar, N.
Mohan Reddy, P.
Kavya Tulasi, T.
Mahesh Koneru, M.
Powiązania:
https://bibliotekanauki.pl/articles/1844624.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
ANOVA-F test
cross validation
decision trees
features
NSL-KDD
data set
Opis:
Cyber-attacks are increasing day by day. The generation of data by the population of the world is immensely escalated. The advancements in technology, are intern leading to more chances of vulnerabilities to individual’s personal data. Across the world it became a very big challenge to bring down the threats to data security. These threats are not only targeting the user data and also destroying the whole network infrastructure in the local or global level, the attacks could be hardware or software. Central objective of this paper is to design an intrusion detection system using ensemble learning specifically Decision Trees with distinctive feature selection univariate ANOVA-F test. Decision Trees has been the most popular among ensemble learning methods and it also outperforms among the other classification algorithm in various aspects. With the essence of different feature selection techniques, the performance found to be increased more, and the detection outcome will be less prone to false classification. Analysis of Variance (ANOVA) with F-statistics computations could be a reasonable criterion to choose distinctives features in the given network traffic data. The mentioned technique is applied and tested on NSL KDD network dataset. Various performance measures like accuracy, precision, F-score and Cross Validation curve have drawn to justify the ability of the method.
Źródło:
International Journal of Electronics and Telecommunications; 2021, 67, 2; 267-275
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ArNLI: Arabic Natural Language Inference entailment and contradiction detection
Autorzy:
Al Jallad, Khloud
Ghneim, Nada
Powiązania:
https://bibliotekanauki.pl/articles/27312864.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
textual entailment
Arabic NLP
contradiction detection
contradiction Arabic data set
textual inference
Opis:
Natural Language Inference (NLI) is a hot topic research in natural language processing, contradiction detection between sentences is a special case of NLI. This is considered a difficult NLP task which has a significant influence when added as a component in many NLP applications (such as question answering systems and text summarization). The Arabic language is one of the most challenging low-resources languages for detecting contradictions due to its rich lexical semantics ambiguity. We have created a data set of more than 12k sentences and named it ArNLI; it will be publicly available. Moreover, we have applied a new model that was inspired by Stanford's proposed contradiction-detection solutions for the English language. We proposed an approach for detecting contradictions between pairs of sentences in the Arabic language using a contradiction vector combined with a language model vector as an input to a machine-learning model. We analyzed the results of different traditional machine-learning classifiers and compared their results on our created data set (ArNLI) and on the automatic translation of both the PHEME and SICK English data sets. The best results were achieved by using the random forest classifier, with accuracies of 0.99, 0.60 and 0.75 on PHEME, SICK, and ArNLI respectively.
Źródło:
Computer Science; 2023, 24 (2); 183--204
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rule modeling of ADI cast iron structure for contradictory data
Autorzy:
Soroczyński, Artur
Biernacki, Robert
Kochański, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/29520059.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
rule modeling
contradictory data set
uncertainty
data preparation
decision tree
rough set theory
niepewność
drzewo decyzyjne
teoria zbiorów przybliżonych
Opis:
Ductile iron is a material that is very sensitive to the conditions of crystallization. Due to this fact, the data on the cast iron properties obtained in tests are significantly different and thus sets containing data from samples are contradictory, i.e. they contain inconsistent observations in which, for the same set of input data, the output values are significantly different. The aim of this work is to try to determine the possibility of building rule models in conditions of significant data uncertainty. The paper attempts to determine the impact of the presence of contradictory data in a data set on the results of process modeling with the use of rule-based methods. The study used the well-known dataset (Materials Algorithms Project Data Library, n.d.) pertaining to retained austenite volume fraction in austempered ductile cast iron. Two methods of rulebased modeling were used to model the volume of the retained austenite: the decision trees algorithm (DT) and the rough sets algorithm (RST). The paper demonstrates that the number of inconsistent observations depends on the adopted data discretization criteria. The influence of contradictory data on the generation of rules in both algorithms is considered, and the problems that can be generated by contradictory data used in rule modeling are indicated.
Źródło:
Computer Methods in Materials Science; 2022, 22, 4; 211-228
2720-4081
2720-3948
Pojawia się w:
Computer Methods in Materials Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Alternative Approach to Evaluating Interpolation Methods of Small and Imbalanced Data Sets
Nowe podejście do oceny jakości metod interpolacji niewielkich i zróżnicowanych zestawów danych
Autorzy:
Gonet, T.
Gonet, K.
Powiązania:
https://bibliotekanauki.pl/articles/385300.pdf
Data publikacji:
2017
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
interpolacja
Surfer
walidacja krzyżowa
mały zestaw danych
interpolation
cross-validation
small data set
Opis:
Badania dotyczą alternatywnego podejścia do oceny jakości metod interpolacji niewielkich i zróżnicowanych zestawów danych. Podstawowa analiza statystyczna oparta na klasycznej walidacji krzyżowej nie zawsze daje jednoznaczne wnioski. W przypadku analizowanego zestawu danych (niezgodnego z rozkładem normalnym) trzy metody interpolacji zostały wybrane jako najlepsze (zgodnie z procedurą klasycznej walidacji krzyżowej). Niemniej jednak mapy powstałe na podstawie tych metod wyraźnie się od siebie różnią. To jest powód, dla którego dogłębna analiza statystyczna była konieczna. Zaproponowano alternatywne podejście do tego zagadnienia, które uwzględnia szersze spektrum parametrów opisujących badany zestaw danych. Głównym założeniem tej metodyki jest porównanie nie tylko odchylenia standardowego estymatora, ale również trzech dodatkowych parametrów. To powoduje, iż końcowa ocena jest znacznie dokładniejsza. Analizę wykonano za pomocą programu Surfer (Golden Software). Zapewnia on możliwość wykorzystania wielu metod interpolacji wraz z różnorakimi, regulowanymi parametrami.
The research concerns an alternative approach to the evaluation of interpolation methods for mapping small and imbalanced data sets. A basic statistical analysis of the standard cross-validation procedure is not always conclusive. In the case of the investigated data set (which is inconsistent with normal distribution), three interpolation methods have been selected as the most reliable (according to standard cross-validation). However, maps resulting from the aforementioned methods clearly differ from each other. This is the reason why a comprehensive statistical analysis of the studied data is a necessity. We propose an alternative approach that evaluates a broadened scope of parameters describing the data distribution. The general idea of the methodology is to compare not only the standard deviation of the estimator but also three additional parameters to make the final assessment much more accurate. The analysis has been carried out with the use of Golden Software Surfer. It provides a wide range of interpolation methods and numerous adjustable parameters.
Źródło:
Geomatics and Environmental Engineering; 2017, 11, 3; 49-65
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Artificial intelligence-based analysis of small data sets in medicine
Analiza małych zbiorów danych medycznych oparta na sztucznej inteligencji
Autorzy:
Mikołajewski, Dariusz
Mikołajewska, Emilia
Powiązania:
https://bibliotekanauki.pl/articles/41205822.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
artificial intelligence
small data set
clinical applications
sztuczna inteligencja
małe zbiory danych
zastosowanie kliniczne
Opis:
AI-based computing of small data sets are a step towards edge computing and further personalization of diagnostics, therapy and predictions in clinical practice. However, this still requires many intermediate steps, both in hardware and software. The aim of the work is to assess to what extent current achievements in the area of AI-based small sets analysis constitute the basis for the development of a new group of clinical and programming solutions.
Obliczenia małych zbiorów danych w oparciu o sztuczną inteligencję stanowią krok w kierunku obliczeń brzegowych i dalszej personalizacji diagnostyki, terapii i prognoz w praktyce klinicznej.Jednak nadal wymaga to wielu etapów pośrednich, zarówno sprzętowych, jak i programowych. Celem pracy jest ocena, w jakim stopniu dotychczasowe osiągnięcia w obszarze analizy małych zbiorów w oparciu o sztuczną inteligencję stanowią podstawę do opracowania nowej grupy rozwiązań klinicznych i programistycznych.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2023, 15, 2; 18-23
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep convolutional neural network using a new data set for berber language
Autorzy:
Mokrane, Kemiche
Sadou, Malika
Powiązania:
https://bibliotekanauki.pl/articles/27312869.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
optical character recognition
handwritten character recognition
CNN
Berber-MNIST data set
EMNIST
Tifinagh
Latin characters
Opis:
Currently, handwritten character recognition (HCR) technology has become an interesting and immensely useful technology; it has been explored with impressive performance in many languages. However, few HCR systems have been proposed for the Amazigh (Berber) language. Furthermore, the validation of any Amazigh handwritten character-recognition system remains a major challenge due to the lack of availability of a robust Amazigh database. To address this problem, we first created two new data sets for Tifinagh and Amazigh Latin characters by extending the well-known EMNIST database with the Amazigh alphabet. Then, we proposed a handwritten character recognition system that is based on a deep convolutional neural network to validate the created data sets. The proposed convolutional neural network (CNN) has been trained and tested on our created data sets, the experimental tests showed that it achieves satisfactory results in terms of accuracy and recognition efficiency.
Źródło:
Computer Science; 2023, 24 (2); 225--241
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of soil quality in organic and non-organic paddy fields with technical irrigation system in Susukan
Autorzy:
Haryuni, Haryuni
Wirawati, Hesti
Minardi, Slamet
Supriyadi, Supriyadi
Powiązania:
https://bibliotekanauki.pl/articles/2088202.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
soil quality
paddy fields
principal component analysis
minimum data set (MDS)
soil quality index (SQI)
Opis:
Soil quality is a measure of the condition of soil. The goal of sustainable agriculture is to maintain a non-negative trend in productivity while maintaining soil quality. Susukan is an area in Semarang, Central Java, Indonesia, which has developed organic farming to increase rice productivity and quality. The main objective was to determine the sustainability of organic rice cropping systems. The organic farming system at the research location has been conducted for 8 years. Appropriate agricultural management can maintain the quality of soil, environment and improve the health of plants, animals and humans. This research aims to know the soil quality and determine the minimum data set (MDS) in organic and non-organic paddy field with a technical irrigation system. Paddy soil samples were analyzed in the laboratory. The parameters are porosity, permeability, hydrogen potential (pH), cation exchange capacity (CEC), soil organic matter (SOC), total-N (nitrogen), carbon/nitrogen (C/N) ratio, available-P (phosphorus), available-K (potassium), base saturation (BS), electric conductivity (EC), soil respiration (qCO2), redox potential (Eh) with 3 repetitions. The value of soil quality index (SQI) in the organic paddy field is 3.216 with bad soil quality criteria, while the non-organic paddy field is 0.147 with very bad criteria. The soil quality values are based on the key factors or MDS that is potential redox (EH), soil respiration (qCO2), potential hydrogen (pH), porosity, soil organic matter (SOC), total-N (nitrogen), C/N ratio, available-P (phosphorus).
Źródło:
Polish Journal of Soil Science; 2020, 53, 1; 81-95
0079-2985
Pojawia się w:
Polish Journal of Soil Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of soil quality in organic and non-organic paddy fields with technical irrigation system in Susukan
Autorzy:
Haryuni, H.
Wirawati, H.
Minardi, S.
Supriyadi, S.
Powiązania:
https://bibliotekanauki.pl/articles/971160.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
soil quality
paddy fields
principal component analysis
minimum data set (mds)
soil quality index (sqi)
Opis:
Soil quality is a measure of the condition of soil. The goal of sustainable agriculture is to maintain a non-negative trend in productivity while maintaining soil quality. Susukan is an area in Semarang, Central Java, Indonesia, which has developed organic farming to increase rice productiv- ity and quality. The main objective was to determine the sustainability of organic rice cropping sys- tems. The organic farming system at the research location has been conducted for 8 years. Appropri- ate agricultural management can maintain the quality of soil, environment and improve the health of plants, animals and humans. This research aims to know the soil quality and determine the minimum data set (MDS) in organic and non-organic paddy field with a technical irrigation system. Paddy soil samples were analyzed in the laboratory. The parameters are porosity, permeability, hydrogen potential (pH), cation exchange capacity (CEC), soil organic matter (SOC), total-N (nitrogen), car- bon/nitrogen (C/N) ratio, available-P (phosphorus), available-K (potassium), base saturation (BS), electric conductivity (EC), soil respiration (qCO2), redox potential (Eh) with 3 repetitions. The value of soil quality index (SQI) in the organic paddy field is 3.216 with bad soil quality criteria, while the non-organic paddy field is 0.147 with very bad criteria. The soil quality values are based on the key factors or MDS that is potential redox (EH), soil respiration (qCO2), potential hydrogen (pH), poros- ity, soil organic matter (SOC), total-N (nitrogen), C/N ratio, available-P (phosphorus).
Źródło:
Polish Journal of Soil Science; 2020, 53, 1
0079-2985
Pojawia się w:
Polish Journal of Soil Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Soil quality assessment of the rainfed lowland ricefields under organic and conventional farming systems in Kaliwungu (Central Java)
Autorzy:
Supriyadi, Supriyadi
Rachmawati, Septiana
Herawati, Aktavia
Purwanto, Purwanto
Powiązania:
https://bibliotekanauki.pl/articles/762795.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Marii Curie-Skłodowskiej. Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej
Tematy:
soil quality index (SQI), rainfed lowland rice, principal component analysis (PCA), minimum data set (MDS)
Opis:
Rainfed lowland rice is grown in land where the irrigation systems depend on rainwater. The use of chemical fertilizers in large quantities in order to improve production of rice will result in soil quality degradation. In order to improve the condition of the soil, a system of organic farming was provided. The aim of this study was to quantify soil quality in rainfed lowland ricefilds using soil quality indexes (SQI) and to compare SQIs of farming system under organic and conventional fertilization. The sample consists of seven sample points on soil fertilized organically and three sample points on soil which is managed in a conventional way, each taken from 5 subpoints at a depth of 0–30 cm and analyzed for 12 soil variables. The best representative soil quality variables forming a minimum data set (MDS) were selected using principal component analysis (PCA), and soil quality scores were obtained using both linear and non-linear scoring functions. The study results indicate that in case of organic farming system, the soil quality was better (SQI = 2.079) when compared to its quality in the conventional farming system (SQI = 1.397). The selected indicators used as the MDS are soil porosity, cation exchange capacity (CEC), soil organic carbon, C/N ratio, soil permeability, available-P (Av-P), and electrical conductivity (EC)
Źródło:
Polish Journal of Soil Science; 2018, 51, 2
0079-2985
Pojawia się w:
Polish Journal of Soil Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wybrane aspekty opracowania miejscowych planów zagospodarowania przestrzennego w postaci wektorowej
Assumptions of local plans preparation in a vector format
Autorzy:
Izdebski, Waldemar
Michalik, Anna
Zwirowicz-Rutkowska, Agnieszka
Malinowski, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/346822.pdf
Data publikacji:
2020
Wydawca:
Polskie Towarzystwo Informacji Przestrzennej
Tematy:
zbiór danych przestrzennych
infrastruktura informacji przestrzennej
IIP
planowanie przestrzenne
spatial data set
spatial data infrastructure
SDI
spatial planning
Opis:
W zakresie sporządzania miejscowego planu zagospodarowania przestrzennego (mpzp) jednym z tematów, który do tej pory nie doczekał się systemowych rozwiązań uregulowanych przepisami wykonawczymi jest cyfryzacja opracowania w powiązaniu ze standaryzacją i harmonizacją danych planistycznych na potrzeby infrastruktury informacji przestrzennej. Niniejsza publikacja stanowi głos w dyskusji dotyczącej potrzeby podjęcia działań zmierzających do pilnego wprowadzenia jednolitych w skali kraju założeń do realizacji i publikacji miejscowych planów zagospodarowania przestrzennego w postaci wektorowej. Celem głównym opracowania jest przedstawienie wybranych aspektów tworzenia numerycznych opracowań, które mogłyby być wstępem do wypracowania wytycznych dla wykonawców planów miejscowych. Celem szczegółowym jest analiza zmian w ustawie o planowaniu i zagospodarowaniu przestrzennym dotyczących zakresu i postaci danych przestrzennych planów miejscowych.
In the field of elaboration of a local plan, one of the topics that has not yet been solved by systemic solutions regulated by implementing rules is the digitization of the plan in conjunction with the standardization and harmonization of planning data for spatial data infrastructure. The paper is a voice in the discussion on the need to take action to urgently introduce assumptions for the implementation and publication of local spatial plans in a vector form. The main objective of the paper is to present the selected aspects of numerical spatial plans that could be a base for developing of guidelines for contractors for local plans. The detailed objective is the analysis is of the amendments to the act spatial planning concerning the scope and form of spatial data of local plans.
Źródło:
Roczniki Geomatyki; 2020, 18, 2(89); 141-150
1731-5522
2449-8963
Pojawia się w:
Roczniki Geomatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dobór pomp ciepła z wykorzystaniem sztucznych sieci neuronowych dla domów jednorodzinnych dla pełnych i niepełnych zbiorów danych
Selection of heat pumps supported by artificial neural networks for single-family houses for complete and incomplete data sets
Autorzy:
Neugebauer, M.
Sołowiej, P.
Himik, T.
Powiązania:
https://bibliotekanauki.pl/articles/289761.pdf
Data publikacji:
2008
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
sztuczna sieć neuronowa
pompa ciepła
niepełny zbiór danych
artificial neural network
heat pump
incomplete data set
Opis:
W pracy zaproponowano sposób doboru pompy ciepła z wykorzystaniem sieci neuronowych. Dobór pomp ciepła polega na obliczeniu mocy cieplnej na podstawie parametrów danego domu. Utworzono i przetestowano kilka rodzajów sieci, z uwzględnieniem testowania na zbiorach danych pełnych (ze wszystkimi parametrami wejściowymi) i niepełnych (bez jednego lub dwóch parametrów wejściowych). Dla zbiorów danych niepełnych brakującymi parametrami były: wysokość pomieszczenia, grubość ocieplenia, temperatura wewnątrz i ukształtowanie budynku. W pracy użyto dwóch programów do symulacji sztucznych sieci neuronowych: "Statistica" i "MATLAB".
The paper proposes a method allowing to select heat pumps using neural networks. Selection of heat pumps consists in calculating thermal power depending on parameters of a given house. The researchers created and tested several network types, taking into account testing on complete data sets (with all input parameters) and incomplete data sets (without one or two input parameters). The following parameters were missing for incomplete data sets: room height, thermal insulation thickness, inside temperature, and building configuration. The research involved using two applications for simulation of artificial neural networks: "Statistica" and "MATLAB".
Źródło:
Inżynieria Rolnicza; 2008, R. 12, nr 11(109), 11(109); 205-212
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Performance measurement with high-performance computer using HW-GA anomaly-detection algorithms for streaming data
Autorzy:
Fondaj, Jakup
Hasani, Zirije
Krrabaj, Samedin
Powiązania:
https://bibliotekanauki.pl/articles/27312908.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
time-series data
HW-GA
anomaly detection
big streaming data
Numenta
COVID-19 data set
high-performance computer
Libelium sensor data
e-dnevnik
Opis:
Anomaly detection for streaming real-time data is very important; more significant is the performance of an algorithm in order to meet real-time requirements. Anomaly detection is very crucial in every sector because, by knowing what is going wrong with data/digital systems, we can make decisions to help in every sector. Dealing with real-time data requires speed; for this reason, the aim of this paper is to measure the performance of our proposed Holt–Winters genetic algorithm (HW-GA) as compared to other anomaly-detection algorithms with a large amount of data as well as to measure how other factors such as visualization and the performance of the testing environment affect the algorithm’s performance. The experiments will be done in R with different data sets such as the as real COVID-19 and IoT sensor data that we collected from Smart Agriculture Libelium sensors and e-dnevnik as well as three benchmarks from the Numenta data sets. The real data has no known anomalies, but the anomalies are known in the benchmark data; this was done in order to evaluate how the algorithm works in both situations. The novelty of this paper is that the performance will be tested on three different computers (in which one is a high-performance computer); also, a large amount of data will be used for our testing, as will how the visualization phase affects the algorithm’s performance.
Źródło:
Computer Science; 2022, 23 (3); 395--410
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Limitations of the access to spatial data and services due to intelectual property rights. Polish perspective
Autorzy:
Besiekierska, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/31342851.pdf
Data publikacji:
2023
Wydawca:
Stowarzyszenie SILGIS
Tematy:
Inspire Directive
spatial data
spatial data set
intellectual property rights
Dyrektywa Inspire
dane przestrzenne
zbiór danych przestrzennych
prawa własności intelektualnej
Opis:
The Inspire Directive introduces a conceptual framework related to spatial data infrastructure, unifying the issues related to the access to spatial data within the European Union. The Directive was implemented into Polish law in the Act of 4 March 2010 on spatial information infrastructure. Both the Directive and the Act provide for the possibility of introducing limitations to access to spatial data and services in connection if access would adversely affect, among others, intellectual property rights. The carried out study shows that most poviats subject to the study have not acquired the required scope of intellectual property which may potentially result in the access limitations.
Źródło:
GIS Odyssey Journal; 2023, 3, 2; 17-24
2720-2682
Pojawia się w:
GIS Odyssey Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Weryfikacja autentyczności kolorów na zdjęciach wykonanych w technice analogowej
Checking color authenticity in analog photos
Autorzy:
Sokołowski, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/267227.pdf
Data publikacji:
2019
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
zbiór danych
fotografia kolorowa
fotografia historyczna
uczenie maszynowe
uwierzytelnianie
data set
colour photography
historic photography
machine learning
authenticity
Opis:
W artykule opisano zagadnienie odróżniania historycznych fotografii pomiędzy oryginalnie kolorowe a koloryzowane. Rozważono problem doboru zdjęć pod względem technologii, w jakiej zostały wykonane. Następnie wykorzystując sieci neuronowe już w części wyuczone na innych zbiorach danych, sprawdzono ich efektywność w rozwiązywaniu badanego problemu. Rozważono wpływ rozmiaru obrazu podanego na wejściu, architektury zastosowanej sieci, a także zestawu danych użytego do uczenia sieci i wyodrębniania cech. W rezultacie potwierdzono przydatność opracowanego zbioru do treningu sieci, a także zaobserwowano, że zwiększanie rozmiaru sieci nie przynosi dodatkowych korzyści. Uzyskana trafność rozróżniania sięgnęła ponad 92 %.
The article describes a dataset designed to train neural networks distinguishing historical photographs between the ones that have original historic color and those which were contemporary colorized. The problem of choosing photos in terms of technology and content was considered. Using some of the pre-trained neural networks on other collections, their effectiveness in solving the studied issue was checked. The influence of the input image size, the depth of the neural network used as well as the data set used to train the network to extract features was investigated. As a result, the usefulness of the developed set for network training was confirmed, and it was observed that increasing the network did not bring any additional benefits. The reached accuracy is up to 92.6%.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2019, 68; 45-48
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Probable annual floods in a small lowland river estimated with the use of various sets of data
Powodzie prawdopodobne w malej rzece nizinnej okreslone przy wykorzystaniu roznych zbiorow danych
Autorzy:
Banasik, K.
Byczkowski, A.
Powiązania:
https://bibliotekanauki.pl/articles/81795.pdf
Data publikacji:
2007
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
flood
small catchment
catchment
design flood
annual flood
lowland river
river
small river
data set
probable flood flow
hydrology
Opis:
The results of estimation of the probable annual fl ood fl ows with the use of various sets of data from a small agricultural lowland river are presented. The traditional statistical series are formed from the annual maximum (AM) fl ows of hydrological years. After examination of the homogeneity of the series, two sets of data were formed (AM1 of 34 elements and AM2 of 40 elements), which differed in the signifi cance level of one of the stationary tests. The other series for fl ood frequency analysis has been formed by selecting peaks over threshold discharges (POT). A computer program, developed by IMGW (Institute of Hydrology and Water Management), and spreadsheet were applied for frequency analysis with the use of AM series and POT series, espectively. Results of computations with the use of AM1 and AM2 data indicate for nonsignifi cant differences in probable fl ood fl ows, and signifi cant with the probable fl ood fl ow estimated with the POT data.
Na podstawie 40-letniego ciągu przepływów dobowych zarejestrowanych w profi lu Płachty Stare na Zagożdżonce (A = 82,4 km2) utworzono zbiory danych do analizy częstotliwości przepływów powodziowych. Po statystycznej analizie jednorodności rocznych przepływów maksymalnych utworzono dwa zbiory AM1 i AM2 (annual maxima), odpowiednio 34- i 40-elementowe, różniące się poziomem zgodności jednego z testów stacjonarności ciągów. Trzeci zbiór danych utworzono ze wszystkich wezbrań okresu 40-letniego, nie mniejszych niż NWQ. Obliczenia wykonano stosując do zbiorów AM1 i AM2 program komputerowy IMGW, identyfi kujący dla obydwu zbiorów rozkład logarytmiczno-normalny (spośród czterech) jako najbardziej zgodny z danymi pomiarowymi. Analizę trzeciego zbioru danych (zawierajacych 261 przepływów) przeprowadzono przy wykorzystaniu arkusza kalkulacyjnego. Na podstawie wyników obliczeń stwierdzono znikome różnice w wartościach przepływów maksymalnych prawdopodobnych przy wykorzystaniu zbiorów AM1 i AM2 oraz znaczne różnice w porównaniu z wartościami uzyskanymi przy wykorzystaniu trzeciego zbioru danych.
Źródło:
Annals of Warsaw University of Life Sciences - SGGW. Land Reclamation; 2007, 38; 3-10
0208-5771
Pojawia się w:
Annals of Warsaw University of Life Sciences - SGGW. Land Reclamation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accumulative information enhancement in the self-organizing maps and its application to the analysis of mission statements
Autorzy:
Kitajima, R.
Kamimura, R.
Powiązania:
https://bibliotekanauki.pl/articles/91614.pdf
Data publikacji:
2015
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
information
neural systems
computational method
artificial data set
mission
statement
informacja
systemy neuronowe
metoda obliczeniowa
zbiór danych
misja
komunikat
Opis:
This paper proposes a new information-theoretic method based on the information enhancement method to extract important input variables. The information enhancement method was developed to detect important components in neural systems. Previous methods have focused on the detection of only the most important components, and therefore have failed to fully incorporated the information contained in the components into learning processes. In addition, it has been observed that the information enhancement method cannot always extract input information from input patterns. Thus, in this paper a computational method is developed to accumulate information content in the process of information enhancement. The method was applied to an artificial data set and the analysis of mission statements. The results demonstrate that while we were able to explicitly extract the symmetric properties of the data from the artificial data set, only one main factor was able to be extracted from the mission statement, namely, “contribution to the society”. The companies with higher profits tend to have mission statements concerning the society. The results can be considered to be a first step toward the full clarification of the importance of mission statements in actual business activities.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2015, 5, 3; 161-176
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptation of domain-specific transformer models with text oversampling for sentiment analysis of social media posts on Covid-19 vaccine
Autorzy:
Bansal, Anmol
Choudhry, Arjun
Sharma, Anubhav
Susan, Seba
Powiązania:
https://bibliotekanauki.pl/articles/27312860.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
Covid-19
vaccine
transformer
Twitter
BERTweet
CT-BERT
BERT
XLNet
RoBERTa
text oversampling
LMOTE
class imbalance
small sample data set
Opis:
Covid-19 has spread across the world and many different vaccines have been developed to counter its surge. To identify the correct sentiments associated with the vaccines from social media posts, we fine-tune various state-of-the-art pretrained transformer models on tweets associated with Covid-19 vaccines. Specifically, we use the recently introduced state-of-the-art RoBERTa, XLNet, and BERT pre-trained transformer models, and the domain-specific CT-BER and BERTweet transformer models that have been pre-trained on Covid-19 tweets. We further explore the option of text augmentation by oversampling using the language model-based oversampling technique (LMOTE) to improve the accuracies of these models - specifically, for small sample data sets where there is an imbalanced class distribution among the positive, negative and neutral sentiment classes. Our results summarize our findings on the suitability of text oversampling for imbalanced, small-sample data sets that are used to fine-tune state-of-the-art pre-trained transformer models as well as the utility of domain-specific transformer models for the classification task.
Źródło:
Computer Science; 2023, 24 (2); 163--182
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wpływu wybranych metod redukcji NMT w tworzeniu map zagrożenia powodziowego
Comparison of the impact of selected DTM reduction method in flood hazard map creation
Autorzy:
Bakuła, K.
Powiązania:
https://bibliotekanauki.pl/articles/130866.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Geodetów Polskich
Tematy:
numeryczny model terenu
redukcja
mapa zagrożenia powodziowego
duże zbiory danych
LIDAR
DEM/DTM
reduction
flood hazard map
large data set
lidar
Opis:
Oprogramowania tworzące mapy zagrożenia związanego z kataklizmem powodzi opierają się w dużej mierze na danych o terenie w formie numerycznego modelu terenu. Produkt ten generowany jest na podstawie danych ze skaningu laserowego, który dostarcza odpowiednio dokładne, ale i ogromne zbiory danych, stwarzające problemy dla skomplikowanych obliczeń przy modelowaniu hydraulicznym. W niniejszej pracy przedstawiono wpływ redukcji NMT na określanie miejsc potencjalnego wystąpienia katastrofy powodzi poprzez tworzenie map zagrożenia powodziowego. Numeryczny model terenu obszaru testowego poddany został znaczącej redukcji wybranymi metodami, co posłużyło do późniejszych analiz związanych z jej wpływem na wielkość obszaru zagrożonego katastrofą powodzi. Celem badania jest przede wszystkim udowodnienie istnienia możliwości wykorzystania jedynie nieznacznej części informacji zawartej w NMT dla stworzenia równie wysoko dokładnych opracowań co takie, dla pozyskania których wykorzystano oryginalne dane. Wyniki doświadczenia potwierdzają przypuszczenie o niewielkich rozbieżnościach w określeniu miejsc zagrożonych powodzią pomiędzy analizami z użyciem oryginalnych danych i tych poddanych różnowariantowej redukcji.
Software for creating flood risk maps and simulation of flood water is based on Digital Terrain Model (DTM). Such product is generated on a basis of laser scanning data which provide appropriately accurate results and huge data sets as well, what causes many problems for hydrodynamic – numerical calculations. The essential issue for such data is high redundancy which can guarantee the opportunity to thin it out. However, it is possible to provide suitable DTM for flood modeling by its intelligent reduction, which could still ensure sufficient accuracy for application such as hydrodynamic modeling. In this paper, the impact of DTM reduction on determination of area at risk of flood disaster by creating flood hazard maps was presented. Digital terrain model of case study was significantly reduced with use of six selected methods, what gave possibility for subsequent analysis of reduction impact on the size of the area endangered by a flood disaster. This reduction was based on the automation of the process where points, containing key information, were retained while redundant points, duplicating information about terrain height, were removed from the data set. For comparison of the result of reduction, such reduced models were used in practice to determine flood risk by creating flood hazard maps for selected water levels. For each reduction method, flood simulation with different river water level (i.e. digital water surface model) was created. In this way, area endangered by flood was determined in result of the intersection of digital terrain model and digital water surface model. Size of such area was compared then for each approach with the results obtained on the basis of original DTM data and methods were assessed in terms of their accuracy, efficiency and suitability for presented issues. The aim of this research is particularly to prove that it is possible to use only small percentage of the information contained in DTM for the creation as highly accurate studies as can be obtained from original data. The results of experiment confirm the assumption of small disparities in identifying areas endangered by flood disaster between analysis with use of original data and those reduced by various methods. Difference between results from unreduced and reduced DTMs was very slight what proves that well-generalized models of terrain can be effectively used in that application.
Źródło:
Archiwum Fotogrametrii, Kartografii i Teledetekcji; 2012, 23; 19-28
2083-2214
2391-9477
Pojawia się w:
Archiwum Fotogrametrii, Kartografii i Teledetekcji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Indeks wyboru liczby skupień w zbiorze danych
Index of the Choice of the Number of Clusters
Autorzy:
Korzeniewski, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/422648.pdf
Data publikacji:
2014
Wydawca:
Główny Urząd Statystyczny
Tematy:
analiza skupień
liczba skupień w zbiorze danych
indeks Calińskiego-Harabasza
indeks Gap
cluster analysis
number of clusters In a data set
Caliński-Harabasz index
Gap index
Opis:
W artykule zaproponowany jest nowy indeks wyznaczający liczbę skupień w zbiorze danych opisanych przez zmienne ciągłe. Indeks oparty jest na wielostopniowym dzieleniu zbioru danych (lub jego części) na dwa skupienia i sprawdzaniu czy podział taki należy zachować czy pominąć. Kryterium sprawdzającym jest indeks Randa przy pomocy którego oceniana jest zgodność podziału pierwotnego na dwa skupienia z podziałem na dwa skupienia zbioru węższego, składającego się ze skupienia mniejszego z podziału pierwotnego i 1/3 skupienia większego z podziału pierwotnego. Podziały dokonywane są przy pomocy metody k-średnich (dla k=2) z wielokrotnym losowym wyborem punktów startowych. Efektywność nowego indeksu została zbadana w obszernym eksperymencie na kilku tysiącach zbiorów danych wygenerowanych w postaci struktur skupień o różnej liczbie zmiennych, skupień, względnej liczebności skupień i różnych wariantach skorelowania zmiennych wewnątrz skupień. Ponadto, zmienny był również stopień separowalności skupień – kontrolowany według algorytmu OCLUS. Podstawą oceny efektywności było porównanie z dwoma innymi indeksami liczby skupień, mającymi w literaturze przedmiotu opinię jednych z najlepszych spośród dotychczas opracowanych tj. indeksem Calińskiego-Harabasza oraz indeksem Gap. Efektywność zaproponowanego indeksu jest znacznie wyższa od obu konkurencyjnych indeksów w przypadkach niezbyt wyraźnej struktury skupień.
In the article a new index for determining the number of clusters in a data set is proposed. The index is based on multiple division of the data set (or a part of it) into two clusters and checking if this division should be retained or neglected. The checking criterion is the Rand index by means of which the extent to which the primary division and the secondo division of the narrower subset consisting of the smaller cluster from the primary division and 1/3 of the bigger cluster coincide. The divisions are made by means of the classical k-means (for k=2) with multiple random choice of starting points. The efficiency of the new index was examined in a broad experiment on a couple of thousands of data sets generated to possess cluster structures with different number of variables, clusters, cluster densities and different variants of within cluster correlation. Moreover, the cluster overlap controlled according to the OCLUS algorithm was also varied. A basis for efficiency assessment was the comparison with two other leading indices i.e. Caliński-Harabasz index and the Gap index. The efficiency of the new index proposed is higher than that of the competition when the cluster structure is not very distinct.
Źródło:
Przegląd Statystyczny; 2014, 61, 2; 169-180
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Convolutional neural networks in the SSI analysis for mine-induced vibrations
Autorzy:
Zając, Maciej
Kuźniar, Krystyna
Powiązania:
https://bibliotekanauki.pl/articles/38707462.pdf
Data publikacji:
2024
Wydawca:
Instytut Podstawowych Problemów Techniki PAN
Tematy:
deep learning
convolutional neural network
shallow neural network
small data set
soil-structure interaction
mine-induced vibrations
głęboka nauka
splotowa sieć neuronowa
płytka sieć neuronowa
mały zestaw danych
interakcja gleba-struktura
wibracje wywołane minami
Opis:
Deep neural networks (DNNs) have recently become one of the most often used softcomputational tools for numerical analysis. The huge success of DNNs in the field of imageprocessing is associated with the use of convolutional neural networks (CNNs). CNNs,thanks to their characteristic structure, allow for the effective extraction of multi-layerfeatures. In this paper, the application of CNNs to one of the important soil-structureinteraction (SSI) problems, i.e., the analysis of vibrations transmission from the free-field next to a building to the building foundation, is presented in the case of mine-induced vibrations. To achieve this, the dataset from in-situ experimental measurements,containing 1D ground acceleration records, was converted into 2D spectrogram imagesusing either Fourier transform or continuous wavelet transform. Next, these images wereused as input for a pre-trained CNN. The output is a ratio of maximal vibration valuesrecorded simultaneously on the building foundation and on the ground. Therefore, the lastlayer of the CNN had to be changed from a classification to a regression one. The obtainedresults indicate the suitability of CNN for the analyzed problem.
Źródło:
Computer Assisted Methods in Engineering and Science; 2024, 31, 1; 3-28
2299-3649
Pojawia się w:
Computer Assisted Methods in Engineering and Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kidney Segmentation in CT Data Using Hybrid Level-Set Method with Ellipsoidal Shape Constraints
Autorzy:
Skalski, A.
Heryan, K.
Jakubowski, J.
Drewniak, T.
Powiązania:
https://bibliotekanauki.pl/articles/221728.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
Level Set method
kidney
CT data
image segmentation
ellipsoid
Opis:
With development of medical diagnostic and imaging techniques the sparing surgeries are facilitated. Renal cancer is one of examples. In order to minimize the amount of healthy kidney removed during the treatment procedure, it is essential to design a system that provides three-dimensional visualization prior to the surgery. The information about location of crucial structures (e.g. kidney, renal ureter and arteries) and their mutual spatial arrangement should be delivered to the operator. The introduction of such a system meets both the requirements and expectations of oncological surgeons. In this paper, we present one of the most important steps towards building such a system: a new approach to kidney segmentation from Computed Tomography data. The segmentation is based on the Active Contour Method using the Level Set (LS) framework. During the segmentation process the energy functional describing an image is the subject to minimize. The functional proposed in this paper consists of four terms. In contrast to the original approach containing solely the region and boundary terms, the ellipsoidal shape constraint was also introduced. This additional limitation imposed on evolution of the function prevents from leakage to undesired regions. The proposed methodology was tested on 10 Computed Tomography scans from patients diagnosed with renal cancer. The database contained the results of studies performed in several medical centers and on different devices. The average effectiveness of the proposed solution regarding the Dice Coefficient and average Hausdorff distance was equal to 0.862 and 2.37 mm, respectively. Both the qualitative and quantitative evaluations confirm effectiveness of the proposed solution.
Źródło:
Metrology and Measurement Systems; 2017, 24, 1; 101-112
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Compact hypothesis and extremal set estimators
Autorzy:
Mexia, João
Corte Real, Pedro
Powiązania:
https://bibliotekanauki.pl/articles/729790.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
extremal estimators
set estimators
confidence ellipsoids
strong consistency
binary data
Opis:
In extremal estimation theory the estimators are local or absolute extremes of functions defined on the cartesian product of the parameter by the sample space. Assuming that these functions converge uniformly, in a convenient stochastic way, to a limit function g, set estimators for the set ∇ of absolute maxima (minima) of g are obtained under the compactness assumption that ∇ is contained in a known compact U. A strongly consistent test is presented for this assumption. Moreover, when the true parameter value $\vec{β₀}^{k}$ is the sole point in ∇, strongly consistent pointwise estimators, ${ \^{\vec{βₙ}}^{k}: n ∈ ℕ }$ for $\vec{β₀}^{k}$ are derived and confidence ellipsoids for $\vec{β₀}^{k}$ centered at $\^{\vec{βₙ}}^{k}$ are obtained, as well as, strongly consistent tests. Lastly an application to binary data is presented.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2003, 23, 2; 103-121
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data irregularities in discretisation of test sets used for evaluation of classification systems: A case study on authorship attribution
Autorzy:
Stańczyk, Urszula
Zielosko, Beata
Powiązania:
https://bibliotekanauki.pl/articles/2086851.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
discretisation
data irregularities
test set
evaluation set
rough set
authorship attribution
stylometry
dyskretyzacja
nieprawidłowość danych
zestaw ewaluacyjny
zestaw testowy
autorstwo
stylometria
Opis:
When patterns to be recognised are described by features of continuous type, discretisation becomes either an optional or necessary step in the initial data pre-processing stage. Characteristics of data, distribution of data points in the input space, can significantly influence the process of transformation from real-valued into nominal attributes, and the resulting performance of classification systems employing them. If data include several separate sets, their discretisation becomes more complex, as varying numbers of intervals and different ranges can be constructed for the same variables. The paper presents research on irregularities in data distribution, observed in the context of discretisation processes. Selected discretisation methods were used and their effect on the performance of decision algorithms, induced in classical rough set approach, was investigated. The studied input space was defined by measurable style-markers, which, exploited as characteristic features, facilitate treating a task of stylometric authorship attribution as classification.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 4; e137629, 1-112
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Soil quality index for agricultural areas under different levels of anthropopressure
Autorzy:
Klimkowicz-Pawlas, A.
Ukalska-Jaruga, A.
Smreczak, B.
Powiązania:
https://bibliotekanauki.pl/articles/2082599.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Instytut Agrofizyki PAN
Tematy:
soil quality
anthropopressure
minimum data
set
agricultural soils
soil quality index
Opis:
Different individual soil parameters or simple indices are widely used in soil quality evaluation, but this approach has many limitations. The aim of the study was to determine an integrated soil quality index in agricultural soils as affected by different levels of anthropopressure. The soil quality index was calculated through: the selection of the appropriate indicators for a minimum data set, score assignation for selected indicators and the integration of indicators in an index. The study was carried out in two areas under agricultural use with similar soil cover but with a different history and intensity of exposure to pollution input. Soil samples collected from the surface layer (0-30 cm) were analysed for physicochemical (i.e. texture, fractional composition of soil organic matter, pH), and biological (respiration, dehydrogenase activity, microbial biomass and nitrification) properties and the levels of contaminants (16PAHs and heavy metals). The level of anthropopressure was assessed on the basis of pollutants emission indices. A statistical evaluation based on principal component analysis enabled the selection of indicators of significant importance to soil quality. The level of anthropopressure was found to be an important factor influencing soil quality; higher soil quality index values (0.50) were determined for the area of low anthropopressure.
Źródło:
International Agrophysics; 2019, 33, 4; 455-462
0236-8722
Pojawia się w:
International Agrophysics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Implementation of the attribute significance analysis with the use of soft reduction of attributes in the rough set theory on the basis of the SQL mechanisms
Autorzy:
Nozdrzykowski, Ł.
Nozdrzykowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/114726.pdf
Data publikacji:
2017
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
rough set theory
data analysis
soft reduction of attributes
SQL implementation
Opis:
This article presents a way to use databases supporting the SQL and PL/SQL in the implementation of a method of attribute significance analysis with the use of soft reduction of attributes in the rough set theory. A number of SQL queries are presented, which facilitate the implementation. The original mechanisms presented previously [1] are supplemented with queries which facilitate the execution of attribute coding. The authors present a complete implementation of the method, from the coding of attributes to the determination of the significance of conditional attributes. Application of queries to the database eliminates the necessity to build data grouping and data mining mechanisms and calculation of repetitions of identical rules in the reduced decision rule space. Without the support of a database, the creation of universal data grouping and data mining mechanisms which could be used with any number of attributes is a challenging task.
Źródło:
Measurement Automation Monitoring; 2017, 63, 1; 10-14
2450-2855
Pojawia się w:
Measurement Automation Monitoring
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fuzzy models presentation and realization by means of relational systems
Autorzy:
Filatov, V.
Powiązania:
https://bibliotekanauki.pl/articles/410923.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
fuzzy set
fuzzy logic
fuzzy relational databases
intelligent systems
data mining
Opis:
The feature of the research is the proposed fuzzy models representation method by means of relational systems, which unlike the known approaches, can solve integrated data mining problems in databases and fuzzy systems.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2014, 3, 3; 99-102
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza zbioru danych dotyczących oceny akceptowalności samochodów za pomocą teorii zbiorów przybliżonych i programu RSES
Analysis of the car acceptability assessment dataset using rough set theory and the RSES program
Autorzy:
Gorączka, Mateusz
Powiązania:
https://bibliotekanauki.pl/articles/41203532.pdf
Data publikacji:
2024
Wydawca:
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
Tematy:
teoria zbiorów przybliżonych
zbiór danych
analiza danych
klasyfikacja danych
RSES
rough set theory
dataset
data analysis data classification
Opis:
Artykuł skupia się na analizie danych z wykorzystaniem teorii zbiorów przybliżonych oraz różnych metod, takich jak algorytm genetyczny, klasyfikacja za pomocą zestawu reguł i metoda walidacji krzyżowej. Przedstawiono także kompletny proces analizy danych przy użyciu programu RSES. Wykorzystany zbiór danych oraz wyniki analizy zostałyomówione w kontekście teorii zbiorów przybliżonych. Artykuł kończy się podsumowaniem i wnioskamiskupiającymi się na aspekcie skuteczności wspomnianych metod w analizie zbioru danych oraz efektywności programu w kwestii przeprowadzania w nim analiz.
The article focuses on data analysis using rough set theory and various methods such as the genetic algorithm, rule set classification and the cross-validation method. The complete data analysis process using RSES is also presented. The data set used and the results of the analysis are discussed in the context of rough set theory. The article concludes with a summary and conclusions focusing on the aspect of the effectiveness of aforementioned methods in analysing the dataset and the efficiency of the programin terms of performing analysis in it.
Źródło:
Studia i Materiały Informatyki Stosowanej; 2024, 16, 1; 24-32
1689-6300
Pojawia się w:
Studia i Materiały Informatyki Stosowanej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying Rough Set Theory for the Modeling of Austempered Ductile Iron Properties
Autorzy:
Kochański, A.
Soroczyński, A.
Kozłowski, J.
Powiązania:
https://bibliotekanauki.pl/articles/382215.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
data mining
knowledge rules
rough set theory
casting
pozyskiwanie danych
reguły wiedzy
teoria zbiorów przybliżonych
odlewnictwo
Opis:
The article discusses the possibilities of employing an algorithm based on the Rough Set Theory for generating engineering knowledge in the form of logic rules. The logic rules were generated from the data set characterizing the influence of process parameters on the ultimate tensile strength of austempered ductile iron. The paper assesses the obtained logic rules with the help of the rule quality evaluation measures, that is, with the help of the measures of confidence, support, and coverage, as well as the proposed rule quality coefficient.
Źródło:
Archives of Foundry Engineering; 2013, 13, 2 spec.; 70-73
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Relative Sets and Rough Sets
Autorzy:
Mousavi, A.
Jabedar-Maralani, P.
Powiązania:
https://bibliotekanauki.pl/articles/908368.pdf
Data publikacji:
2001
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
teoria mnogości
analiza danych
przedstawienie wiedzy
rough sets
set theory
data analysis
multi-valued logic
interval sets
knowledge representation
Opis:
In this paper, by defining a pair of classical sets as a relative set, an extension of the classical set algebra which is a counterpart of Belnap's four-valued logic is achieved. Every relative set partitions all objects into four distinct regions corresponding to four truth-values of Belnap's logic. Like truth-values of Belnap's logic, relative sets have two orderings; one is an order of inclusion and the other is an order of knowledge or information. By defining a rough set as a pair of definable sets, an integrated approach to relative sets and rough sets is obtained. With this definition, we are able to define an approximation of a rough set in an approximation space, and so we can obtain sequential approximations of a set, which is a good model of communication among agents.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2001, 11, 3; 637-653
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of the entropy information for the optimization of an additional measurements location in thermal systems
Autorzy:
Szega, M.
Powiązania:
https://bibliotekanauki.pl/articles/240001.pdf
Data publikacji:
2011
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
entropia informacji
optymaIne częstotliwości pomiarowe
proces cieplny
rachunek wyrównawczy
data reconciliation
information entropy
optimal set of measurements
thermal processes
Opis:
For the optimal location of an additional surplus measurements in the design of redundant measurements system, from data reconciliation point of view, of thermal processes, an information entropy has been applied. The relative entropy - Kullback-Leibler divergence, has been used. As a criterion of the optimal location of an additional surplus measurements in a system of measurements data, the minimum of the entropy information of reconciled measurements data has been assumed. Hence, the objective function in the described optimization task is maximum of the relative entropy - Kullback-Leibler divergence concerning sets of raw and reconciled measurements data. Simulation calculation with application of data reconciliation algorithm and Monte Carlo method concerning the influence of installation of the additional surplus measurements on decrease of entropy information of measurements after data validation have been carried out. The example calculations concerned the cross high-pressure heat regeneration system with cascade flow of condensate installed in 153 MW power unit equipped with cooler of steam are presented. Calculations for all variants of configurations of an additional surplus measurements in the analyzed thermal system have been done. Usefulness of the proposed Kullback-Leibler divergence as a objective function has been demonstrated.
Źródło:
Archives of Thermodynamics; 2011, 32, 3; 215-229
1231-0956
2083-6023
Pojawia się w:
Archives of Thermodynamics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zbiory przybliżone w badaniach koniunktury gospodarczej
Rough Sets in !nvestigation$ of Economic Conditions in Construction Industry
Autorzy:
Perkowska, Eleonora
Wachecka-Skowron, Anna
Powiązania:
https://bibliotekanauki.pl/articles/500340.pdf
Data publikacji:
1998
Wydawca:
Szkoła Główna Handlowa w Warszawie
Tematy:
Badania statystyczne, Analiza danych statystycznych, Koniunktura gospodarcza, Budownictwo, Teoria zbiorów przybliżonych
Statistical surveys, Statistical data analysis, Business trends, Construction sector, Rough set theory
Opis:
The problem of imperfect knowledge became crucial issue for many applications including economic applications. Rough set theory, proposed by Z. Pawlak (1982) is one of the existing approaches to understanding and manipulation of imperfect knowledge. This theory has attracted many researchers and practitioners all over the world, who contributed essentially to its numerous developments and applications. The aim of this chapter is to present preliminaries of rough set theory (including information systems and decision tables, indiscernibility, lower and upper approximations of sets, reducts, patterns) and application of rough set methods to the construction industry data analysis with respect to the economic conditions. We present some methods based on rough set approach for solution of the following problems related to the analysis of such data: - Extracting dependencies between queries in questionnaires. - Searching for relationships between respondent answers and classification. - Extraction of (minimal) relevant subsets of queries predicting with high quality answers for other questions. Characterization of respondent situation changes in the consecutive year quarters. We discuss the results of Computer experiments including also visual representation of the received results.
Źródło:
Prace i Materiały Instytutu Rozwoju Gospodarczego SGH; 1998, 60; 151-178
0866-9503
Pojawia się w:
Prace i Materiały Instytutu Rozwoju Gospodarczego SGH
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podłączeni pod społeczeństwo mody: udomawianie telewizora a kształtowanie się mody w Polsce Ludowej. Analiza materiałów z badań nad stylami życia Andrzeja Sicińskiego (1978-82)
Wired to Fashion Society: The Domestication of Television Set and the Emergence of Fashion in People’s Poland. Analysis of the Research Materials on Ways of Life (1978-82)
Autorzy:
Zalewska, Joanna
Powiązania:
https://bibliotekanauki.pl/articles/1372942.pdf
Data publikacji:
2019-05-09
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
moda
udomowienie technologii
telewizor
praktyki społeczne
analiza jakościowych danych zastanych
fashion
domestication of technology
television set
social practices
analysis of qualitative secondary data
Opis:
Celem artykułu jest odpowiedź na pytanie, w jaki sposób udomowianie telewizora oddziaływało na kształtowanie się mody jako regulatora praktyk społecznych w okresie późnego PRL-u. Pozwoli to zrozumieć, jaka była rola telewizora i oglądania telewizji w procesie powstawania społeczeństwa konsumpcyjnego, w którym moda odgrywa kluczową rolę w kształtowaniu ludzkich zachowań. Analizie poddano materiały zebrane w badaniach nad stylami życia pod kierunkiem Andrzeja Sicińskiego w latach 1978−1982 w czterech miastach. Telewizor jako przedmiot wpływał na przekształcanie układu przestrzeni mieszkania zgodnie z aktualnie lansowanymi wzorami. Telewizor „sprawiał”, że dom stawał się podporządkowany praktyce oglądania telewizji, stojąc w centralnym punkcie głównego pokoju, otoczony przez meble służące siedzeniu i oglądaniu. Dominacja telewizora oraz oglądania telewizji jako najważniejszej praktyki podejmowanej w domu wywoływała opór obyczaju – wyrażony przede wszystkim w nawykach kobiet, które nie mogły oglądać bezczynnie. Modzie jako regulatorowi codziennych praktyk stawiała opór również gospodarka niedoboru. Telewizor jako medium umożliwiał podłączenie pod społeczeństwo mody i odbiór przekazywanych przez telewizję wzorów zachowań. Ciągłe podłączenie, gdy telewizor działał nieoglądany, stanowiło stałe źródło nieświadomego przejmowania wzorów. Treści odbierane świadomie były dyskutowane i negocjowane w ramach grupy pierwotnej.
The aim of the article is to answer the question how domestication of television set has influenced the emergence of fashion regulating social practices in People’s Poland. The qualitative secondary data on ways of life have been analysed. The materials were gathered by Andrzej Siciński and his team in the years 1978-82 in four cities. It occurs that television set was the channel through which the patterns of fashion were transmitted. The families were wired to the fashion society, because the television set was on constantly nevertheless it was watched or not. The TV was watched by communities not by individuals: if the content was watched with awareness, it was discussed and negotiated within families and friends. Due to the domestication of the television set, watching TV has become the dominant social practice in the home. This domination was resisted by customary norm according to which the home is the place of the housework and the habits of women.
Źródło:
Przegląd Socjologii Jakościowej; 2018, 14, 4; 190-218
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hybrydowy model systemu ekspertowego do oceny podatników
Hybrid model of expert system for estimation of taxpayers
Autorzy:
Budziński, Ryszard
Misztal, Leszek
Powiązania:
https://bibliotekanauki.pl/articles/452818.pdf
Data publikacji:
2011
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Katedra Ekonometrii i Statystyki
Tematy:
klasyfikacja podatników
teoria zbiorów przybliżonych
rozmyta analiza skupień
metoda AHP
eksploracja danych
taxpayers classification
rough set theory
fuzzy clustering
AHP method
data mining
Opis:
Proponowany model identyfikuje podatników na podstawie ich cech i właściwości, które wskazują na większą możliwość występowania problemów z przestrzeganiem prawa podatkowego. Eliminuje słabości występujące w znanych algorytmach zaliczających się do klasyfikatorów, jak również systemów wnioskujących oraz wspomagających typowanie stosowanych w administracji podatkowej. Jest to możliwe dzięki utworzeniu hybrydowego modelu, który dobrze odzwierciedla zachowania podatników. Model dzięki zastosowaniu nowoczesnych rozwiązań predysponuje do przyszłego utworzenia i uruchomienia w administracji bazującego na nim systemu ekspertowego.
Proposed model identifies taxpayers on the basis of their features and properties that point to bigger possibility of taxation law observance problems. Model eliminates weaknesses of well known classification algorithms, as well as expert systems and taxpayers typing assists applications used wildly in tax offices. It is possible because of designing hybrid model that reflects well behavior of payers. Applying modern concepts in model predisposes it for future implementation of software solution that can be used in taxation administration.
Źródło:
Metody Ilościowe w Badaniach Ekonomicznych; 2011, 12, 2; 101-111
2082-792X
Pojawia się w:
Metody Ilościowe w Badaniach Ekonomicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-41 z 41

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies