Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "interval data" wg kryterium: Temat


Tytuł:
Statistical analysis of interval and imprecise data : applications in the analysis of reliability field data
Autorzy:
Hryniewicz, O.
Powiązania:
https://bibliotekanauki.pl/articles/2069621.pdf
Data publikacji:
2007
Wydawca:
Uniwersytet Morski w Gdyni. Polskie Towarzystwo Bezpieczeństwa i Niezawodności
Tematy:
reliability
statistical analysis
field data
interval data
fuzzy data
Opis:
The analysis of field lifetime data is much more complicated than the analysis of the results of reliability laboratory tests. In the paper we present an overview of the most important problems of the statistical analysis of field lifetime data, and present their solutions known from literature. When the input information is partial or imprecise, we propose to use interval arithmetics for the calculation of bounds on reliability characteristics of interest. When this information can be described in a more informative fuzzy form, we can generalize our interval-valued results to their fuzzy equivalents.
Źródło:
Journal of Polish Safety and Reliability Association; 2007, 1; 181--192
2084-5316
Pojawia się w:
Journal of Polish Safety and Reliability Association
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Podejście wielomodelowe w regresji danych symbolicznych interwałowych
Ensemble learning in regression model of symbolic interval data
Autorzy:
Pełka, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/424829.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
ensemble learning
regression of symbolic data
interval-valued data
Opis:
Ensemble learning, which consist in using a lot of models (instead one single model) can be used in classical data analysis. The aim of the paper is to present an adaptation of ensemble learning with the use of bagging for regression analysis of symbolic interval-valued data. The article presents basic concepts concerning symbolic data analysis, the adaptation of ordinary least squares model for symbolic interval-valued data and the idea of bagging approach in ensemble learning. The empirical part contains the results of simulation studies obtained with the application of real and artificial data sets for centers and centers and range methods. The results show that both methods reach usually better results when using bagging than in case of a single model.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2014, 4(46); 211-220
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ensemble Approach for Clustering of Interval-Valued Symbolic Data
Autorzy:
Pelka, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/466089.pdf
Data publikacji:
2012
Wydawca:
Główny Urząd Statystyczny
Tematy:
Ensemble clustering
interval-valued symbolic data
Opis:
Ensemble approach has been applied with a success to regression and discrimination tasks [see for example Gatnar 2008]. Nevertheless, the idea of ensemble approach, that is combining (aggregating) the results of many base models, can be applied to cluster analysis of symbolic data. The aim of the article is to present suitable ensemble clustering based on symbolic data. The empirical part of the paper presents results simulation studies (based on artificial data sets with known cluster structure) of ensemble clustering based on co-occurrence matrix for symbolic interval-valued data, compared with single clustering method. The results are compared according to corrected Rand index.
Źródło:
Statistics in Transition new series; 2012, 13, 2; 335-342
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rough support vector machine for classification with interval and incomplete data
Autorzy:
Nowicki, Robert K.
Grzanek, Konrad
Hayashi, Yoichi
Powiązania:
https://bibliotekanauki.pl/articles/91559.pdf
Data publikacji:
2020
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
support vector machines
rough sets
missing features
interval data
three–way decision
maszyna wektorów nośnych
dane interwałowe
Opis:
The paper presents the idea of connecting the concepts of the Vapnik’s support vector machine with Pawlak’s rough sets in one classification scheme. The hybrid system will be applied to classifying data in the form of intervals and with missing values [1]. Both situations will be treated as a cause of dividing input space into equivalence classes. Then, the SVM procedure will lead to a classification of input data into rough sets of the desired classes, i.e. to their positive, boundary or negative regions. Such a form of answer is also called a three–way decision. The proposed solution will be tested using several popular benchmarks.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2020, 10, 1; 47-56
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Airport interval games and their Shapley value
Lotniskowe gry przedziałowe i ich wartość Shapleya
Autorzy:
ALPARSLAN GÖK, Sırma Zeynep
BRANZEİ, Rodica
TİJS, Stef
Powiązania:
https://bibliotekanauki.pl/articles/907537.pdf
Data publikacji:
2009
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
cooperative interval games
concave games
airport games
cost games
interval data
kooperatywne gry przedziałowe
gry wklęsłe, gry lotniskowe
gry kosztowe
dane przedziałowe
Opis:
This paper deals with the research area of cooperative interval games arising from airport situations with interval data. The major topic of the paper is to present and identify the interval Baker–Thompson rule.
Praca dotyczy gier kooperacyjnych opisujących sytuacje występujące na lotniskach, gdzie dane są przedziałowe. Głównym celem pracy jest przedstawienie i identyfikacja przedziałowych zasad Bakera–Thompsona, służących do rozwiązywania problemu opłat lotniskowych dla samolotów lądujących na lotniskach z jednym pasem startowym, gdzie koszt użycia pasa startowego jest nieustalony. Dla takich gier lotniskowych podany jest dowód zgodności pomiędzy alokacją przedziałową Bakera–Thompsona a wartością Shapleya. Pokazano, że zasady przedziałowe Bakera–Thompsona zastosowane do dowolnej sytuacji lotniskowej z danymi przedziałowymi prowadzą do alokacji, należącej do przedziałowego jądra odpowiedniej przedziałowej gry lotniskowej. Zdefiniowano oraz podano niektóre charakterystyki takich wklęsłych gier przedziałowych. Dowiedziono wklęsłości lotniskowych gier przedziałowych oraz użyto tej właściwości do alternatywnego dowodu stabilności przedziałowej alokacji Bakera–Thompsona.
Źródło:
Operations Research and Decisions; 2009, 19, 2; 9-18
2081-8858
2391-6060
Pojawia się w:
Operations Research and Decisions
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Regression analysis for interval-valued symbolic data versus noisy variables and outliers
Regresja liniowa danych symbolicznych a zmienne zakłócające i obserwacje odstające
Autorzy:
Pełka, Marcin
Dudek, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/425104.pdf
Data publikacji:
2016
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
regression analysis
interval-valued symbolic data
noisy variables
outliers
Opis:
Regression analysis is perhaps the best known and most widely used method used for the analysis of dependence; that is, for examining the relationship between a set of independent variables (X’s) and a single dependent variable (Y). In general regression, the model is a linear combination of independent variables that corresponds as closely as possible to the dependent variable [Lattin, Carroll, Green 2003, p. 38]. The aim of the article is to present two suitable adaptations for a regression analysis of symbolic interval-valued data (centre method and centre and range method) and to compare their usefulness when dealing with noisy variables and/or outliers. The empirical part of the paper presents the results of simulation studies based on artificial and real data, without noisy variables and/or outliers and with noisy variable and outliers. The results are compared according to the values of two coefficients of determination 2 RL and 2 . RU The results show that usually the centre and range method obtains better results even when the data set contains noisy variables and outliers, but in some cases the centre method obtains better results than the centre and range method.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2016, 2 (52); 35-42
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reducing the number of paths in a minimized project-network with given bounds on the durations of activities
Autorzy:
Viattchenin, D.
Powiązania:
https://bibliotekanauki.pl/articles/406450.pdf
Data publikacji:
2015
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
project-network
dominant path
heuristic possibilistic clustering
interval-valued data
stationary clustering structure
typical point
Opis:
This paper deals in a preliminary way with the problem of selecting the smallest possible number of dominant paths in a minimized project-network with given bounds on the permissible values of the durations of activities. For this purpose, a classification technique is proposed. This technique is based on a heuristic possibilistic clustering of interval-valued data. The basic concepts of heuristic possibilistic clustering are defined and methods for preprocessing interval-valued data are described. An illustrative example is considered in detail and some conclusions are formulated.
Źródło:
Operations Research and Decisions; 2015, 25, 4; 71-87
2081-8858
2391-6060
Pojawia się w:
Operations Research and Decisions
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Comparison of Fuzzy Clustering Methods for Symbolic Interval-Valued Data
Porównanie metod klasyfikacji rozmytej dla danych symbolicznych interwałowych
Autorzy:
Pełka, Marcin
Dudek, Andrzej
Powiązania:
https://bibliotekanauki.pl/articles/1364881.pdf
Data publikacji:
2015-09-30
Wydawca:
Główny Urząd Statystyczny
Tematy:
spectral clustering
fuzzy clustering
fuzzy partition
interval-valued data
symbolic data analysis
klasyfikacja spektralna
klasyfikacja rozmyta
dane symboliczne interwałowe
analiza danych symbolicznych
Opis:
Interval-valued data can find their practical applications in such situations as recording monthly interval temperatures at meteorological stations, daily interval stock prices, etc. The primary objective of the presented paper is to compare three different methods of fuzzy clustering for interval-valued symbolic data, i.e.: fuzzy c-means clustering, adaptive fuzzy c-means clustering and fuzzy k-means clustering with fuzzy spectral clustering. Fuzzy spectral clustering combines both spectral and fuzzy approaches in order to obtain better results (in terms of Rand index for fuzzy clustering). The conducted simulation studies with artificial and real data sets confirm both higher usefulness and more stable results of fuzzy spectral clustering method, as compared to other existing fuzzy clustering methods for symbolic interval-valued data, when dealing with data featuring different cluster structures, noisy variables and/or outliers.
Dane symboliczne interwałowe mogą znaleźć zastosowanie w wielu sytuacjach – np. w przypadku notowań giełdowych, zmianach kursów walut, itp. Celem artykułu jest porównanie trzech metod klasyfikacji rozmytej dla danych symbolicznych interwałowych – tj. rozmytej klasyfikacji c-średnich, adaptacyjnej rozmytej klasyfikacji c-średnich oraz rozmytej klasyfikacji k-średnich z rozmytą klasyfikacją spektralną. Rozmyta klasyfikacja spektralna stanowi połączenie podejścia spektralnego oraz klasyfikacji rozmytej c-średnich, dzięki czemu możliwe jest otrzymanie lepszych rezultatów (w sensie indeksu Randa dla klasyfikacji rozmytych). Przeprowadzone badania symulacyjne wskazują, że rozmyta klasyfikacja spektralna dla danych symbolicznych pozwala na uzyskanie lepszych wyników niż inne rozmyte metody klasyfikacji dla tego typu danych jeżeli weźmiemy pod uwagę zbiory danych o różnej strukturze klas, która dodatkowo jest zniekształcana przez obserwacje odstające lub zmienne zakłócające.
Źródło:
Przegląd Statystyczny; 2015, 62, 3; 301-319
0033-2372
Pojawia się w:
Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Forecasting the confidence interval of efficiency in fuzzy DEA
Autorzy:
Kafi, Azarnoosh
Daneshian, Behrouz
Rostamy-Malkhalifeh, Mohsen
Powiązania:
https://bibliotekanauki.pl/articles/2099435.pdf
Data publikacji:
2021
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
data envelopment analysis
DEA
fuzzy data
efficiency
forecast
ranking
confidence interval
Opis:
Data envelopment analysis (DEA) is a well-known method that based on inputs and outputs calculates the efficiency of decision-making units (DMUs). Comparing the efficiency and ranking of DMUs in different periods lets the decision-makers prevent any loss in the productivity of units and improve the production planning. Despite the merits of DEA models, they are not able to forecast the efficiency of future periods with known input/output records of the DMUs. With this end in view, this study aims at proposing a forecasting algorithm with a 95% confidence interval to generate fuzzy data sets for future periods. Moreover, managers’ opinions are inserted in the proposed forecasting model. Equipped with the forecasted data sets and concerning the data sets from earlier periods, this model can rightly forecast the efficiency of the future periods. The proposed procedure also employs the simple geometric mean to discriminate between efficient units. Examples from a real case including 20 automobile firms show the applicability of the proposed algorithm.
Źródło:
Operations Research and Decisions; 2021, 31, 1; 41--59
2081-8858
2391-6060
Pojawia się w:
Operations Research and Decisions
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Regresja logistyczna dla danych symbolicznych interwałowych
Logistic regression for interval-valued symbolic data
Autorzy:
Pełka, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/424986.pdf
Data publikacji:
2015
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
logistic regression
interval-valued symbolic variables
symbolic data analysis
Opis:
When dealing with real data situation we often have a binary (biomial, dichoto-mous) dependent variable. As the linear probability model is not such a good solution in such a situation there is a need to use nonlinear models. A quite good solution for such a sit-uation is the logistic regression model. The paper presents an adaptation of linear regression model when dealing with symbolic interval-valued variables. Four approaches poposed by de Souza et. al [2011] how to apply such variables are presented. In the empirical part re-sults obtained with the application of artificial and real data sets are shown. The best results are obtained for midpoint and bounds (joint estimation) methods.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2015, 2 (48); 44-52
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Time interval measurement module implemented in SoC FPGA device
Autorzy:
Grzęda, G.
Szplet, R.
Powiązania:
https://bibliotekanauki.pl/articles/226962.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
time interval measurement
time-to-digital converter
system on chip
measurement data processing
Opis:
We presents the design and test results of a picosecond-precision time interval measurement module, integrated as a System-on-Chip in an FPGA device. Implementing a complete measurement instrument of a high precision in one chip with the processing unit gives an opportunity to cut down the size of the final product and to lower its cost. Such approach challenges the constructor with several design issues, like reduction of voltage noise, propagating through power lines common for the instrument and processing unit, or establishing buses efficient enough to transport mass measurement data. The general concept of the system, design hierarchy, detailed hardware and software solutions are presented in this article. Also, system test results are depicted with comparison to traditional ways of building a measurement instrument.
Źródło:
International Journal of Electronics and Telecommunications; 2016, 62, 3; 237-246
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A method for obtaining the preventive maintenance interval in the absence of failure time data
Autorzy:
Sánchez-Herguedas, Antonio
Mena-Nieto, Ángel
Rodrigo-Muñoz, Francisco
Powiązania:
https://bibliotekanauki.pl/articles/2175137.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
ship maintenance
preventive interval
maintenance model
semi-Markovian process
incomplete data
Weibull function
maintenance costs
Opis:
One of the ways to reduce greenhouse gas emissions and other polluting gases caused by ships is to improve their maintenance operations through their life cycle. The maintenance manager usually does not modify the preventive intervals that the equipment manufacturer has designed to reduce the failure. Conditions of use and maintenance often change from design conditions. In these cases, continuing using the manufacturer's preventive intervals can lead to non-optimal management situations. This article proposes a new method to calculate the preventive interval when the hours of failure of the assets are unavailable. Two scenarios were created to test the effectiveness and usefulness of this new method, one without the failure hours and the other with the failure hours corresponding to a bypass valve installed in the engine of a maritime transport surveillance vessel. In an easy and fast way, the proposed method allows the maintenance manager to calculate the preventive interval of equipment that does not have installed an instrument for measuring operating hours installed.
Źródło:
Eksploatacja i Niezawodność; 2022, 24, 3; 564--573
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Feature Selection for Prognostic Models by Linear Separation of Survival Genetic Data Sets
Selekcja cech na potrzeby modeli prognostycznych poprzez liniową separację zbiorów danych genetycznych dotyczących analizy przeżycia
Autorzy:
Bobrowski, L.
Łukaszuk, T.
Powiązania:
https://bibliotekanauki.pl/articles/88380.pdf
Data publikacji:
2018
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
eksploracja danych
regresja interwałowa
selekcja modelu
relaksacja separacji liniowej
data mining
interval regression
model selection
relaxed linear separability
Opis:
Designing regression models based on high dimensional (e.g. genetic) data sets through exploring linear separability problem is considered in the paper. The linear regression model designing has been reformulated here as the linear separability problem. Exploring the linear separability problem has been based on minimization of the convex and piecewise linear (CPL) criterion functions. The minimization of the CPL criterion functions was used not only for estimating the prognostic model parameters, but also for most effective selecting feature subsets (model selection) in accordance with the relaxed linear separability (RLS) method. This approach to designing prognostic models has been used in experiments both with synthetic multivariate data, and with genetic data sets containing censored values of dependent variable. The quality of the prognostic models resulting from the linear separability postulate has been evaluated by using the measure of the model discrepancy and the estimated classification error rate. In order to reduce the bias of the evaluation, the value of the model discrepancy and the classification error have been computed in different feature subspaces, in accordance with the cross-validation procedure. A series of new experiments described in this paper shows that the designing of regression models can be based on the linear separability principle. More specifically, the high-dimensional genetic sets with censored dependent variable can be used in designing procedure. The proposed measure of prognostic model discrepancy can be effectively used in the search for the optimal feature subspace and for selecting the linear regression model.
W artykule rozważane jest projektowanie modeli regresji opartych na wysokowymiarowych (np. genetycznych) zbiorach danych poprzez badanie problemu separacji liniowej. Projektowanie modelu regresji liniowej zostało tu przeformułowane jako problem separacji liniowej. Eksploracja problemu separacji liniowej opiera się na minimalizacji wypukłej i odcinkowo-liniowej (CPL) funkcji kryterialnej. Minimalizacja funkcji kryterialnej typu CPL została wykorzystana nie tylko do oszacowania parametrów modelu prognostycznego, ale również do skutecznego wyboru podzbioru cech (selekcji modelu) zgodnie z metodą relaksacji separacji liniowej (RLS). Takie podejście do projektowania modeli prognostycznych zostało wykorzystane w eksperymentach zarówno z syntetycznymi danymi wielowymiarowymi, jak i do zbiorów danych genetycznych zawierających cenzurowane wartości zmiennej zależnej. Jakość modeli prognostycznych otrzymywanych w oparciu o postulat liniowej separacji została oceniona przy użyciu miary rozbieżności modelu i szacowanego wskaźnika błędu klasyfikacji. W celu zmniejszenia obciążenia oceny, obliczono wartości rozbieżności modelu i błędu klasyfikacji w różnych podprzestrzeniach cech, zgodnie z procedurą walidacji krzyżowej. Seria nowych eksperymentów opisanych w niniejszym opracowaniu pokazuje, ze projektowanie modeli regresji może być oparte na zasadzie separacji liniowej. W szczególności, w procedurze projektowania można użyć wysokowymiarowych zbiorów genetycznych o cenzurowanej zmiennej zależnej. Proponowana miara rozbieżności modelu prognostycznego może być skutecznie wykorzystana w poszukiwaniu optymalnej podprzestrzeni cech i selekcji modelu regresji liniowej.
Źródło:
Advances in Computer Science Research; 2018, 14; 31-54
2300-715X
Pojawia się w:
Advances in Computer Science Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Reliability analysis of the products subject to competing failure processes with unbalanced data
Oparta na niezbilansowanych danych analiza niezawodności produktów podlegających procesom powstawania uszkodzeń konkurujących
Autorzy:
Li, J.
Zhang, Y.
Wang, Z.
Fu, H.
Xiao, L.
Powiązania:
https://bibliotekanauki.pl/articles/1365849.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
reliability evaluation
competing failure model
unbalanced data
interval statistics
ocena niezawodności
model uszkodzeń konkurujących
dane niezbilansowane
statystyki przedziałowe
Opis:
Considering the degradation and catastrophic failure modes simultaneously, a general reliability analysis model was presented for the competing failure processes with unbalanced data. For the degradation process with highly unbalanced data, we developed a linear random-effects degradation model. The model parameters can be estimated based on a simple least square method. Furthermore, to fully utilize the degradation information, we considered the last measured times of the degradation units that had only one or two measured time points as zero-failure data or right-censored data of the catastrophic failure mode. Then the incomplete data set was composed of zero-failure data and catastrophic failure data. To analyze the incomplete data, the definition of the interval statistics was firstly given. The best linear unbiased parameter estimators of catastrophic failure were obtained based on the Gauss-Markov theorem. Then, the reliability function of the competing failure processes was given. The corresponding two-sided confidence intervals of the reliability were obtained based on a bootstrap procedure. Finally, a practical application case was examined by applying the proposed method and the results demonstrated its validity and reasonability.
W pracy przedstawiono ogólny model analizy niezawodności procesów związanych z powstawaniem uszkodzeń konkurujących, który pozwala na wykorzystanie danych niezbilansowanych oraz umożliwia jednoczesne uwzględnienie uszkodzeń wynikających z obniżenia charakterystyk i uszkodzeń katastroficznych. Opracowano liniowy model efektów losowych dla procesu degradacji o wysoce niezbilansowanych danych. Parametry tego modelu można określić na podstawie prostej metody najmniejszych kwadratów. Ponadto, aby w pełni wykorzystać informacje dotyczące obniżenia charakterystyk, dane pochodzące z ostatniego pomiaru jednostek podlegających degradacji, dla których przeprowadzono tylko jeden lub dwa pomiary, rozpatrywano jako dane o zerowym uszkodzeniu lub jako ucięte prawostronnie dane dotyczące uszkodzenia katastroficznego. W ten sposób otrzymano zbiór niepełnych danych składający się z danych o uszkodzeniach zerowych oraz danych o uszkodzeniach katastroficznych. Aby móc przeanalizować uzyskane niepełne dane, podano definicję statystyki przedziałowej. Najefektywniejszy nieobciążony estymator liniowy (BLUE) parametrów uszkodzeń katastroficznych uzyskano na podstawie twierdzenia Gaussa-Markowa. Następnie, podano wzór funkcji niezawodności procesów związanych z powstawaniem uszkodzeń konkurujących. Odpowiednie dwustronne przedziały ufności dla oszacowanej niezawodności uzyskano metodą bootstrapową. Na koniec, przedstawiono przypadek praktycznego zastosowania proponowanej metody, którego wyniki wykazały jej trafność i zasadność.
Źródło:
Eksploatacja i Niezawodność; 2016, 18, 1; 98-109
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Relative Sets and Rough Sets
Autorzy:
Mousavi, A.
Jabedar-Maralani, P.
Powiązania:
https://bibliotekanauki.pl/articles/908368.pdf
Data publikacji:
2001
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
teoria mnogości
analiza danych
przedstawienie wiedzy
rough sets
set theory
data analysis
multi-valued logic
interval sets
knowledge representation
Opis:
In this paper, by defining a pair of classical sets as a relative set, an extension of the classical set algebra which is a counterpart of Belnap's four-valued logic is achieved. Every relative set partitions all objects into four distinct regions corresponding to four truth-values of Belnap's logic. Like truth-values of Belnap's logic, relative sets have two orderings; one is an order of inclusion and the other is an order of knowledge or information. By defining a rough set as a pair of definable sets, an integrated approach to relative sets and rough sets is obtained. With this definition, we are able to define an approximation of a rough set in an approximation space, and so we can obtain sequential approximations of a set, which is a good model of communication among agents.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2001, 11, 3; 637-653
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies