Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "statistical verification" wg kryterium: Wszystkie pola


Wyświetlanie 1-13 z 13
Tytuł:
A GPGPU–based simulator for prism: statistical verification of results of PMC
Autorzy:
Copik, M.
Rataj, A.
Woźna-Szcześniak, B.
Powiązania:
https://bibliotekanauki.pl/articles/121899.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
GPGPU
symulacja Monte Carlo
pryzmat
probabilistyczny model statystyczny
Monte Carlo simulation
prism
probabilistic model checking
statistical model checking
probabilistic logics
Opis:
We describe a GPGPU–based Monte Carlo simulator integrated with Prism. It supports Markov chains with discrete or continuous time and a subset of properties expressible in PCTL, CSL and their variants extended with rewards. The simulator allows an automated statistical verification of results obtained using Prism’s formal methods.
Źródło:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics; 2017, 22; 85-97
2450-9302
Pojawia się w:
Scientific Issues of Jan Długosz University in Częstochowa. Mathematics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Survey questionnaire for the study on occupational safety culture in a production plant. Construction and statistical verification of data correctness
Autorzy:
Krupa, Patryk
Gabryelewicz, Izabela
Edl, Milan
Pantya, Peter
Patalas-Maliszewska, Justyna
Powiązania:
https://bibliotekanauki.pl/articles/406950.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
safety analysis
correlation coefficients
computer programs
software safety
process identification
Opis:
The article presents the issue related with a proper preparation of a data sheet for the analysis, the way of verifying the correctness and reliability of input information, and proper data encoding. Improper input or coding of data can significantly influence the correctness of performed analyses or extend their time. This stage of an analysis is presented by an authorship questionnaire for the study on occupational safety culture in a manufacturing plant, using the Statistica software for analyses. There were used real data, obtained during the research on the issue of occupational safety and factors having the greatest influence on the state of occupational safety.
Źródło:
Management and Production Engineering Review; 2019, 10, 2; 101--108
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Determination of a mathematical model of the thin-film photovoltaic panel (CIS) based on measurement data
Wyznaczanie modelu matematycznego cienkowarstwowego panelu fotowoltaicznego (CIS) na podstawie danych pomiarowych
Autorzy:
Trzmiel, G.
Powiązania:
https://bibliotekanauki.pl/articles/301199.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
photovoltaic panel
CIS solar cells
approximation
mathematical model
statistical verification
panel fotowoltaiczny
ogniwa słoneczne CIS
aproksymacja
model matematyczny
weryfikacja
Opis:
In this paper the author attempted to determine the most accurate mathematical model of the photovoltaic panel composed of a monolithic structure of series connected Copper Indium Diselenide (CIS) based solar cells, based on its actual measurement data. The purpose of this paper has been achieved by implementing the original applications which, using the methods of approximation, made it possible to design the final mathematical model of the tested panel, characterized by the minimum of error modelling. Using the known literature on the operation of similar facilities, the model parameters were determined directly from the collection of random measurement data; then the obtained models were verified by several different statistical methods. As a result, the best model was selected, based on the smallest dispersion of the theoretical values (simulated) calculated from the model relative to the actual measurements. The model will be used in practice in the future to evaluate the condition (inefficiency, use) of photovoltaic panels, what will be the theme of following articles.
W artykule autor dąży do określenia, w oparciu o rzeczywiste dane pomiarowe, najbardziej dokładnego modelu matematycznego panelu fotowoltaicznego, składającego się z monolitycznej struktury połączonych szeregowo ogniw fotowoltaicznych typu CIS. Cel pracy został osiągnięty poprzez wdrożenie oryginalnych aplikacji, które przy użyciu metod aproksymacji umożliwiły zaprojektowanie ostatecznego modelu matematycznego badanego panelu, charakteryzującego się minimalnym błędem modelowania. Wykorzystując literaturę tematu dotyczącą działania podobnych obiektów nieliniowych, parametry modelu zostały określone bezpośrednio z wcześniej zarchiwizowanych losowych danych pomiarowych. Następnie uzyskane modele zweryfikowano kilkoma różnymi metodami statystycznymi. W wyniku tego wybrano najlepszy model, oparty na najmniejszej dyspersji wartości teoretycznych (symulowanych) obliczonej z modelu w stosunku do rzeczywistych pomiarów. Otrzymany model zostanie w przyszłości zastosowany w praktyce do oceny stanu (niesprawności, zużycia) paneli fotowoltaicznych, co będzie tematem kolejnych artykułów.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 4; 516-521
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of a multicriterial optimization to the resolution of X-ray diffraction curves of semicrystalline polymers
Zastosowanie optymalizacji wielokryterialnej do rozkładu rentgenowskich krzywych dyfrakcyjnych polimerów semikrystalicznych
Autorzy:
Rabiej, M.
Powiązania:
https://bibliotekanauki.pl/articles/1205322.pdf
Data publikacji:
2017
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Chemii Przemysłowej
Tematy:
multicriterial optimization
WAXD method
curve fitting
curve decomposition
statistical verification
statistical test
optymalizacja wielokryterialna
metoda WAXD
dopasowywanie krzywych
rozkład krzywych
weryfikacja statystyczna
test statystyczny
Opis:
The analysis of wide angle X-ray diffraction (WAXD) curves of semicrystalline polymers is connected with their decomposition into crystalline peaks and amorphous components. To this aim a theoretical curve is constructed which is a best fitted, mathematical model of the experimental one. All parameters of the theoretical curve are found using an optimization procedure. As it has been already proved, a reliable decomposition can be performed only by means of a procedure which effectively performs a multicriterial optimization. It consists in minimization of the sum of squared deviations between the theoretical and experimental curves and simultaneous maximization of the area of the amorphous component. So, the objective function in the optimization procedure is constructed of two criterial functions which represent the two requirements. The proportions between the criterial functions and their significance at different stages of the procedure must be determined by suitable weights. A proper choice of the weights is an important part of the procedure. In this paper a new solution of this problem is presented: the weights are changed dynamically in subsequent steps of the optimization procedure. A few different algorithms of the weights determination are presented and evaluated by means of several statistical method. The optimization procedures equipped with these algorithms are tested using WAXD patterns of popular polymers: Cellulose I, Cellulose II and PET. It is shown that the optimization procedures equipped with the dynamic algorithms of weights determination are much more effective than the procedures using some constant, arbitrarily chosen weights.
Dokonanie analizy krzywych dyfrakcyjnych WAXD polimerów semikrystalicznych, związanej z ich dekompozycją na składowe krystaliczne i amorficzne, wymaga zbudowania funkcji stanowiącej matematyczny model zarejestrowanej krzywej dyfrakcyjnej. Do wyznaczenia parametrów tej funkcji stosuje się nieliniową optymalizację wielokryterialną, polegającą na minimalizacji sumy kwadratów odchyleń krzywej teoretycznej od krzywej eksperymentalnej oraz maksymalizacji pola pod składową amorficzną. Funkcja celu jest więc skonstruowana z dwóch funkcji kryterialnych, które reprezentują te dwa warunki. Proporcje między tymi funkcjami i ich znaczenie na poszczególnych etapach procedury optymalizacyjnej muszą być określane przez odpowiednie wagi. Właściwy dobór wag dla funkcji kryterialnych jest jednym z trudniejszych zadań. Zaprezentowano nowe rozwiązanie problemu doboru wag dla funkcji kryterialnych: wagi zmieniano dynamicznie w kolejnych krokach procedury. Zaproponowano kilka różnych algorytmów wyznaczania wag. Algorytmy porównano i oceniono za pomocą testów statystycznych. Procedury wyposażone w te algorytmy zastosowano do rozkładu krzywych dyfrakcyjnych celulozy I, celulozy II i poliestru. Wykazano, że procedury wyposażone w dynamiczne algorytmy wyznaczania wag są znacznie bardziej skuteczne niż procedury wykorzystujące wagi stałe, ustalone arbitralnie.
Źródło:
Polimery; 2017, 62, 11-12; 821-833
0032-2725
Pojawia się w:
Polimery
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of the sequential probability ratio test to verification of statistical hypotheses
Zastosowanie sekwencyjnych testów ilorazowych do weryfikacji hipotez statystycznych
Autorzy:
Pekasiewicz, Dorota
Powiązania:
https://bibliotekanauki.pl/articles/904612.pdf
Data publikacji:
1997
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
sequential probability ratio test
operating characteristic function
average sample size
Opis:
The paper deals with some problems concerning the sequential probability ratio tests (SPRT) and their application to verifying simple and composite statistical hypotheses. Besides properties and examples of SPRT, there are presented advantages o f this group of tests and reasons why we cannot always apply them in practice.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 1997, 141
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Results of the verification of the statistical distribution model of microseismicity emission characteristics
Wyniki weryfikacji modelu opisującego rozkład statystyczny cech emisji sejsmoakustycznej
Autorzy:
Cianciara, A.
Powiązania:
https://bibliotekanauki.pl/articles/219233.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
emisja sejsmoakustyczna
pękanie górotworu
cechy emisji sejsmoakustycznej
dystrybuanta empiryczna
rozkład Weibull’a
test Kołmogorowa
statystyki wartości maksymalnych
microseismicity emission
rock burst
empirical distribution
Weibull distribution
Kolmogorov-Smirnov goodness-of-fit test
hazard analysis
maximum value statistics
Opis:
The paper presents the results of research aimed at verifying the hypothesis that the Weibull distribution is an appropriate statistical distribution model of microseismicity emission characteristics, namely: energy of phenomena and inter-event time. It is understood that the emission under consideration is induced by the natural rock mass fracturing. Because the recorded emission contain noise, therefore, it is subjected to an appropriate filtering. The study has been conducted using the method of statistical verification of null hypothesis that the Weibull distribution fits the empirical cumulative distribution function. As the model describing the cumulative distribution function is given in an analytical form, its verification may be performed using the Kolmogorov-Smirnov goodness-of-fit test. Interpretations by means of probabilistic methods require specifying the correct model describing the statistical distribution of data. Because in these methods measurement data are not used directly, but their statistical distributions, e.g., in the method based on the hazard analysis, or in that that uses maximum value statistics.
Problematyka oceny stopnia zagrożenia tąpaniami jest niezwykle ważnym zagadnieniem i do tej pory nie w pełni rozwiązanym. Wstrząsy występują głównie w rejonach zrobów (Cianciara & Cianciara, 2006). Mogą również występować na wybiegu ściany, na skutek uginania się stropu (Marcak, 2012), obserwuje się wówczas wzmożoną aktywność pękania górotworu, co jest przyczyną powstawania emisji sejsmicznej. W pracy przedstawiono wyniki badań mających na celu weryfikację hipotezy, że rozkład Weibull’a stanowi właściwy model opisujący rozkłady statystyczne cech emisji sejsmoakustycznej, a mianowicie: energii zjawisk, odstępów czasu między zjawiskami. Przyjmuje się, że emisja, będąca przedmiotem rozważań, wywołana jest naturalnym pękaniem górotworu. Jednak w praktyce rejestrowana emisja, oprócz zjawisk związanych z pękaniem, może zawierać zakłócenia. Dlatego, na potrzebę badania modelu, jest ona poddawana odpowiednim zabiegom celem usunięcia tych zakłóceń. Badanie prowadzone jest metodą statystycznej weryfikacji hipotezy zerowej o zgodności dystrybuant (rozkładów) empirycznych z dystrybuantą zadaną a priori w formie rozkładu Weibull’a. Ponieważ model opisujący dystrybuantę hipotetyczną jest zadany w formie analitycznej, dlatego jego weryfikację można prowadzić stosując test λ Kołmogorowa. Interpretacje prowadzone metodami probabilistycznymi wymagają określenia właściwego modelu opisującego rozkład statystyczny danych pomiarowych. Ponieważ w metodach tych nie wykorzystuje się bezpośrednio danych pomiarowych, lecz ich rozkłady statystyczne, np. w metodzie opartej na analizie hazardu, czy też wykorzystującej statystyki wartości maksymalnych. W trakcie badań stwierdzono, że w około 95% badanych przypadków nie było podstaw do odrzucenia hipotezy zerowej o zgodności rozkładów empirycznych z modelem w formie rozkładu Weibull`a.
Źródło:
Archives of Mining Sciences; 2016, 61, 3; 489-496
0860-7001
Pojawia się w:
Archives of Mining Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A statistical approach for off-line signature verification (SV)
Autorzy:
Das, M.T.
Dulger, L.C.
Dulger, H.E.
Powiązania:
https://bibliotekanauki.pl/articles/332991.pdf
Data publikacji:
2009
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
weryfikacja podpisu
sieci neuronowe
offline signature verification (SV)
particle swarm optimization (PSO)
neural networks (NN)
chi-square test
PSO-NN
Opis:
This paper includes off line Signature Verification (SV) process with test results using the proposed algorithm Particle Swarm Optimization-Neural Network (PSO-NN) together with statistical analysis, Chi-square test. The verification process is performed in four steps. Signature images are scanned (data acquisition) and image processing is applied to make images suitable for extracting features (pre-processing). Each pre-processed image is then used to extract relevant geometric parameters (feature extraction) that can distinguish signatures of different volunteers. Finally, the proposed verification algorithm is tested on the database that includes 1350 skilled and genuine signatures taken from 25 volunteers. The Chi-square test is applied to see how the signature data fits with probability test function.
Źródło:
Journal of Medical Informatics & Technologies; 2009, 13; 33-39
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verification of ideological classifications - a statistical approach
Autorzy:
Mazurkiewicz, M.
Mercik, J.
Dobrowolski, W.
Powiązania:
https://bibliotekanauki.pl/articles/206009.pdf
Data publikacji:
2001
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
ładowanie początkowe
przestrzeń ideologiczna
wymiar ideologiczny
bootstrap
ideological dimension
ideological space
Opis:
The paper presents a statistical method of verifying ideological classifications of votes. Parliamentary votes, preclassified by an expert (on a chosen subset), are verified at an assumed significance level by seeking the most likely match with the actual vote results. Classifications that do not meet the requirements defined are rejected. The results obtained can be applied in the ideological dimensioning algorithms, enabling ideological identification of dimensions obtained.
Źródło:
Control and Cybernetics; 2001, 30, 4; 451-463
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verification of the Calculation Assumptions Applied to Solutions of the Acoustic Measurements Uncertainty
Autorzy:
Batko, W.
Bal, R.
Powiązania:
https://bibliotekanauki.pl/articles/176297.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
environmental noise control
statistical analysis
acoustic measurement
uncertainty
Opis:
The assessment of the uncertainty of measurement results, an essential problem in environmental acoustic investigations, is undertaken in the paper. An attention is drawn to the – usually omitted – problem of the verification of assumptions related to using the classic methods of the confidence intervals estimation, for the controlled measuring quantity. Especially the paper directs attention to the need of the verification of the assumption of the normal distribution of the measuring quantity set, being the base for the existing and binding procedures of the acoustic measurements assessment uncertainty. The essence of the undertaken problem concerns the binding legal and standard acts related to acoustic measurements and recommended in: ‘Guide to the expression of uncertainty in measurement’ (GUM) (OIML 1993), developed under the aegis of the International Bureau of Measures (BIPM). The model legitimacy of the hypothesis of the normal distribution of the measuring quantity set in acoustic measurements is discussed and supplemented by testing its likelihood on the environment acoustic results. The Jarque-Bery test based on skewness and flattening (curtosis) distribution measures was used for the analysis of results verifying the assumption. This test allows for the simultaneous analysis of the deviation from the normal distribution caused both by its skewness and flattening. The performed experiments concerned analyses of the distribution of sound levels: LD, LE, LN, LDWN, being the basic noise indicators in assessments of the environment acoustic hazards.
Źródło:
Archives of Acoustics; 2014, 39, 2; 199-202
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The statistical models for interpreting the results of parcels area verification in integrated administration and control system IACS
Statystyczne modele interpretacji wyników weryfikacji powierzchni działek w programie IACS
Autorzy:
Wolski, B.
Toś, C.
Powiązania:
https://bibliotekanauki.pl/articles/402475.pdf
Data publikacji:
2018
Wydawca:
Politechnika Świętokrzyska w Kielcach. Wydawnictwo PŚw
Tematy:
IACS system
verification of parcel area
robust statistics
program IACS
weryfikacja powierzchni działek
statystyka odpornościowa
Opis:
A key element of the system IACS is the verification of the parcel area covered by direct subsidies. Control measurements are made by FOTO method, and in a small part by the direct inspection. Statistical methods are used in estimating the significance of differences. The results of such analysis are correct only when the empirical distributions are consistent with the theoretical ones. The problem of distribution adequacy is presented in the paper on the examples of three objects. The hypotheses about the possibility of using the commonly used distributions, and the appropriateness of the modification of the density curves were verified. By questioning the effectiveness of current methods of analysis, the authors point to the advantages of robust statistics. The cognitive effect of the analysis is to indicate the Laplace distribution as a statistical model of the analyzed differences. Research is concluded by proposal of post-control report that sums up relevant properties of the survey results.
Kluczowym elementem programu IACS (Integrated Administration and Control System) jest weryfikacja powierzchni działek objętych dopłatami bezpośrednimi. Pomiary kontrolne wykonywane są metodą FOTO, a w niewielkiej części w ramach inspekcji terenowej. W ocenie istotności różnic zastosowanie znajdują metody statystyczne. Wyniki takich analiz są poprawne pod warunkiem zgodności rozkładów empirycznych z teoretycznymi. Problem adekwatności rozkładów zaprezentowano w artykule na przykładzie trzech obiektów. Zweryfikowano hipotezę o możliwości wykorzystania powszechnie stosowanych rozkładów oraz zbadano zasadność modyfikacji krzywych gęstości. Poddając w wątpliwość efektywność stosowanych obecnie metod analizy, Autorzy wskazują na zalety metod statystyki odpornościowej. Poznawczym efektem analizy jest wskazanie rozkładu Laplace’a jako statystycznego modelu analizowanych różnic. Konkluzję badań stanowi propozycja raportu pokontrolnego zawierającego istotne właściwości wyników pomiaru.
Źródło:
Structure and Environment; 2018, 10, 1; 53-65
2081-1500
Pojawia się w:
Structure and Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problem of the evaluation of research processes – verification of credibility of statistical data
Problem oceny procesów badawczych – weryfikacja wiarygodności danych statystycznych
Autorzy:
Zemke, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/964169.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Benford’s distribution of the first digit frequency in statistical data
Reliability of empirical data
Rozkład Benforda częstości występowania pierwszej cyfry danych statystycznych
Wiarygodność danych empirycznych
Opis:
The present paper presents the problem of the research work evaluation, with a special focus on reliability of statistical data used in tests. Besides situations, when an Author does not specify the source of data, this fact disqualifying the work, in some cases Authors are pleading the need to keep the source of data confidential. The only choice left to the Reviewer then is to accept the reliability of data or to reject it and refuse to review the study. How to eliminate this serious disadvantage from the scientific review process? An answer is provided in the hypothesis presented below. If the statistical data distribution follows Benford’s law, the reliability of data used in the study can be confirmed with a probability close to certainty. The conclusion of the paper contains a proposal of assumptions for a system supporting Reviewers in preparing scientific reviews. The results of the empirical investigation, the assumptions of which were to support the process of verifying the hypothesis, are presented in an appendix.
Tematem niniejszego artykułu jest zagadnienie oceny prac badawczych, a w szczególności ocena wiarygodności danych statystycznych użytych w badaniu. Pomijam fakt, kiedy Autor pracy nie podaje źródła danych, co dyskwalifikuje badanie. Zdarzają się przypadki, gdy Autor powołuje się na konieczność utajnienia źródła danych, wówczas Recenzentowi pozostaje wybór: uznać, że dane są wiarygodne bądź odrzucić to założenie, a tym samym odstąpić od wykonania recenzji. Jak wyeliminować istotny mankament recenzji? Odpowiedzi może dostarczyć następująca hipoteza: Jeśli dane statystyczne mają rozkład zgodny z rozkładem Benforda, to z prawdopodobieństwem graniczącym z pewnością można zweryfikować wiarygodność danych wykorzystanych w badaniu. W zakończeniu artykułu sformułowano założenia systemu wspomagającego Recenzentów przy formułowaniu ocen prac badawczych. W załączniku zamieszczono wyniki badania empirycznego, które z założenia mają wesprzeć proces weryfikacji sformułowanej hipotezy badawczej.
Źródło:
Studia Ekonomiczne; 2015, 221; 100-112
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kinetics modelling service verification of vehicle speed using the statistical significance in an urban food distribution
Eksploatacyjna weryfikacja modelowania kinetyki prędkości jazdy pojazdu metodą istotności statystycznej w warunkach miejskiej dystrybucji żywności
Autorzy:
Wasilewski, J.
Burski, Z.
Krasowski, E.
Powiązania:
https://bibliotekanauki.pl/articles/792209.pdf
Data publikacji:
2014
Wydawca:
Komisja Motoryzacji i Energetyki Rolnictwa
Tematy:
energy consumption
transport
food distribution
urban agglomeration
speed
operational condition
acceleration
deceleration
statistical analysis
transport infrastructure
Źródło:
Teka Komisji Motoryzacji i Energetyki Rolnictwa; 2014, 14, 3
1641-7739
Pojawia się w:
Teka Komisji Motoryzacji i Energetyki Rolnictwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Verification of economic and agricultural indicators with the use of statistical methods on the example of individual farms
Weryfikacja wskaźników ekonomiczno-rolniczych z wykorzystaniem metod statystycznych na przykładzie gospodarstw indywidualnych
Autorzy:
Grotkiewicz, K.
Peszek, A.
Kowalczyk, Z.
Powiązania:
https://bibliotekanauki.pl/articles/93527.pdf
Data publikacji:
2016
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
economic indicators
agricultural indicators
individual farm
data exploration
two step cluster analysis
wskaźniki ekonomiczno-rolnicze
gospodarstwo indywidualne
eksploracja danych
dwustopniowa analiza skupień
Opis:
The paper describes basic methodology assumptions related to construction of Bayesian networks. The paper aims at preparation of data for modeling to obtain fresh knowledge on economic and agricultural database and will constitute the first stage of research. Variables (economic and agricultural indicators) with discreet values were used for analysis with the use of two step grouping technique and previous non-typical data were explored. The research was carried out on the group of three hundred individual fanns from Malopolskie and Swiętokrzyskie Voiovedship. The knowledge obtained from analyses will be used in practice in agricultural engineering in order to support agricultural activity.
W pracy omówiono podstawowe założenia metodyczne związane z budową sieci bayesowskich. Zadaniem opracowania jest przygotowanie danych do modelowania w celu pozyskiwania nowej wiedzy z ekonomiczno-rolniczej bazy danych i będzie ono stanowiło jednocześnie pierwszy etap badań. Do analiz wykorzystano zmienne (wskaźniki ekonomiczno-rolnicze) o wartościach dyskretnych posługując się techniką dwustopniowego grupowania oraz dokonano wcześniejszej eksploracji danych nietypowych. Badania przeprowadzono na grupie trzystu gospodarstw indywidualnych z województwa małopolskiego i świętokrzyskiego. Uzyskaną wiedzę z przeprowadzonych analiz będzie można wykorzystać w bezpośredniej praktyce w inżynierii rolniczej mając na celu wspomaga-nie działalności rolniczej.
Źródło:
Agricultural Engineering; 2016, 20, 3; 43-51
2083-1587
Pojawia się w:
Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-13 z 13

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies