Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "likelihood data" wg kryterium: Temat


Wyświetlanie 1-14 z 14
Tytuł:
A new count data model applied in the analysis of vaccine adverse events and insurance claims
Autorzy:
Dar, Showkat Ahmad
Hassan, Anwar
Ahmad, Peer Bilal
Wani, Sameer Ahmad
Powiązania:
https://bibliotekanauki.pl/articles/1827552.pdf
Data publikacji:
2021-09-06
Wydawca:
Główny Urząd Statystyczny
Tematy:
poisson distribution
weighted exponential distribution
compound distribution
count data
maximum likelihood estimation
Opis:
The article presents a new probability distribution, created by compounding the Poisson distribution with the weighted exponential distribution. Important mathematical and statistical properties of the distribution have been derived and discussed. The paper describes the proposed model's parameter estimation, performed by means of the maximum likelihood method. Finally, real data sets are analyzed to verify the suitability of the proposed distribution in modeling count data sets representing vaccine adverse events and insurance claims.
Źródło:
Statistics in Transition new series; 2021, 22, 3; 157-174
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Record-based inference and associated cost analysis for the Weibull distribution
Autorzy:
Doostparast, M.
Powiązania:
https://bibliotekanauki.pl/articles/205931.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
cost analysis
likelihood function
record data
total time on test
Weibull model
lifetime model
Opis:
In statistical process control, record schemes are used to reduce the total time on test for the inspection inquiry. In these schemes, units are examined sequentially and successive minimum values are recorded. On the basis of record data, Samaniego and Whitaker (1986) obtained the maximum likelihood (ML) estimate of the mean for an exponential distribution. Since the two parameter Weibull model, as an extension of the exponential distribution, has a wide range of application, Hoinkes and Padgett (1994) derived the record-based ML estimators for the parameters of interest in this model. This paper shows that the ML estimates of the Weibull parameters do not always exist for the basis of records. Thus, a new scheme is proposed, in which the ML estimates of the parameters always exist. An analytic cost-based comparison between the usual and the New scheme is also carried out. Finally, some concluding remarks and open problems are formulated.
Źródło:
Control and Cybernetics; 2015, 44, 1; 163-177
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fitting General Linear Model for Longitudinal Survey Data under Informative Sampling
Autorzy:
Eideh, Abdulhakeem A. H.
Powiązania:
https://bibliotekanauki.pl/articles/465750.pdf
Data publikacji:
2010
Wydawca:
Główny Urząd Statystyczny
Tematy:
General Linear Model
Informative sampling
Longitudinal Survey Data
Maximum Likelihood
Sample distribution
Opis:
The purpose of this article is to account for informative sampling in fitting superpopulation model for multivariate observations, and in particular multivariate normal distribution, for longitudinal survey data. The idea behind the proposed approach is to extract the model holding for the sample data as a function of the model in the population and the first order inclusion probabilities, and then fit the sample model using maximum likelihood, pseudo maximum likelihood and estimating equations methods. As an application of the results, we fit the general linear model for longitudinal survey data under informative sampling using different covariance structures: the exponential correlation model, the uniform correlation model, and the random effect model, and using different conditional expectations of first order inclusion probabilities given the study variable. The main feature of the present estimators is their behaviours in terms of the informativeness parameters.
Źródło:
Statistics in Transition new series; 2010, 11, 3; 90-111
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of the maximum likelihood estimator for determining the intrinsic dimensionality of high-dimensional data
Autorzy:
Karbauskaitė, R.
Dzemyda, G.
Powiązania:
https://bibliotekanauki.pl/articles/331342.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
multidimensional data
intrinsic dimensionality
maximum likelihood estimator
manifold learning method
image understanding
dane wielowymiarowe
wymiarowość wewnętrzna
prawdopodobieństwo maksymalne
rozpoznawanie obrazu
Opis:
One of the problems in the analysis of the set of images of a moving object is to evaluate the degree of freedom of motion and the angle of rotation. Here the intrinsic dimensionality of multidimensional data, characterizing the set of images, can be used. Usually, the image may be represented by a high-dimensional point whose dimensionality depends on the number of pixels in the image. The knowledge of the intrinsic dimensionality of a data set is very useful information in exploratory data analysis, because it is possible to reduce the dimensionality of the data without losing much information. In this paper, the maximum likelihood estimator (MLE) of the intrinsic dimensionality is explored experimentally. In contrast to the previous works, the radius of a hypersphere, which covers neighbours of the analysed points, is fixed instead of the number of the nearest neighbours in the MLE. A way of choosing the radius in this method is proposed. We explore which metric—Euclidean or geodesic—must be evaluated in the MLE algorithm in order to get the true estimate of the intrinsic dimensionality. The MLE method is examined using a number of artificial and real (images) data sets.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2015, 25, 4; 895-913
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of COVID-19 and cancer data using new half-logistic generated family of distributions
Autorzy:
Khan, Sadaf
Tahir, Muhammad H.
Jamal, Farrukh
Powiązania:
https://bibliotekanauki.pl/articles/29127967.pdf
Data publikacji:
2023
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
half-logistic distribution
generalized family
likelihood estimation
bio-medical data
Frechet distribution
Opis:
We focus on a specific sub-model of the proposed family that we call the new half logistic-Fréchet. This sub-model stems from a new generalisation of the half-logistic distribution which we call the new half-logistic-G. The novelty of proposing this new family is that it does not include any additional parameters and instead relies on the baseline parameter. Standard statistical formulas are used to show the forms of the density and failure rate functions, ordinary and incomplete moments with generating functions, and random variate generation. The maximum likelihood estimation procedure is used to estimate the set of parameters. We conduct a simulation analysis to ensure that our calculations are converging with lower mean square error and biases. We use three real-life data sets to equate our model to well-established existing models. The proposed model outperforms the well-established four parameters beta Fréchet and exponentiated generalized Fréchet for some real- -life results, with three parameters such as half-logistic Fréchet, exponentiated Fréchet, Zografos–Balakrishnan gamma Fréchet, Topp–Leonne Fréchet, and Marshall–Olkin Fréchet and two-parameter classical Fréchet distribution.
Źródło:
Operations Research and Decisions; 2023, 33, 4; 71--95
2081-8858
2391-6060
Pojawia się w:
Operations Research and Decisions
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Review of methods for data sets with missing values and practical applications
Autorzy:
Korczyński, Adam
Powiązania:
https://bibliotekanauki.pl/articles/433946.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
missing data pattern
missing data mechanism
complete-case analysis
available-case analysis
single imputation
likelihood-based methods
multiple imputation
weighting methods
Opis:
The aim of this paper is to revise the traditional methods (complete-case analysis, available-case analysis, single imputation) and current methods (likelihood-based methods, multiple imputation, weighting methods) for handling the problem of missing data and to assess their usefulness in statistical research. The paper provides the terminology and the description of traditional and current methods and algorithms used in the analysis of incomplete data sets. The methods are assessed in terms of the statistical properties of their estimators. An example is provided for the multiple imputation method. The review indicates that current methods outweigh traditional ones in terms of bias reduction, precision and efficiency of the estimation.
Źródło:
Śląski Przegląd Statystyczny; 2014, 12(18); 83-104
1644-6739
Pojawia się w:
Śląski Przegląd Statystyczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of Point Processes Observed with Noise with Applicational Example
Analiza procesów punktowych z szumem z przykładem aplikacyjnym
Autorzy:
Korzeniewski, Jerzy
Powiązania:
https://bibliotekanauki.pl/articles/904712.pdf
Data publikacji:
2005
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
point process
maximum likelihood method
noise
incomplete observation
image data
computer algorithm
Opis:
Przykładem zastosowania procesów punktowych obserwowanych wraz z szumem są zdjęcia lotnicze lasów robione w celu oszacowania ubytków leśnych na danym terenie. Rudemo i Lund (2000) zaproponowali model, który może być użyteczny w tym celu, wykorzystujący liczbę „kandydatów na drzewa” widocznych na zdjęciu. Parametry warunkowej funkcji wiarygodności zostały oszacowane z uwzględnieniem takich odmian szumu, jak znikanie punktów, przemieszczanie się punktów oraz pojawianie się punktów fałszywych. To podejście nie rozwiązuje problemu szacowania faktycznej liczby drzew. W artykule tym zaproponowano nowy algorytm, który bezpośrednio szacuje faktyczną liczbę prawdziwych drzew. Jedynym koniecznym założeniem jest założenie o stałej gęstości zalesienia na danym obszarze lasu. Rezultaty uzyskane za pomocą nowego algorytmu można ocenić jak o interesujące.
An example of the application of point processes observed with noise are aerial photographs of forests with the aim of estimating the actual number of trees on a given area. Lund and Rudemo (2000) proposed a model useful in this context, basing on the number of “trees candidates” visible on the photograph. The parameters of conditional likelihood function were estimated taking into account such variations of noise as points thinning, points displacement and appearing of extra ghost points. The approach proposed does not solve the problem of the estimation of the actual number of trees. In this paper a new algorithm to estimate directly the number of actual trees is proposed. The only assumption on which the new measure depends is the natural assumption about forest density being locally constant. The results achieved with the help of the new measure may be assessed as interesting.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2005, 194
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Classifiers for doubly multivariate data
Autorzy:
Krzyśko, Mirosław
Skorzybut, Michał
Wołyński, Waldemar
Powiązania:
https://bibliotekanauki.pl/articles/729872.pdf
Data publikacji:
2011
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
classifiers
repeated measures data (doubly multivariate data)
Kronecker product covariance structure
compound symmetry covariance structure
AR(1) covariance structure
maximum likelihood estimates
likelihood ratio tests
Opis:
This paper proposes new classifiers under the assumption of multivariate normality for multivariate repeated measures data (doubly multivariate data) with Kronecker product covariance structures. These classifiers are especially useful when the number of observations is not large enough to estimate the covariance matrices, and thus the traditional classifiers fail. The quality of these new classifiers is examined on some real data. Computational schemes for maximum likelihood estimates of required class parameters, and the likelihood ratio test relating to the structure of the covariance matrices, are also given.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2011, 31, 1-2; 5-27
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Aircraft dynamic model identification on the basis of flight data recorder registers
Autorzy:
Lasek, L.
Lichota, P.
Powiązania:
https://bibliotekanauki.pl/articles/115522.pdf
Data publikacji:
2013
Wydawca:
Fundacja na Rzecz Młodych Naukowców
Tematy:
Dimensional derivatives
estimation
Flight Data Recorder
Flight Dynamics
Maximum Likelihood Estimation
Levenberg-Marquardt
System Identification
Opis:
We investigate the problem of an aircraft dynamic model parametric identification using dimensional derivatives as an example. Identification is done in offline mode, in the time domain. Flight parameters used for identification are obtained from Flight Data Recorder, that register them during each scheduled flight. We investigate the possibility of application of Maximum Likelihood Estimation that belongs to the Output Error Methods class. The likelihood function is defined for n-dimensional multivariate normal distribution. Unknown covariance matrix is estimated with the use of measured data and output equation. Output equation is calculated with Runge–Kutta fourth order method. In order to find the cost function minimum we consider using Levenberg-Marquardt Algorithm, where derivatives are calculated with central difference formulas and small perturbations theory. Mathematical model of an aircraft is obtained through flight dynamics classical approach. Rigid body model of an aircraft is assumed. Coordinate Systems Transformations are done using Euler’s Rotation Theorem with angle order typical for flight dynamics. Equations of motion are obtained from Newtons Second Law of Motion in body fixed coordinate system Oxyz, that is located at aircraft’s center of gravity. Turbulence is modeled as a bias, and also is an object of identification. We implement this method in Matlab R2009b environment.
Źródło:
Challenges of Modern Technology; 2013, 4, 1; 16-20
2082-2863
2353-4419
Pojawia się w:
Challenges of Modern Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Maximum likelihood estimation for identification of aircraft aerodynamic derivatives
Identyfikacja pochodnych aerodynamicznych Metodą Największej Wiarygodności
Autorzy:
Lichota, P.
Lasek, M.
Powiązania:
https://bibliotekanauki.pl/articles/139934.pdf
Data publikacji:
2013
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
flight dynamics
flight data recorder
Levenberg-Marquardt algorithm
maximum likelihood estimation
output error method
parametric identification
dynamika lotu
pokładowy rejestrator lotu
algorytm Levenberga-Marquardta
metoda największej wiarygodności
metoda błędu wyjścia
identyfikacja parametryczna
Opis:
This article investigates identification of aircraft aerodynamic derivatives. The identification is performed on the basis of the parameters stored by Flight Data Recorder. The problem is solved in time domain by Quad-M Method. Aircraft dynamics is described by a parametric model that is defined in Body-Fixed-Coordinate System. Identification of the aerodynamic derivatives is obtained by Maximum Likelihood Estimation. For finding cost function minimum, Lavenberg-Marquardt Algorithm is used. Additional effects due to process noise are included in the state-space representation. The impact of initial values on the solution is discussed. The presented method was implemented in Matlab R2009b environment.
Artykuł zawiera informacje na temat identyfikacji pochodnych aerodynamicznych. Estymacja opiera się o parametry zapisywane przez Pokładowy Rejestrator Lotu. Zagadnienie jest rozważane w dziedzinie czasu przy użyciu podejścia Quad-M. Do opisu dynamiki samolotu wykorzystano model parametryczny zdefiniowany w układzie sztywno związanym z samolotem. Do identyfikacji wykorzystano Metodę Największej Wiarygodności. Do znalezienia minimum funkcji celu użyto algorytm Levenberga-Marquardta. W modelu uwzględniono wpływ dodatkowych czynników reprezentowany przez szum przetwarzania. Omówiono wpływ wartości początkowych na rozwiązanie. Prezentowane wyniki uzyskano w środowisku Matlab R2009b.
Źródło:
Archive of Mechanical Engineering; 2013, LX, 2; 219-230
0004-0738
Pojawia się w:
Archive of Mechanical Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Spatial and temporal aspects of prior and likelihood data choices for Bayesian models in road traffic safety analyses
Przestrzenny i czasowy aspekt wyboru rozkładów apriorycznych i danych dla funkcji wiarygodności dla modeli bayesowskich w analizach bezpieczeństwa ruchu drogowego
Autorzy:
Nowakowska, M.
Powiązania:
https://bibliotekanauki.pl/articles/1365610.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
Bayesian regression model
informative prior distributions for model parameters
likelihood data
statistical classifier
road accident severity
road accident features
model regresji bayesowskiej
informatywne rozkłady aprioryczne parametrów modelu
wiarygodność bayesowska
klasyfikator statystyczny
status wypadku drogowego
cechy wypadku drogowego
Opis:
In a Bayesian regression model, parameters are not constants, but random variables described by some posterior distributions. In order to define such a distribution, two pieces of information are combined: (1) a prior distribution that represents previous knowledge about a model parameter and (2) a likelihood function that updates prior knowledge. Both elements are analysed in terms of implementing the Bayesian approach in road safety analyses. A Bayesian multiple logistic regression model that classifies road accident severity is investigated. Three groups of input variables have been considered in the model: accident location characteristics, at fault driver’s features and accident attributes. Since road accidents are scattered in space and time, two aspects of information source choices in the Bayesian modelling procedure are proposed and discussed: spatial and temporal ones. In both aspects, priors are based on selected data that generate background knowledge about model parameters – thus, prior knowledge has an informative property. Bayesian likelihoods which modify priors are data that deliver: (1) information specific to a road – in the spatial aspect or (2) the latest information – in the temporal aspect. The research experiments were conducted to illustrate the approach and some conclusions have been drawn.
Parametry bayesowskiego modelu regresji nie są wartościami stałymi tylko zmiennymi losowymi opisanymi przez pewne rozkłady aposterioryczne. W celu zdefiniowania takiego rozkładu łączy się dwa źródła informacji: (1) rozkład aprioryczny, który reprezentuje wcześniejszą wiedzę o parametrze modelu oraz (2) funkcję wiarygodności (wiarygodność bayesowską), która uaktualnia wiedzę a’priori. Oba te elementy są przedmiotem badań w kontekście wykorzystania podejścia bayesowskiego w analizach bezpieczeństwa ruchu drogowego. Badaniom podlega model wielokrotnej regresji logistycznej, który klasyfikuje status zdarzenia drogowego. W modelu uwzględniono trzy grupy zmiennych objaśniających: charakterystyki miejsca lokalizacji wypadku, cechy kierującego sprawcy oraz atrybuty wypadku. Ponieważ wypadki drogowe są rozproszone w czasie i przestrzeni, zaproponowano i poddano dyskusji dwa aspekty wyboru źródeł informacji w procedurze modelowania bayesowskiego: czasowy i przestrzenny. W obu podejściach rozkłady aprioryczne są definiowane na podstawie danych wybranych jako te, które generują uogólnioną wiedzę o parametrach modelu, tworząc tło podlegające modyfikacji – w ten sposób wiedza aprioryczna ma cechę informatywności. Wiarygodność bayesowska, modyfikująca rozkłady a’priori, jest definiowana za pomocą danych wprowadzających: (1) informację specyficzną dla wybranej drogi – w przypadku aspektu przestrzennego lub (2) informację najnowszą – w przypadku aspektu czasowego. Zaproponowane podejście zilustrowano w eksperymentach badawczych i przedstawiono wynikające z nich wnioski.
Źródło:
Eksploatacja i Niezawodność; 2017, 19, 1; 68-75
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Tests for profile analysis based on two-step monotone missing data
Autorzy:
Onozawa, Mizuki
Takahashi, Sho
Seo, Takashi
Powiązania:
https://bibliotekanauki.pl/articles/729840.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
Hotelling's T²-type statistic
likelihood ratio
profile analysis
two-step monotone missing data
Opis:
In this paper, we consider profile analysis for the observations with two-step monotone missing data. There exist three interesting hypotheses - the parallelism hypothesis, level hypothesis, and flatness hypothesis - when comparing the profiles of some groups. The T²-type statistics and their asymptotic null distributions for the three hypotheses are given for two-sample profile analysis. We propose the approximate upper percentiles of these test statistics. When the data do not have missing observations, the test statistics perform lower than the usual test statistics, for example, as in [8]. Further, we consider a parallel profile model for several groups when the data have two-step monotone missing observations. Under the assumption of non-missing data, the likelihood ratio test procedure is derived by [16]. We derive the test statistic based on the likelihood ratio. Finally, in order to investigate the accuracy for the null distributions of the proposed statistics, we perform a Monte Carlo simulation for some selected parameters values.
Źródło:
Discussiones Mathematicae Probability and Statistics; 2013, 33, 1-2; 171-190
1509-9423
Pojawia się w:
Discussiones Mathematicae Probability and Statistics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Methods for combining probability and nonprobability samples under unknown overlaps
Autorzy:
Savitsky, Terrance D.
Williams, Matthew R.
Gershunskaya, Julie
Beresovsky, Vladislav
Powiązania:
https://bibliotekanauki.pl/articles/31342142.pdf
Data publikacji:
2023-12-07
Wydawca:
Główny Urząd Statystyczny
Tematy:
Survey sampling
Nonprobability sampling
Data combining
Inclusion probabilities
Exact sample likelihood
Bayesian hierarchical modeling
Opis:
Nonprobability (convenience) samples are increasingly sought to reduce the estimation variance for one or more population variables of interest that are estimated using a randomized survey (reference) sample by increasing the effective sample size. Estimation of a population quantity derived from a convenience sample will typically result in bias since the distribution of variables of interest in the convenience sample is different from the population distribution. A recent set of approaches estimates inclusion probabilities for convenience sample units by specifying reference sample-weighted pseudo likelihoods. This paper introduces a novel approach that derives the propensity score for the observed sample as a function of inclusion probabilities for the reference and convenience samples as our main result. Our approach allows specification of a likelihood directly for the observed sample as opposed to the approximate or pseudo likelihood. We construct a Bayesian hierarchical formulation that simultaneously estimates sample propensity scores and the convenience sample inclusion probabilities. We use a Monte Carlo simulation study to compare our likelihood based results with the pseudo likelihood based approaches considered in the literature.
Źródło:
Statistics in Transition new series; 2023, 24, 5; 1-34
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On Parameter Estimation of Some Longitudinal Model
O estymacji parametrów pewnego modelu dla danych wielookresowych
Autorzy:
Żądło, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/905660.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
longitudinal data
restricted maximum likelihood
MSE
Opis:
The problem of modeling longitudinal profiles is considered assuming that the population and elements’ affiliation to subpopulations may change in time. Some longitudinal model which is a special case of the general linear model (GLM) and the general linear mixed model (GLMM) is studied. In the model two random components are included under assumptions of simultaneous spatial autoregressive process (SAR) and temporal first-order autoregressive process (AR(1)) respectively. The accuracy of model parameters’ restricted maximum likelihood estimators is considered in the simulation.
Rozważany jest problem modelowania profili wielookresowych zakładając, że populacja i przynależność elementów domen mogą zmieniać się w czasie. Proponowany model jest przypadkiem szczególnym ogólnego modelu liniowego i ogólnego mieszanego modelu liniowego. W modelu tym uwzględniono dwa wektory składników losowych spełniające odpowiednio założenia przestrzennego modelu autoregresyjnego i modelu autoregresyjnego rzędu pierwszego w czasie. W symulacji rozważano dokładność estymatorów parametrów modelu uzyskanych metodą największej wiarygodności z ograniczeniami.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2013, 285
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-14 z 14

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies