Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "prediction problems" wg kryterium: Wszystkie pola


Tytuł:
On reduction of two-parameter prediction problems
Autorzy:
Friedrich, J.
Klotz, L.
Riedel, M.
Powiązania:
https://bibliotekanauki.pl/articles/1289302.pdf
Data publikacji:
1995
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Opis:
We present a general method for the extension of results about linear prediction for q-variate weakly stationary processes on a separable locally compact abelian group $G_2$ (whose dual is a Polish space) with known values of the processes on a separable subset $S_2 ⊆ G_2$ to results for weakly stationary processes on $G_1 × G_2$ with observed values on $G_1 × S_2$. In particular, the method is applied to obtain new proofs of some well-known results of Ze Pei Jiang.
Źródło:
Studia Mathematica; 1995, 114, 2; 147-158
0039-3223
Pojawia się w:
Studia Mathematica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modelowanie neuronowe w rozwiązywaniu wybranych problemów predykcyjnych inżynierii rolniczej
Neural modeling in solving some prediction problems of agricultural engineering
Autorzy:
Boniecki, P.
Niżewski, P.
Powiązania:
https://bibliotekanauki.pl/articles/334441.pdf
Data publikacji:
2010
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Maszyn Rolniczych
Tematy:
modelowanie neuronowe
inżynieria rolnicza
neural modeling
agricultural engineering
Opis:
Proces prognozowania ma praktyczne zastosowanie w szerokim zakresie działalności ludzkiej, w tym również w rolnictwie. Jakość takich prognoz ma istotne znaczenie dla kolejnych etapów występujących w łańcuchu produkcyjno-dystrybucyjnym płodów rolnych. Celem pracy było wytworzenie neuronowego systemu informatycznego, pozwalającego na dokonanie prognozy wielkości plonu oraz zawartość skrobi w bulwach ziemniaków, na podstawie wybranych czynników agrotechnicznych.
Forecasting process has practical applications in a wide range of human activity, including agriculture. The quality of such predictions is important for subsequent phases occurring in the chain of production and distribution of agricultural products. The purpose of this work, was to design, to do, and to test the informational system, which is based in technology of the artificial network of neurons, which allows to predict the size of the crops, and the contents of the starch in the potatos bulb on the basis of the chosen agro-technical factors.
Źródło:
Journal of Research and Applications in Agricultural Engineering; 2010, 55, 1; 16-19
1642-686X
2719-423X
Pojawia się w:
Journal of Research and Applications in Agricultural Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Process of market strategy optimization using distributed computing systems
Autorzy:
Nowicki, W.
Bera, A.
Błaszyński, P.
Powiązania:
https://bibliotekanauki.pl/articles/407280.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
economic systems
financial system
moving average models
optimization problems
performance analysis
prediction methods
prediction problems
project management
work organization
Opis:
If market repeatability is assumed, it is possible with some real probability to deduct short term market changes by making some calculations. The algorithm, based on logical and statistically reasonable scheme to make decisions about opening or closing position on a market, is called an automated strategy. Due to market volatility, all parameters are changing from time to time, so there is need to constantly optimize them. This article describes a team organization process when researching market strategies. Individual team members are merged into small groups, according to their responsibilities. The team members perform data processing tasks through a cascade organization, providing solutions to speed up work related to the use of remote computing resources. They also work out how to store results in a suitable way, according to the type of task, and facilitate the publication of a large amount of results.
Źródło:
Management and Production Engineering Review; 2015, 6, 4; 87-93
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on general theory and methodology in geodesy in Poland in 2019–2022
Autorzy:
Klos, Anna
Ligas, Marcin
Trojanowicz, Marek
Powiązania:
https://bibliotekanauki.pl/articles/43852778.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
estymacja odporna
geodezyjne szeregi czasowe
układ odniesienia
robust estimation
relativistic effects
prediction problems
datum transformation
geodetic time series
Opis:
We present a summary of research carried out in 2019–2022 in Poland in the area of general theory and methodology in geodesy. The study contains a description of original contributions by authors affiliated with Polish scientific institutions. It forms part of the national report presented at the 28th General Assembly of the International Union of Geodesy and Geophysics (IUGG) taking place on 11-20 July 2023 in Berlin, Germany. The Polish authors developed their research in the following thematic areas: robust estimation and its applications, prediction problems, cartographic projections, datum transformation problems and geometric geodesy algorithms, optimization and design of geodetic networks, geodetic time series analysis, relativistic effects in GNSS (Global Navigation Satellite System) and precise orbit determination of GNSS satellites. Much has been done on the subject of estimating the reliability of existing algorithms, but also improving them or studying relativistic effects. These studies are a continuation of work carried out over the years, but also they point to new developments in both surveying and geodesy.We hope that the general theory and methodology will continue to be so enthusiastically developed by Polish authors because although it is not an official pillar of geodesy, it is widely applicable to all three pillars of geodesy.
Źródło:
Advances in Geodesy and Geoinformation; 2023, 72, 1; art. no. e40, 2023
2720-7242
Pojawia się w:
Advances in Geodesy and Geoinformation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The influence of highly modified asphalt binder on pavement fatigue life prediction - selected problems
Wpływ asfaltu wysokomodyfikowanego na prognozę trwałości zmęczeniowej nawierzchni drogowej - wybrane zagadnienia
Autorzy:
Błażejowski, Krzysztof
Złotowska, Małgorzata
Nagórski, Roman
Tutka, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/2036436.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Opis:
The introduction of new road pavement materials causes the need to verify whether the existing pavement design methods enable correct incorporation of their properties. In the case of asphalt pavements, the origins of contemporary methods may be traced back to the mid-20th century, when solely unmodified binders were used. The introduction of highly SBS-modified binders in 2009 significantly changed the behaviour of the asphalt mixtures and the entire pavement structure. Asphalt courses are now characterised by very high flexibility, elasticity and fatigue resistance, with simultaneous high resistance to rutting. The aim of the article is to present the effect of the use of asphalt mixtures with HiMA (Highly Modified Asphalt) binders in different variants of flexible pavement structures - including one, two or three courses containing HiMA. Fatigue life calculations were performed using the “Similarity Method”, which enables estimation of the fatigue life of the structure based on its relationship with the results of laboratory fatigue tests. The layer system with HiMA in the asphalt base course proved the most advantageous, combining excellent fatigue properties of the mixture containing HiMA with greater stiffness of the wearing and binder courses containing classic binders. The other aspect taken into account in the calculations was the effect of changing the mixture in the asphalt base course from AC 22 to AC 16. This change proved advantageous in all the analysed structures. The deflections and critical strains decreased, while pavement life, determined by fatigue and permanent deformation criteria, increased.
Wprowadzenie do stosowania nowych materiałów do budowy nawierzchni drogowych pociąga za sobą konieczność weryfikacji, czy istniejące metody projektowania konstrukcji nawierzchni w prawidłowy sposób adaptują ich właściwości i czy w konsekwencji uzyskany wynik można uznać za prawidłowy. W przypadku nawierzchni asfaltowych, współcześnie stosowane metody projektowania sięgają swoimi korzeniami połowy XX wieku, a więc czasów, gdy stosowano wyłącznie lepiszcza asfaltowe bez dodatku modyfikatorów. Wprowadzenie w latach 80 XX wieku bitumów modyfikowanych polimerami zmieniło w pewnym zakresie zachowanie nawierzchni, głównie jednak pod względem ulepszeń funkcjonalnych. Pojawienie się w 2009 r. lepiszczy wysokomodyfikowanych SBS, o odwróconej fazie polimer-bitum, gdzie lepiszcze przejęło dużą część cech polimeru zmieniło bardzo wiele w zachowaniu mieszanek asfaltowych i w konsekwencji całej struktury. Warstwy asfaltowe stały się niezwykle podatne, sprężyste, wytrzymałe zmęczeniowo, z jednoczesną dużą odpornością na koleinowanie. Niesie to za sobą wiele konsekwencji dla pracy układu warstw, w tym na sposób powstawania odkształceń krytycznych. Celem artykułu jest przedstawienie efektów zastosowania mieszanek asfaltowych z asfaltami wysokomodyfikowanymi typu HiMA (Highly Modified Asphalt) w różnych wariantach nawierzchni podatnych - z jedną, dwiema i trzema warstwami HiMA (full-HiMA). Do obliczeń trwałości zmęczeniowej wykorzystano autorską “metodę podobieństw”, która pozwala oszacować trwałości na podstawie relacji z wynikami zmęczenia uzyskanymi w laboratorium. Trwałość ze względu na deformacje strukturalnie obliczono klasycznie, wg równania Instytutu Asfaltowego. Wyniki wskazują, że wszystkie warianty z warstwami z HiMA prezentują z punktu widzenia trwałości zmęczeniowej lepsze wyniki niż wariant referencyjny z lepiszczami klasycznymi. Najkorzystniejszy okazał się układ z warstwą HiMA w ostatniej dolnej warstwie asfaltowej, łączący świetne właściwości zmęczeniowe mieszanki asfaltowej z HiMA, z wykorzystaniem większej sztywności warstwy wiążącej i ścieralnej z klasycznymi lepiszczami. Im więcej warstw z asfaltami wysokomodyfikowanymi HiMA, tym mniejsza trwałość, zarówno pod względem zmęczeniowym, jak i deformacji strukturalnych. Przyczyną takiego wyniku jest znacząco mniejsza sztywność warstw asfaltowych z HiMA (o około 30%) co przekłada się na wzrost ugięcia nawierzchni i odkształceń krytycznych. Dodatkowo, wyraźnie kształtuje się zależność, że im większa liczba warstw asfaltowych z HiMA - o mniejszej sztywności, tym większe znaczenie będzie miała trwałość ze względu na deformacje strukturalne a mniejsze trwałość zmęczeniowa. Niemniej jednak, stosowanie mieszanek asfaltowych z HiMA w więcej niż jednej warstwie ma swoje uzasadnienie w cechach funkcjonalnych, takich jak odporność na spękania niskotemperaturowe, odbite, koleinowanie itd., dzięki czemu nawierzchnia charakteryzuje się nie tylko dużą trwałością strukturalną, ale i użytkową. Ostatnim aspektem obliczeń było sprawdzenie efektu zamiany rodzaju mieszanki asfaltowej w podbudowie, z AC 22 na AC 16. Zamiana ta okazała się korzystna dla wszystkich analizowanych konstrukcji. Zmniejszyły się ugięcia oraz odkształcenia krytyczne, a zwiększyły się trwałości obliczeniowe zarówno ze względu na spekania zmęczeniowe, jak i na deformacje strukturalne.
Źródło:
Archives of Civil Engineering; 2021, 67, 4; 605-624
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On Some Problems of Prediction of Domain Total in Longitudinal Surveys when Auxiliary Information is Available
Autorzy:
Żądło, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/591972.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Estymatory
Metoda Monte Carlo
Statystyka małych obszarów
Symulacja Monte Carlo
Estimators
Monte Carlo method
Monte Carlo simulation
Small area estimates
Opis:
W artykule wyprowadzono postacie najlepszych liniowych nieobciążonych predyktorów przy założeniu pewnych modeli będących uogólnieniami na przypadek danych przekrojowo-czasowych modeli znanych z literatury statystyki małych obszarów. Ponadto wyprowadzono postacie błędów średniokwadratowych empirycznych wersji tych predyktorów oraz zaproponowano ich estymatory. W symulacji Monte Carlo porównywano dokładność zaproponowanego predyktora z dwoma ogólnymi estymatorami regresyjnymi po planie losowania i po modelu nadpopulacji (także w różnych przypadkach złej specyfikacji modelu). Ponadto analizowano obciążenia zaproponowanych estymatorów błędu średniokwadratowego.
Źródło:
Studia Ekonomiczne; 2013, 133; 86-106
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data mining workspace as an optimization prediction technique for solving transport problems
Решение задачи прогнозирования в транспортной отрасли с помощью методов data mining
Autorzy:
Kuptcova, A.
Průša, P.
Federko, G.
Molnár, V.
Powiązania:
https://bibliotekanauki.pl/articles/375552.pdf
Data publikacji:
2016
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
time series prediction
data mining
neural network
modelling
predykcja szeregów czasowych
eksploracja danych
sieć neuronowa
modelowanie
Opis:
This article addresses the study related to forecasting with an actual high-speed decision making under careful modelling of time series data. The study uses data-mining modelling for algorithmic optimization of transport goals. Our finding brings to the future adequate techniques for the fitting of a prediction model. This model is going to be used for analyses of the future transaction costs in the frontiers of the Czech Republic. Time series prediction methods for the performance of prediction models in the package of Statistics are Exponential, ARIMA and Neural Network approaches. The primary target for a predictive scenario in the data mining workspace is to provide modelling data faster and with more versatility than the other management techniques.
В данной статье рассматривается задача прогнозирования временных рядов, которая заключается в построении модели для предсказания будущих событий. В исследовании используются методы интеллектуального анализа данных. Модель прогнозирования позволяет адекватно оценивать исследуемый процесс. Целью исследования является изучение динамики расходов при реализации экспортной продукции. Прогнозирование осуществляется с помощью ARIMA-модели, на основе метода экспоненциального сглаживания и по технологии логической нейронной сети. Построение базового и быстрого сценария прогнозирования является важным и ответственным этапом в научной деятельности.
Źródło:
Transport Problems; 2016, 11, 3; 21-31
1896-0596
2300-861X
Pojawia się w:
Transport Problems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problems with the classification and prediction of extreme weather phenomena
Autorzy:
Warakomski, W.
Powiązania:
https://bibliotekanauki.pl/articles/25927.pdf
Data publikacji:
1998
Wydawca:
Polska Akademia Nauk. Instytut Agrofizyki PAN
Tematy:
classification
prediction
weather phenomenon
extreme weather phenomenon
Źródło:
International Agrophysics; 1998, 12, 4
0236-8722
Pojawia się w:
International Agrophysics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Satistical problems of point processes
Autorzy:
Krickeberg, K.
Powiązania:
https://bibliotekanauki.pl/articles/748503.pdf
Data publikacji:
1978
Wydawca:
Polskie Towarzystwo Matematyczne
Tematy:
Non-Markovian processes: hypothesis testing, Filtering, Prediction
Opis:
Wykłady niniejsze wygłoszone były we wrześniu 1976 r. w Międzynarodowym Centrum Matematycznym im. Stefana Banacha w Warszawie, w ramach Semestru ze Statystyki Matematycznej.
This is a set of lectures delivered at the International Mathematical Centre, Warsaw, in 1976. The text contains three sections. Section 1 is devoted to basic notions. In the second section inference from a family of Poisson processes is considered. The last section deals with the problems of filtering of Cox processes (doubly stochastic processes).
Źródło:
Mathematica Applicanda; 1978, 6, 13
1730-2668
2299-4009
Pojawia się w:
Mathematica Applicanda
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Assessment of the fatigue life of machine components under service loading – a review of selected problems
Autorzy:
Będkowski, W.
Powiązania:
https://bibliotekanauki.pl/articles/279894.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Mechaniki Teoretycznej i Stosowanej
Tematy:
fatigue life prediction
multiaxial fatigue
service loading
Opis:
Based on a literature review, the author provides a historical outline of the fatigue analysis and describes the current trends aiming at comprehension of the fatigue life of engineering structures under service loading. Next, an algorithm for multiaxial fatigue life prediction is identified, describing steps of calculation. Classification criteria of fatigue failure and components of the stress state in multiaxial loading conditions are also presented, recognising the importance of the so-called Standarised Load Histories (SLH) used in the comparative analysis of fatigue life of finished products.
Źródło:
Journal of Theoretical and Applied Mechanics; 2014, 52, 2; 443-458
1429-2955
Pojawia się w:
Journal of Theoretical and Applied Mechanics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Decision-Making/Simulation Games in the Social Sciences – Selected Problems
Gry decyzyjne/symulacyjne w naukach społecznych – wybrane problemy
Autorzy:
Donaj, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/26850725.pdf
Data publikacji:
2013
Wydawca:
Akademia Zamojska
Tematy:
prediction
simulation
simulation game
POZiMUN
przewidywanie
symulacja
gra symulacyjna
Opis:
The subject matter of the publication is presenting selected forecasting problems in the social sciences. The article focuses on the method of decision-making/simulation games that, especially with the development of game theory and computers, have increasingly been used in many fields. Using examples of decision/simulation games, in particular Poznań International Model United Nations 2013/POZiMUN, the author recognises the importance of such exercises in an accurate prediction of the future.
Treścią publikacji jest przedstawienie wybranych problemów prognozowania w naukach społecznych. W artykule skoncentrowano się na metodzie gier decyzyjnych/symulacyjnych, które – zwłaszcza wraz z rozwojem teorii gier oraz komputerów – są coraz częściej wykorzystywane w wielu dziedzinach. Na wybranych przykładach gier decyzyjnych/symulacyjnych – przede wszystkim na przykładzie Poznań International Model United Nations 2013/POZiMUN – wskazano jak ważne są takie ćwiczenia, by móc precyzyjniej przewidywać przyszłość.
Źródło:
Facta Simonidis; 2013, 6, 1; 73-91
1899-3109
Pojawia się w:
Facta Simonidis
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dimensionality Reduction for Probabilistic Neural Network in Medical Data Classification Problems
Autorzy:
Kusy, M.
Powiązania:
https://bibliotekanauki.pl/articles/226697.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
probabilistic neural network
dimensionality reduction
feature selection
feature extraction
single decision tree
random forest
principal component analysis
prediction ability
Opis:
This article presents the study regarding the problem of dimensionality reduction in training data sets used for classification tasks performed by the probabilistic neural network (PNN). Two methods for this purpose are proposed. The first solution is based on the feature selection approach where a single decision tree and a random forest algorithm are adopted to select data features. The second solution relies on applying the feature extraction procedure which utilizes the principal component analysis algorithm. Depending on the form of the smoothing parameter, different types of PNN models are explored. The prediction ability of PNNs trained on original and reduced data sets is determined with the use of a 10-fold cross validation procedure.
Źródło:
International Journal of Electronics and Telecommunications; 2015, 61, 3; 289-300
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A novel test case prioritization method based on problems of numerical software code statement defect prediction
Nowatorska metoda priorytetyzacji przypadków testowych oparta na prognozowaniu błędów instrukcji kodu oprogramowania numerycznego
Autorzy:
Shao, Yuanxun
Liu, Bin
Wang, Shihai
Xiao, Peng
Powiązania:
https://bibliotekanauki.pl/articles/1841862.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
software defect prediction
test case prioritization
code statement metrics
machine learning
software testing
przewidywanie błędów oprogramowania
priorytetyzacja przypadków testowych
metryki instrukcji kodu
uczenie maszynowe
testowanie oprogramowania
Opis:
Test case prioritization (TCP) has been considerably utilized to arrange the implementation order of test cases, which contributes to improve the efficiency and resource allocation of software regression testing. Traditional coverage-based TCP techniques, such as statement-level, method/function-level and class-level, only leverages program code coverage to prioritize test cases without considering the probable distribution of defects. However, software defect data tends to be imbalanced following Pareto principle. Instinctively, the more vulnerable the code covered by the test case is, the higher the priority it is. Besides, statement-level coverage is a more fine-grained method than function-level coverage or class-level coverage, which can more accurately formulate test strategies. Therefore, we present a test case prioritization approach based on statement software defect prediction to tame the limitations of current coverage-based techniques in this paper. Statement metrics in the source code are extracted and data pre-processing is implemented to train the defect predictor. And then the defect detection rate of test cases is calculated by combining the prioritization strategy and prediction results. Finally, the prioritization performance is evaluated in terms of average percentage faults detected in four open source datasets. We comprehensively compare the performance of the proposed method under different prioritization strategies and predictors. The experimental results show it is a promising technique to improve the prevailing coverage-based TCP methods by incorporating statement-level defect-proneness. Moreover, it is also concluded that the performance of the additional strategy is better than that of max and total, and the choice of the defect predictor affects the efficiency of the strategy.
Metodę priorytetyzacji przypadków testowych (TCP) wykorzystuje się powszechnie do ustalania kolejności implementacji przypadków testowych, co przyczynia się do poprawy wydajności i alokacji zasobów w trakcie testowania regresyjnego oprogramowania. Tradycyjne techniki TCP oparte na pokryciu na poziomie instrukcji, metody/funkcji oraz klasy, wykorzystują pokrycie kodu programu tylko w celu ustalenia priorytetów przypadków testowych, bez uwzględnienia prawdopodobnego rozkładu błędów. Jednak dane o błędach oprogramowania są zwykle niezrównoważone zgodnie z zasadą Pareto. Instynktownie, im bardziej wrażliwy jest kod pokryty przypadkiem testowym, tym wyższy jest jego priorytet. Poza tym, pokrycie na poziomie instrukcji jest bardziej szczegółową metodą niż pokrycie na poziomie funkcji lub pokrycie na poziomie klasy, które mogą dokładniej formułować strategie testowe. Dlatego w artykule przedstawiamy podejście do priorytetyzacji przypadków testowych oparte na prognozowaniu błędów instrukcji oprogramowania, które pozwala zmniejszyć ograniczenia obecnych technik opartych na pokryciu. Wyodrębniono metryki instrukcji w kodzie źródłowym i zaimplementowano wstępne przetwarzanie danych w celu nauczania predyktora błędów. Następnie obliczono wskaźnik wykrywania błędów w przypadkach testowych poprzez połączenie strategii priorytetyzacji i wyników prognozowania. Wreszcie, oceniono wydajność ustalania priorytetów pod względem średnich procentowych błędów wykrytych w czterech zestawach danych typu open source. Kompleksowo porównano wydajność proponowanej metody w ramach różnych strategii ustalania priorytetów i predyktorów. Wyniki eksperymentów pokazują, że jest to obiecująca technika poprawy dominujących metod TCP opartych na pokryciu poprzez włączenie podatności na błędy na poziomie instrukcji. Ponadto stwierdzono również, że strategia dodatkowa cechuje się lepszą wydajnością niż strategie max i total, a wybór predyktora błędów wpływa na skuteczność strategii.
Źródło:
Eksploatacja i Niezawodność; 2020, 22, 3; 419-431
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies