Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "analiza w czasie rzeczywistym" wg kryterium: Temat


Wyświetlanie 1-10 z 10
Tytuł:
Potencjał oraz zastosowanie komputerowej analizy i przetwarzania obrazu w przemyśle rolno-spożywczym
The potential and use of computer analysis and image processing in the agricultural and food industry
Autorzy:
Guzek, D.
Głąbska, D.
Wierzbicka, A.
Powiązania:
https://bibliotekanauki.pl/articles/289401.pdf
Data publikacji:
2011
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
komputerowa analiza obrazu
pomiar w czasie rzeczywistym
jakość
informacja zwrotna
konsument
computer image analysis
measurement in real time
quality
feedback information
consumer
Opis:
Celem pracy było określenie potencjału oraz możliwości zastosowania komputerowej analizy i przetwarzania obrazu w przemyśle rolno-spożywczym w Polsce, ze szczególnym uwzględnieniem sektora mięsnego. Zakres pracy obejmował analizę dostępnych danych literaturowych dotyczących zastosowania komputerowej analizy obrazu w przemyśle rolno-spożywczym. Zaprezentowano możliwości zdefiniowania parametrów produktów rolno-spożywczych w celu określenia ich jakości przy zastosowaniu instrumentalnego, szybkiego i pozwalającego na uzyskiwanie powtarzalnych wyników metod wizyjnych.
The purpose of the presented article was to determine the potential and possibilities for employing computer analysis and image processing in the agricultural and food industry in Poland, with particular consideration of meat production sector. The scope of works included analysis of available data from the literature concerning the use of computer image analysis in the agricultural and food industry. It presents possibilities for defining parameters of the agricultural and food products in order to determine their quality using visual methods that would be instrumental, quick and allow to obtain repeatable results.
Źródło:
Inżynieria Rolnicza; 2011, R. 15, nr 4, 4; 67-73
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mechatronic approach towards flight flutter testing
Mechatroniczne podejście do badania marginesu flatteru samolotów
Autorzy:
Karpiel, G.
Petko, M.
Uhl, T.
Powiązania:
https://bibliotekanauki.pl/articles/328808.pdf
Data publikacji:
2007
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
flatter
analiza modalna w czasie rzeczywistym
FPGA
flutter
real-time modal analysis
Opis:
The paper presents an idea of identification of the flutter phenomena during a flight. The proposed flutter detection algorithm is based on the identification of natural frequencies and modal damping ratio for an airplane structure based on in-flight vibration measurements. The procedure can be realized during a flight using measured actual vibration. The algorithm is based on recursive identification of model parameters and wavelets based signal filtering. The real-time realization is implemented in hardware and tested during a flight. FPGA technology is used for the hardware design. The results of a test of the hardware system prototype are presented.
W artykule przedstawiono implementację algorytmu identyfikacji flatteru podczas lotu. Przedstawiony algorytm bazuje na identyfikacji częstotliwości własnych oraz współczynnika tłumienia poprzez pomiar drgań struktury samolotu. Zaprezentowana procedura może być realizowana podczas lotu wykorzystując dostępne sygnały z czujników drgań. Algorytm wykorzystuje transformatę falkową jako filtr częstotliwościowo-czasowy dla izolacji pojedynczych postaci drgań o parametrach zmiennych w czasie. Realizację w czasie rzeczywistym wykonaną w postaci sprzętowej sprawdzono podczas testowego lotu. Do zaprojektowania struktury sprzętowej użyto technologii FPGA. Przedstawiono rezultat działania prototypowego urządzenia.
Źródło:
Diagnostyka; 2007, 4(44); 99-104
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Real-time Segmentation of Yarn Images Based on an FCM Algorithm and Intensity Gradient Analysis
Segmentacja obrazu przędzy oparta na algorytmie FCM i analizie gradientu intensywności
Autorzy:
Li, Z.
Pan, R.
Wang, J.
Wang, Z.
Li, B.
Gao, W.
Powiązania:
https://bibliotekanauki.pl/articles/233569.pdf
Data publikacji:
2016
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Biopolimerów i Włókien Chemicznych
Tematy:
real-time segmentation
image processing
yarn evenness
FCM algorithm
gradient analysis
segmentacja w czasie rzeczywistym
przetwarzanie obrazu
algorytm FCM
analiza gradientu
Opis:
This paper presents a new method for real-time segmentation of yarn images which are captured by a real-time image acquisition device. The first frame of the images is clustered by the local average intensity and entropy of the image based on the FCM (Fuzzy C-means) algorithm to obtain a segmentation threshold value. The pixels with an intensity below the threshold value in each column of the image are convolved with a convolve template to construct an intensity gradient curve. The points of maximum value and minimum value in the curve are considered as the upper and lower edge points of yarn. A robust real-time segmentation algorithm of yarn images is obtained for evaluating yarn diameter more precisely. Finally two indices of SE (Segmentation Error) in % and ADE (Average Diameter Error) in % are proposed to evaluate the segmentation method, which is then compared with the manual method.
Artykuł dotyczy oceny przeprowadzonej w czasie rzeczywistym segmentacji obrazów w oparciu o rozmyty algorytm C-średnich i analizę intensywności gradientu. Zaproponowano metodę segmentacji obrazów przędzy mającą na celu zwiększenie dokładności pomiarów jej średnicy, a w zamierzeniach wpłynięcie na zwiększenie dokładności oceny jej nierównomierności. W tym celu zaprojektowano stanowisko badawcze, umożliwiające rejestrację obrazów przędzy wykonaną w czasie rzeczywistym, z bardzo dużą częstotliwością rejestracji kadrów zdjęć. Na tej podstawie przeprowadzono obliczenia obejmujące między innymi minimalizację rozmytej funkcji celu, lokalną charakterystykę intensywności obrazu, a także jednowymiarowy splot wykorzystane do wykrywania krawędzi rozpatrywanej przędzy. Uzyskane rezultaty proponowanej metody skonfrontowano z rezultatami przewidywanymi za pośrednictwem tradycyjnych metod. W szczególności w celach porównawczych uwzględniono progowanie Otsu i grupowanie za pośrednictwem algorytmu FCM, a także Region Growing Algorithm.
Źródło:
Fibres & Textiles in Eastern Europe; 2016, 4 (118); 45-50
1230-3666
2300-7354
Pojawia się w:
Fibres & Textiles in Eastern Europe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using Big Data in Innovation Research
Używanie Big Data w badaniach nad innowacjami
Autorzy:
Nawojczyk, Maria
Królewski, Jarosław
Powiązania:
https://bibliotekanauki.pl/articles/577410.pdf
Data publikacji:
2016-09
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
Big Data
social sciences computing
analysis in real time
social innovation
social change
model to study innovations
Mixed-Methods Research
informatyka społeczna
analiza w czasie rzeczywistym
innowacje społeczne
zmiana społeczna
model badania innowacji
łączone metody badawcze
Opis:
One of the major contemporary trends revolutionizing social-sciences computing is, inter alia, the so-called Big Data effect, meaning fast and multidimensional analyses of large volumes of data. Technologies related to Big Data (Volume, Velocity, Variety) have considerable impact on the tools of contemporary sociologists, providing them with immense data resources in real time. Big Data is a term encompassing all data, the analysis of which may bring quantifi able benefi ts, not only in terms of business but also in science and research. Modern technologies change and greatly impact the methodology of research conducted, giving rise to numerous questions and doubts both strictly methodological and ethical in nature. One of the main challenges related to Big Data is the possibility of using large data agglomerates as early as at the stage of conceptualizing and operationalizing the subject of social-sciences computing. The possibility of transforming raw data into pieces of information, and then into knowledge, may soon become an indispensable and desirable element applied in social engineering in establishing the practical applications of research and in predicting future social phenomena. The latter could be particularly useful in such an important and sensitive fi eld as innovation research. Two cases of innovation: a social and technological ones are discussed in the paper. Using these two cases we will present a model of analyzing innovations in real time. The proposed model is a new approach to study innovations.
Jednym z głównych, współczesnych trendów przynoszących rewolucyjne zmiany w informatyce społecznej jest efekt Big Data, czyli szybkiej wielowymiarowej analizy wielkich zbiorów danych. Technologie związane z Big Data mają znaczący wpływ na narzędzia badawcze jakimi mogą posługiwać się współcześni socjologowie. Dają im one możliwość dostępu do źródeł danych w czasie rzeczywistym. Big Data to termin odnoszący się do wszystkich danych, których analiza może przynieść policzalne efekty, zarówno w kategoriach ekonomicznych jak i badawczych. Nowe technologie wpływają w znaczącym stopniu na metodologię badań, przynosząc szereg pytań i wątpliwości tak natury metodologicznej jak i etycznej. Jednym z wyzwań związanych z Big Data jest możliwość posługiwania się wielkimi zbiorami danych na wczesnych etapach konceptualizacji i operacjonalizacji problemów i hipotez badawczych. Przekształcanie surowych danych w informacje i wiedzę stanie się nieodłącznym elementem nie tylko inżynierii społecznej ale również praktyki badawczej dającej lepsze możliwości predykcyjne naukom społecznym niż to miało miejsce dotychczas. Te możliwości wydają się szczególnie użyteczne w badaniach nad innowacjami. Przedstawiamy je w szczegółach na dwóch przykładach innowacji – jednej technologicznej i drugiej społecznej. Przykłady te służą nam do zaprezentowania modelu, który stanowi nowe podejście do badania innowacji
Źródło:
Zagadnienia Naukoznawstwa; 2016, 52, 4(210); 431-450
0044-1619
Pojawia się w:
Zagadnienia Naukoznawstwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metody grawimetryczne i optyczne w pomiarach stężenia aerozoli
The use of optic and gravimetric methods relevant in aerosol concentration measurements
Autorzy:
Oberbek, Przemysław
Jakubiak, Szymon
Powiązania:
https://bibliotekanauki.pl/articles/2202808.pdf
Data publikacji:
2021
Wydawca:
Centralny Instytut Ochrony Pracy
Tematy:
analiza grawimetryczna
ocena jakości powietrza
niskokosztowe sensory optyczne
systemy monitorowania zagrożeń
pomiary w czasie rzeczywistym
gravimetric analysis
air quality assessment
low-cost optical sensors
systems for risk monitoring
real-time measurements
Opis:
Zgodnie z danymi GUS o zatrudnionych w warunkach zagrożenia na koniec 2019 r., 2. pod względem częstości występowania czynnikiem szkodliwym były pyły, na które narażonych było 50,4 tys. osób (15,9%). Ocena narażenia na pyły w środowisku pracy polega na wykonaniu grawimetrycznych pomiarów stężeń na stanowiskach pracy dla zidentyfikowanych rodzajów pyłów, określeniu wskaźników narażenia na pyły i porównaniu uzyskanych wartości wskaźników narażenia z wartościami najwyższych dopuszczalnych stężeń pyłów. Wadami metody grawimetrycznej jest m.in. brak informacji o zmianach stężenia w czasie, podatność na dodatkowe źródła emisji, długi czas potrzebny na uzyskanie wyniku. Mierniki stężenia pyłów, przedstawiające dane pomiarowe w czasie rzeczywistym lub zbliżonym do rzeczywistego, znajdują coraz więcej zastosowań. Produkowane są już na dużą skalę niskokosztowe, niewielkie sensory, które można stosować do wytwarzania relatywnie dokładnych mierników środowiskowych, a także stacjonarnych i mobilnych sieci sensorowych. Tego typu urządzenia mogą stanowić istotne wsparcie dla grawimetrycznej oceny stężenia pyłów na stanowiskach pracy.
According to the data of the Statistics Poland on employees exposed to the risks arising from work environment at the end of 2019, the second most frequent harmful factor was dust, to which 50,4 thousand people were exposed (15,9%). The assessment of exposure to dust in the work environment consists in performing gravimetric measurements of concentrations at workstations for the identified dust types, determining the dust exposure indicators and comparing the obtained exposure indicator values with the values of the maximum allowable dust concentrations. The disadvantage of the gravimetric method is the lack of information about changes in concentration over time, susceptibility to additional emission sources, long time needed to obtain the result and the inability to conduct continuous monitoring. Dust concentration meters presenting real time or near to real-time measurement data are finding more and more applications in monitoring of the external environment and working environment Small low-cost sensors are already produced on a large scale, which can be used to produce relatively accurate environmental meters, as well as stationary and mobile sensor networks. Such devices are also not without flaws, but they can provide important support for the gravimetric assessment of dust concentration at workstations.
Źródło:
Bezpieczeństwo Pracy : nauka i praktyka; 2021, 2; 15-19
0137-7043
Pojawia się w:
Bezpieczeństwo Pracy : nauka i praktyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ON-TIME: A Closed-Loop Real-Time Traffic Control Framework in a Realistic Railway Environment
ON-TIME: Struktura kierowania ruchem kolejowym w czasie rzeczywistym oparta na układzie zamkniętym w rzeczywistym środowisku
Autorzy:
Quaglietta, E.
Corman, F.
Goverde, R. M. P.
Powiązania:
https://bibliotekanauki.pl/articles/952276.pdf
Data publikacji:
2015
Wydawca:
Instytut Kolejnictwa
Tematy:
real-time rescheduling
closed-loop model predictive control
stability analysis
quality of dispatching plans
zmiana rozkładu w czasie rzeczywistym
sterowane predykcyjne zamkniętego układu
analiza stabilności
jakość systemu kierowania ruchem
Opis:
A wide literature is available on models and tools for the optimal real-time management of railway traffic, but the knowledge of their effects on real operations is still blurry and very limited due to the scarce implementation of these systems in practice. This paper analyses how these tools perform when interfaced in a closed-loop setup with a realistic traffic environment. A framework is developed that couples the rescheduling tool ROMA with the microscopic simulation model EGTRAIN. Railway traffic is managed for different perturbed scenarios using a rolling horizon scheme where optimal plans are periodically computed based on current traffic information and implemented in the simulation model. The closed-loop setup is investigated for different combinations of its parameters relatively to quality and stability of rescheduling plans. A comparison is performed against a typical open-loop approach that implements only the plan computed on the basis of expected train entrance delays. Both the closed-loop and the open-loop approaches are evaluated against the case in which no rescheduling is considered and trains keep on following the original timetable. Results obtained for the Dutch corridor Utrecht-Den Bosch show that the closed-loop always outperforms the open-loop in terms.
Istnieje wiele dostępnej literatury na temat modeli i narzędzi do optymalnego kierowania ruchem kolejowym w czasie rzeczywistym, ale wiedza na temat ich wpływu na funkcjonowanie jest wciąż nieprecyzyjna i bardzo ograniczona na skutek słabego ich wdrożenia w praktyce. W niniejszej pracy dokonano analizy zachowań opisanych narzędzi przy zastosowaniu ustawień obiegu zamkniętego w realnym środowisku. Opracowano strukturę łączącą narzędzie do zmiany rozkładu jazdy ROMA z mikroskopowym modelem symulacji EGTRAIN. Możliwe jest zarządzanie ruchem kolejowym w sytuacjach różnych zakłóceń ruchu przy użyciu przesuwnego horyzontu, gdzie optymalne plany są wyliczane na podstawie bieżących informacji o ruchu i ładowane do modelu symulacji. Ustawienia obiegu zamkniętego są badane w różnych kombinacjach parametrów w odniesieniu do jakości i stabilności zmienionych rozkładów. Porównanie jest dokonywane względem typowego podejścia z obiegiem otwartym, które wdraża tylko jeden plan, wyliczony na podstawie przewidywanych opóźnień pociągów. Obydwa podejścia są oceniane w porównaniu do przypadku, w którym pociągi poruszają się zgodnie z oryginalnym rozkładem. Rezultaty uzyskane w holenderskim korytarzu Utrecht – Den Bosch wykazały, że zamknięty obieg zawsze sprawdza się lepiej niż obieg otwarty.
Źródło:
Problemy Kolejnictwa; 2015, 168; 39-45
0552-2145
2544-9451
Pojawia się w:
Problemy Kolejnictwa
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of industrial PROFINET in the task of controlling a dynamic system
Analiza pracy przemysłowej sieci PROFINET w zadaniu sterowania układem dynamicznym
Autorzy:
Rosół, M.
Knapik, D.
Marchewka, D.
Kołek, K.
Turnau, A.
Powiązania:
https://bibliotekanauki.pl/articles/282176.pdf
Data publikacji:
2013
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
PROFINET network
real-time control
jitter analysis
sieć PROFINET
sterowanie w czasie rzeczywistym
analiza jitteringu
Opis:
This paper analyses the behaviour of industrial network PROFINET for time determinism during the transfer of controls and measurements in real time. The subject of interest is the performance of the network control system. An experimentation platform is described. An analysis of jitter in sampling period is provided. Test results demonstrating advantages of communication using PROFINET standard are presented.
W pracy analizowano zachowanie się przemysłowej sieci PROFINET pod kątem determinizmu czasowego przy przesyłaniu sterowań i pomiarów w czasie rzeczywistym. Przedmiotem zainteresowania jest wydajność sieciowego systemu sterowania. Zostało opisane użyte środowisko testowe. Zamieszono analizę odchyłek czasowych (jitter) w cyklicznej wymianie danych. Przedstawione zostały wyniki eksperymentów obrazujące zalety wykorzystania standardu PROFINET.
Źródło:
Automatyka / Automatics; 2013, 17, 1; 65-72
1429-3447
2353-0952
Pojawia się w:
Automatyka / Automatics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównanie wybranych metod statystycznych i metod sztucznej inteligencji do przewidywania zdarzeń w oprogramowaniu zabezpieczającym systemy przechowywania dokumentów cyfrowych, w tym systemy klasy Enterprise Content Management
Autorzy:
Sapała, Kamil
Piołun-Noyszewski, Marcin
Weiss, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/583676.pdf
Data publikacji:
2017
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
sieci neuronowe
ARIMA
wyrównywanie wykładnicze
analiza w czasie rzeczywistym
Opis:
W ostatnich latach nastąpił wzrost zainteresowania wykorzystywaniem metod statystycznych do analizy zdarzeń z zakresu bezpieczeństwa teleinformatycznego. Coraz częściej moduły analityczne implementuje się w systemach chroniących przedsiębiorstwa przed zagrożeniami. Bardzo duże znaczenie ma w tej dziedzinie automatyzm i wykonywanie analiz bez nadzoru człowieka. W pracy opisane zostały efekty zastosowania działających automatycznie modułów eksperckich do przewidywania wartości szeregów czasowych, w sytuacji gdy nie były znane ich własności. Bez zastosowania właściwych metod przekształcenia szeregu i odpowiedniej parametryzacji tworzone modele mogą w wielu sytuacjach działać niepoprawnie. Natomiast w przypadku mających charakter cykliczny szeregów uzyskiwane prognozy mogą stanowić wartościową informację o potencjalnym zagrożeniu dla bezpieczeństwa przedsiębiorstwa.
Źródło:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu; 2017, 469; 159-166
1899-3192
Pojawia się w:
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A classification of real time analytics methods. An outlook for the use within the smart factory
Autorzy:
Trinks, S.
Powiązania:
https://bibliotekanauki.pl/articles/321330.pdf
Data publikacji:
2018
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
real time analytics
smart factory
Industry 4.0
smart manufacturing
internet of things
machine learning
analiza w czasie rzeczywistym
inteligentna fabryka
Przemysł 4.0
inteligentna produkcja
Internet rzeczy
uczenie maszynowe
Opis:
The creation of value in a factory is transforming. The spread of sensors, embedded systems, and the development of the Internet of Things (IoT) creates a multitude of possibilities relating to upcoming Real Time Analytics (RTA) application. However, already the topic of big data had rendered the use of analytical solutions related to a processing in real time. Now, the introduced methods and concepts can be transferred into the industrial area. This paper deals with the topic of the current state of RTA having the objective to identify applied methods. In addition, the paper also includes a classification of these methods and contains an outlook for the use of them within the area of the smart factory.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2018, 119; 313-329
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The importance of data revisions for statistical inference
Znaczenie rewizji danych dla wnioskowania statystycznego
Autorzy:
Ziembińska, Paulina
Powiązania:
https://bibliotekanauki.pl/articles/985676.pdf
Data publikacji:
2021
Wydawca:
Główny Urząd Statystyczny
Tematy:
data revisions
real-time data
time series analysis
forecasting
rewizje danych
dane w czasie rzeczywistym
analiza szeregów czasowych
prognozowanie
Opis:
The aim of the study is a quantitative analysis of revisions conducted by means of a new, real-time macroeconomic dataset for Poland, designed on the basis of the Statistical bulletin (Biuletyn statystyczny) published by Statistics Poland, covering the period from as early as 1995 until 2017. Polish data have positively verified a number of hypotheses concerning the impact of data revisions on the modelling process. Procedures assessing the properties of time series can yield widely discrepant results, depending on the extent to which the applied data have been revised. A comparison of the fitted ARIMA models for series of initial and final data demonstrates that the fitted models are similar for the majority of variables. In the cases where the form of the model is identical for both series, the coefficients retain their scale and sign. Most differences between coefficients result from a different structure of the fitted model, which causes differ-ences in the autoregressive structure and can have a considerable impact on the ex ante infer-ence. A prognostic experiment confirmed these observations. For a large number of variables, the total impact of revisions on the forecasting process exceeds 10%. Extreme cases, where the impact goes beyond 100%, or situations where data have a direct impact on the forecast sign, are also relatively frequent. Taking these results into account by forecasters could significantly improve the quality of their predictions. The forecast horizon has a minor impact on these conclusions. The article is a continuation of the author's work from 2017.
Celem pracy jest ilościowa analiza rewizji danych makroekonomicznych w czasie rzeczywistym dla Polski pochodzących z nowego zbioru utworzonego na podstawie „Biuletynu statystycznego” GUS i obejmującego okres od 1995 do 2017 r. Polskie dane pozytywnie weryfikują wiele hipotez dotyczących wpływu rewizji danych na proces modelowania. Procedury oceniające własności szeregów czasowych mogą dawać istotnie różne wyniki w zależności od tego, jak bardzo rewidowane dane zostaną użyte. Porównanie dopasowanych modeli ARIMA dla szeregów pierwszych i finalnych odczytów wskazuje, że w przypadku większości zmiennych dopasowane modele są podobne. Gdy postać modelu jest taka sama dla obu szeregów, współczynniki zachowują skalę i znak. Większość różnic we współczynnikach wynika z odmiennej struktury dopasowanego modelu, co wpływa na różnice w strukturze autoregresyjnej i może mieć niemały wpływ na wnioskowanie ex ante. Potwierdza to eksperyment prognostyczny. Dla dużej części zmiennych całkowity wpływ rewizji na proces prognozowania wynosi powyżej 10%. Nie są też wyjątkiem ekstremalne przypadki, w których ten wpływ przekracza 100%, czy sytuacje, w których dane bezpośrednio wpływają na znak prognozy. Uwzględnienie tych wyników przez prognostów mogłoby znacząco poprawić jakość predykcji. Horyzont prognozy ma niewielki wpływ na te konkluzje. Artykuł jest kontynuacją pracy autorki z 2017 r.
Źródło:
Wiadomości Statystyczne. The Polish Statistician; 2021, 66, 2; 7-24
0043-518X
Pojawia się w:
Wiadomości Statystyczne. The Polish Statistician
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-10 z 10

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies