Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Data Matrix" wg kryterium: Temat


Tytuł:
Options to use data matrix codes in production engineering
Autorzy:
Karrach, L.
Pivarčiová, E.
Powiązania:
https://bibliotekanauki.pl/articles/409860.pdf
Data publikacji:
2018
Wydawca:
STE GROUP
Tematy:
adaptive thresholding
Data Matrix
Finder Pattern
Timing Pattern
Opis:
The paper deals with the possibilities of using Data Matrix codes in production engineering. We designed and tested the computationally efficient method for locating the Data Matrix code in the images. The location search procedure consists of identification of candidate regions using image binarization, then joining adjacent points into continuous regions and also examining outer boundaries of the regions. Afterwards we verify the presence of the Finder Pattern (as two perpendicular line segments) and Timing Pattern (as alternating sequence of black and white modules) in these candidate regions. Such procedure is invariant to shift rotation and scale change of Data Matrix codes. The method we have proposed has been verified on a set of real industrial images and compared to other commercial algorithms. We are also convinced that such technique is also suitable for real-time processing and has achieved better results than comparable commercial algorithms.
Źródło:
Management Systems in Production Engineering; 2018, 4 (26); 231-236
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Recognition of Data Matrix codes in images and their applications in production processes
Autorzy:
Karrach, Ladislav
Pivarčiová, Elena
Powiązania:
https://bibliotekanauki.pl/articles/409791.pdf
Data publikacji:
2020
Wydawca:
STE GROUP
Tematy:
adaptive thresholding
connected component labelling
data matrix code
finder pattern
timing pattern
Opis:
Data Matrix codes can be a significant factor in increasing productivity and efficiency in production processes. An important point in deploying Data Matrix codes is their recognition and decoding. In this paper is presented a computationally efficient algorithm for locating Data Matrix codes in the images. Image areas that may contain the Data Matrix code are to be identified firstly. To identify these areas, the thresholding, connected components labelling and examining outer bounding-box of the continuous regions is used. Subsequently, to determine the boundaries of the Data Matrix code more precisely, we work with the difference of adjacent projections around the Finder Pattern. The dimensions of the Data Matrix code are determined by analyzing the local extremes around the Timing Pattern. We verified the proposed method on a testing set of synthetic and real scene images and compared it with the results of other open-source and commercial solutions. The proposed method has achieved better results than competitive commercial solutions.
Źródło:
Management Systems in Production Engineering; 2020, 3 (28); 154-161
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of manipulation logistics using data matrix codes
Autorzy:
Pivarčiová, Elena
Karrach, Ladislav
Tučková, Zuzana
Powiązania:
https://bibliotekanauki.pl/articles/102648.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Data Matrix
logistics
localization
Finder Pattern
Timing Pattern
logistyka
lokalizacja
wzór wyszukiwania
wzorzec czasu
Opis:
In the paper we deal with optimization of manipulation logistics using Data Matrix codes. Our goal is scanning and decoding Data Matrix codes in real-time. We have designed and verified an efficient computer aided method for location of the Data Matrix codes. This method is also suited to real-time processing and has been verified on a test set of images taken from real industrial world. We have proposed a modified, computationally efficient local thresholding technique that uses local mean and variation under the sliding window. The proposed Data Matrix code localization algorithm utilizes the connecting of the adjoining points into the continuous regions and determining of the boundaries of the outer region and it works in two basic steps: localization of the Finder Pattern and verification of the Timing Pattern. Part of the algorithm deals also with the decoding of the Data Matrix code using external libraries. Data Matrix codes can be used to mark logistic units, parts, warehousing positions, but also for automated robot navigation. Because of their low cost, accuracy, speed, reliability, flexibility and efficiency, as well as the ability to write large amounts of data on a small area, they still have a great advantage in logistics.
Źródło:
Advances in Science and Technology. Research Journal; 2018, 12, 3; 173-180
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kody dwuwymiarowe DataMatrix - efektywne i wygodne znakowanie w produkcji rolniczej
Two-dimensional DataMatrix codes - effective and convenient marking in farming
Autorzy:
Langman, J.
Lagman, M.
Powiązania:
https://bibliotekanauki.pl/articles/289031.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
kod kreskowy
DataMatrix
kod dwuwymiarowy
produkcja rolnicza
bar code
Data Matrix
two-dimensional code
farming
Opis:
W pracy przedstawiono krótką charakterystykę dwuwymiarowych kodów DataMatrix oraz propozycje zastosowania ich do znakowania produktów, narzędzi, towarów wykorzystywanych w produkcji rolniczej. Symbole DataMatrix posiadają dużą pojemność informacyjną pozwalające na zakodowanie w nich pełniejszej informacji o oznakowanym produkcie czy przedmiocie.
The paper presents a short overview of the two-dimensional DataMatrix codes, together with suggestions for their implementation in the marking of products, tools, and other goods used in farming. The DataMatrix code symbols are characterized by high data capacity allowing for encoding a wider range of information concerning the marked object or product.
Źródło:
Inżynieria Rolnicza; 2007, R. 11, nr 2 (90), 2 (90); 129-134
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
State Space-Based Method for the DOA Estimation by the Forward-Backward Data Matrix Using Small Snapshots
Autorzy:
Liu, J.
Powiązania:
https://bibliotekanauki.pl/articles/227085.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
state space-based method
DOA estimation
small snapshots
array signal
antenna elements
forward-backward data Matrix
Opis:
In this presentation, a new low computational burden method for the direction of arrival (DOA) estimation from noisy signal using small snapshots is presented. The approach introduces State Space-based Method (SSM) to represent the received array signal, and uses small snapshots directly to form the Hankel data matrix. Those Hankel data matrices are then utilized to construct forward-backward data matrix that is used to estimate the state space model parameters from which the DOA of the incident signals can be extracted. In contrast to existing methods, such as MUSIC, Root-MUSIC that use the covariance data matrix to estimate the DOA and the sparse representation (SR) based DOA which is obtained by solving the sparsest representation of the snapshots, the SSM algorithm employs forward-backward data matrix formed only using small snapshots and doesn't need additional spatial smoothing method to process coherent signals. Three numerical experiments are employed to compare the performance among the SSM, Root-MUSIC and SR-based method as well as Cramér–Rao bound (CRB). The simulation results demonstrate that when a small number of snapshots, even a single one, are used, the SSM always performs better than the other two method no matter under the circumstance of uncorrelated or correlated signal. The simulation results also show that the computational burden is reduced significantly and the number of antenna elements is saved greatly.
Źródło:
International Journal of Electronics and Telecommunications; 2017, 63, 3; 315-322
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie jakościowe w warunkach niedoszacowania czasu – czyli o konieczności „podążania na skróty”. Organizacja procesu badawczego pod kątem zastosowania komputerowego wsparcia analizy danych jakościowych
Qualitative Research in the Condition of Underestimated Time – In Need of “Shortcuts.” The Organization of Research Process Using the Computer-Aided Qualitative Analysis
Autorzy:
Brosz, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/623357.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
CAQDAS
NVivo
autokodowanie
segmentacja danych
importowanie ilościowych baz danych
kwerenda macierzowa
macierz ramowa
auto coding
data segmentation
import classification sheet data matrix coding query
framework matrix
Opis:
Artykuł poświęcony jest organizowaniu procesu badawczego pod kątem zastosowania oprogramowania NVivo. Prezentowane badania zostały przeprowadzone w warunkach niedoszacowania czasu. Zastosowanie CAQDA oraz odpowiednia organizacja badania pozwoliły zmieścić się w harmonogramie narzuconym przez instytucję zlecającą. Organizacja i podział pracy, przygotowanie odpowiednio sformatowanych dokumentów oraz uzupełnienie jakościowej bazy danych o zbiór atrybutów bazujących na danych standaryzowanych znacząco usprawniły opracowywanie wyników.
This paper concerns the organization of research process using NVivo software. Described researches were conducted in the condition of underestimated time. The use of CAQDA (computer-aided qualitative data analysis) and proper research management enabled fitting into the timeframe imposed by the contracting institution. The work distribution and its management, preparation of properly formatted documents, and complementation of qualitative database with the collection of attributes based on standardized data significantly improved the elaboration of results.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 40-58
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data and Task Scheduling in Distributed Computing Environments
Autorzy:
Szmajduch, M.
Powiązania:
https://bibliotekanauki.pl/articles/309172.pdf
Data publikacji:
2014
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
data cloud
data grid
data processing
data scheduling
ETC Matrix
Opis:
Data-aware scheduling in today’s large-scale heterogeneous environments has become a major research and engineering issue. Data Grids (DGs), Data Clouds (DCs) and Data Centers are designed for supporting the processing and analysis of massive data, which can be generated by distributed users, devices and computing centers. Data scheduling must be considered jointly with the application scheduling process. It generates a wide family of global optimization problems with the new scheduling criteria including data transmission time, data access and processing times, reliability of the data servers, security in the data processing and data access processes. In this paper, a new version of the Expected Time to Compute Matrix (ETC Matrix) model is defined for independent batch scheduling in physical network in DG and DC environments. In this model, the completion times of the computing nodes are estimated based on the standard ETC Matrix and data transmission times. The proposed model has been empirically evaluated on the static grid scheduling benchmark by using the simple genetic-based schedulers. A simple comparison of the achieved results for two basic scheduling metrics, namely makespan and average flowtime, with the results generated in the case of ignoring the data scheduling phase show the significant impact of the data processing model on the schedule execution times.
Źródło:
Journal of Telecommunications and Information Technology; 2014, 4; 71-78
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Clustering of Symbolic Data with Application of Ensemble Approach
Klasyfikacja danych symbolicznych z wykorzystaniem podejścia wielomodelowego
Autorzy:
Pełka, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/905659.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
cluster ensemble
co-associacion matrix
symbolic data
Opis:
Ensemble approaches based on aggregated models have been applied with success to discrimination and regression tasks. Nevertheless this approach can be applied to cluster analysis tasks. Many articles have proved that, by combining different clusterings, an improved solution can be obtained. The article presents the possibility of applying ensemble approach based on aggregated models to cluster symbolic data. The paper presents also presents results of clustering obtained by applying ensemble approach.
Podejście wielomodelowe oparte na agregacji modeli jest z powodzeniem wykorzystywane w zagadnieniach dyskryminacyjnych i regresyjnych. Niemniej jednak podejście to może zostać także zastosowane w zagadnieniu klasyfikacji. W wielu artykułach wskazuje się, że połączenie wielu różnych klasyfikacji pozwala otrzymać lepsze wyniki. Artykuł przedstawia możliwość zastosowania podejścia wielomodelowego w klasyfikacji danych symbolicznych. W artykule przedstawiono także wyniki klasyfikacji z wykorzystaniem podejścia wielomodelowego.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2013, 285
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multi-parameter data visualization by means of principal component analysis (PCA) in qualitative evaluation of various coal types
Autorzy:
Niedoba, T.
Powiązania:
https://bibliotekanauki.pl/articles/109595.pdf
Data publikacji:
2014
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
principal component analysis
PCA
multi-parameter data visualization
coal
identification of data
covariance matrix
pattern recognition
Opis:
Multi-parameter data visualization methods are a modern tool allowing to classify some analyzed objects. When it comes to grained materials, e.g. coal, many characteristics have an influence on the material quality. Besides the most obvious features like particle size, particle density or ash contents, coal has many other qualities which show significant differences between the studied types of material. The paper presents the possibility of applying visualization techniques for coal type identification and determination of significant differences between various types of coal. The Principal Component Analysis was applied to achieve this purpose. Three types of coal 31, 34.2 and 35 (according to Polish classification of coal types) were investigated, which were initially screened on sieves and subsequently divided into density fractions. Next, each size-density fraction was analyzed chemically to obtain other characteristics. It was pointed out that the applied methodology allowed to identify certain coal types efficiently, which makes it useful as a qualitative criterion for grained materials. However, it was impossible to provide such identification based on contrastive comparisons of all three types of coal. The presented methodology is a new way of analyzing data concerning widely understood mineral processing.
Źródło:
Physicochemical Problems of Mineral Processing; 2014, 50, 2; 575-589
1643-1049
2084-4735
Pojawia się w:
Physicochemical Problems of Mineral Processing
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data w procesie zarządzania firmą
Big Data in the process of management
Autorzy:
Dembowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/108929.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Szczeciński. Wydawnictwo Naukowe Uniwersytetu Szczecińskiego
Tematy:
big data
analiza sieci
zarządzanie sieciowe
zarządzanie macierzowe
teoria grafów
Big Data
social network
network analysis
graph theory
matrix management
Opis:
Przedmiotem niniejszego artykułu jest zjawisko Big Data. Autor przedstawia ogólne informacje na temat tego, czym ów zbiór jest, a także gdzie i w jaki sposób jest lub może być wykorzystany. Wskazuje problemy, które generuje wzmożony napływ informacji (którego znaczący wzrost obserwujemy w ciągu ostatnich kilku lat) oraz omawia przykładowe narzędzia, które pomogą te problemy rozwiązywać. Wybór instrumentów nie jest przypadkowy, gdyż stanowią one skuteczną pomoc w procesie zarządzania procesami produkcji czy usług, a także zasobami ludzkimi.
The main subject of this article is the phenomenon of Big Data. Author would like to present general information about Big Data, as well as where and how it is used. Also discused will be problem generated by increased flow of information which increased over last few years, and examples of tools that can be helpful to solve these problems. The choise of instruments isn’t accidental, because they are useful in management processes of production, services and humar resources.
Źródło:
Studia Informatica Pomerania; 2017, 46, 4; 5-17
2451-0424
2300-410X
Pojawia się w:
Studia Informatica Pomerania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O miernikach konkurecyjności regionalnej
On Measures of Regional Competitiveness
Autorzy:
Ponikowski, Henryk
Powiązania:
https://bibliotekanauki.pl/articles/1856574.pdf
Data publikacji:
2004
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
konkurencyjność regionalna
cechy konkurencyjności
wielowymiarowa macierz danych
mierniki struktur konkurencyjności
mierniki dystansów konkurencyjności
regional competitiveness
features of competitiveness
multidimensional matrix of data
measures of competitiveness structures
measures of competitiveness distances
Opis:
The article is concerned with quantification of the idea of regional competitiveness. The fact that a generally accepted definition is missing from the subject literature results in problems appearing in empirical studies, that are connected with measuring this category. We accept that regional competitiveness is the ability of the administrative system to effect changes in its inner quantitative structure, that is the number and intensity of elements that make up the region, and its qualitative structure, that is the kind and type of relations occurring between the elements of the region and its surrounding. Formulated in this way regional competitiveness is reduced to a measure of regional structures and distances.
Źródło:
Roczniki Nauk Społecznych; 2004, 32, 3; 241-247
0137-4176
Pojawia się w:
Roczniki Nauk Społecznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Possibility of big data application for OD-matrix callibration in transport demand models
Możliwość zastosowania Big Data do kalibracji macierzy źródło-cel w modelach podróży
Autorzy:
Brzeziński, Andrzej
Dybicz, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/1852665.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
big data
modelowanie podróży
macierz podróży
rozkład przestrzenny ruchu
prognoza ruchu
sondowanie pojazdu
traffic modelling
trip matrix
trip distribution
traffic forecast
vehicle probe data
Opis:
Modern IT and telecommunications technologies create new possibilities of data acquisition for the needs of traffic analyses and transport planning. At the same time, the current experience suggests that it is becoming increasingly difficult to obtain data on interurban travels of people in a traditional way (among others, in Poland there has been no comprehensive survey of drivers on the sections of non-urban roads since 2006). Within the framework of the INMOP 3 research project, an attempt was made to analyse the use of the Big Data application possibilities including data from SIM cards of the mobile telephony operator [1] and data from probe vehicle data (also known as “floating car data”), as data sources for carrying out the traffic analyses and modelling of travels by all means of transport in Poland. The article presents the manner, in which the data were used, as well as methodological recommendations for creating transport models at the national, regional and local levels. Especially the results of work can be applied for systematic passenger cars trip matrix update.
Współczesne technologie informatyczne oraz telekomunikacyjne tworzą nowe możliwości pozyskiwania danych na potrzeby analiz ruchu i modelowania systemów transportu. Równocześnie dotychczasowe doświadczenia wskazują, że coraz trudniej jest pozyskiwać dane o międzymiastowych podróżach osób w sposób tradycyjny (między innymi od 2006 r. nie odbyło się żadne kompleksowe badanie ankietowe kierowców na odcinkach dróg zamiejskich). Prowadzone są jedynie wyrywkowe badania w małej skali do tego w sposób niesystematyczny. Tworzy to problemy lub wręcz uniemożliwia wykonywanie systematycznej aktualizacji modeli systemów transportowych, które są stosowane do analiz i prognozowania ruchu. Dotyczy to także Krajowego Modelu Ruchu Generalnej Dyrekcji Dróg Krajowych i Autostrad stosowanego praktycznie we wszystkich największych projektach drogowych w Polsce, zwłaszcza w budowie autostrad i dróg ekspresowych. Dane typu Big Data w stosunku do danych gromadzonych w sposób tradycyjny (np. na podstawie badań i pomiarów) zbierane są na skalę hurtową. Mogą być gromadzone, analizowane i udostępniane w czasie przeszłym (pozyskane wstecz). W szczególnych przypadkach mogą być pozyskiwane i analizowane w czasie rzeczywistym (np. dane o prędkościach pojazdów pozyskiwane z sondowania pojazdów w centrach zarządzania ruchem). Możliwe jest również zaplanowanie okresów dla których dostawcy danych będą je pozyskiwać z uwzględnieniem specjalnych wymogów, jak np. uwzględnienie wybranej szczególnej grupy użytkowników. W ramach projektu badawczego INMOP 3 podjęto próbę wykorzystania do modelowania podróży danych z tzw. sondowania pojazdów, czyli danych o użytkownikach nawigacji satelitarnej i systemów GPS zamontowanych w pojazdach, bez informacji osobowych i rzeczywistych identyfikatorów pojazdów. Pozyskano dane z ponad 80 tys. pojazdów flotowych wyposażonych we wbudowane urządzenia GPS oraz 275 tys. urządzeń i aplikacji do nawigacji osobistej. Ujęto je w formie macierzy podróży odbywanych pomiędzy rejonami komunikacyjnymi. Przyjęty w projekcie układ rejonów komunikacyjnych opiera się o administracyjny podział kraju na powiaty. Uwzględniono w nim również przejścia graniczne drogowe i kolejowe, porty morskie i lotniska.
Źródło:
Archives of Civil Engineering; 2021, 67, 1; 215-232
1230-2945
Pojawia się w:
Archives of Civil Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda aktualizacji modelu podróży z wykorzystaniem macierzy przemieszczeń telefonów komórkowych
Method to update demand model with application of GSM OD matrices
Autorzy:
Kucharski, R.
Mielczarek, J.
Drabicki, A.
Szarata, A.
Powiązania:
https://bibliotekanauki.pl/articles/193114.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
więźba ruchu
model popytu
dane GSM
model podróży
demand model
cellular OD matrices
Od matrix
big data
Opis:
W artykule prezentujemy metodę aktualizacji modelu podróży z użyciem macierzy przemieszczeń telefonów komórkowych. Proponujemy rozwiązanie dla sytuacji, gdy model popytu przestaje być aktualny, a jednocześnie dostępne są duże zbiory danych o faktycznych przemieszczeniach. Jako że budowa modelu popytu jest pracochłonna i kosztowna, a duże zbiory danych coraz bardziej dostępne, wskazane jest opracowanie metody aktualizacji. Jest to jednak problematyczne. Po pierwsze szczegółowość podziału obszaru na rejony jest zazwyczaj większa niż ta dostępna dla macierzy komórkowych, po drugie model popytu zawiera pełny opis mobilności (ruchliwość, motywacje, modele wyboru celu, środka podróży i trasy), a macierze komórkowe zawierają jedynie wielkości podróży. W niniejszym artykule proponujemy metodę wykorzystującą zalety obydwu źródeł danych. W szczególności korzystamy z formuł generacji ruchu, zmiennych objaśniających i struktury motywacji ujawnionych w badaniach, na podstawie których sformułowano model podróży. Dopełniamy te dane dwustopniowym modelem wyboru celu podróży opracowanym na podstawie struktury przemieszczeń telefonów komórkowych. Uzyskane wielkości podróży kalibrujemy do wielkości ujawnionych w macierzach, a następnie potoki pasażerów i pojazdów kalibrujemy do wyników uzyskanych w pomiarach. Propozycja ta nie eliminuje wszystkich problemów i niejasności, ale niewątpliwe pozwala na pełniejsze wykorzystanie tego cennego źródła danych. Metodę ilustrujemy wynikami aktualizacji małopolskiego modelu ruchu z użyciem macierzy przemieszczeń między powiatami całej Polski klientów jednego z operatorów. W efekcie model podróży oparty na zdezaktualizowanych wynikach badań został zaktualizowany do aktualnej struktury przemieszczeń i wielkości podróży, ale i sam opis mobilności stał się dokładniejszy. Dzięki wydzieleniu na etapie generacji ruchu liczby podróży: a) do Krakowa, b) do Tarnowa lub Nowego Sącza, c) międzypowiatowych d) wewnątrzpowiatowych e) zewnątrzwojewódzkich udało się uzyskać obraz podróży regionalnych zgodny z rzeczywistym.
In this article we propose a method to update a high-density yet outdated transport demand model, with a low-density yet actual big-data on mobility. Since demand model building is both cost and time consuming and, in parallel, GSM OD matrices are available, we propose updating method utilizing both sources. This, however, is not trivial. Typically, zoning of demand model is more detailed than in the GSM matrices. Also the demand model is fully descriptive while OD matrices reveals only the final product of mobility, i.e. trips. We propose the method where a general structure of mobility is taken from the classical transportation demand model and the actual mobility pattern is read from the GSM matrices. This approach allows to update the model with actual mobility pattern without need to conduct new and costly travel survey. We illustrate the method with the case of Małopolska region in Poland (ca. 3.5 m inhabitants) where the demand model was updated with cellular od matrices.
Źródło:
Transport Miejski i Regionalny; 2018, 5; 18-24
1732-5153
Pojawia się w:
Transport Miejski i Regionalny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Scheduling of synchronous dataflow graphs for datapath synthesis
Autorzy:
Maslennikowa, N.
Sergiyenko, A.
Powiązania:
https://bibliotekanauki.pl/articles/118384.pdf
Data publikacji:
2015
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Tematy:
data flow graph
DFG (data flow graph)
synchronous dataflow graphs
SDFs
matrix
pipelined datapath design
graf zależności informacyjnych
DFG
synchroniczny graf zależności informacyjnych
macierz
projektowanie potokowej jednostki przetwarzającej
Opis:
A method of the schedule searching is proposed, which is based on the properties of the spatial SDF. The method is based on the SDF representation in the multidimensional space. The dimensions of this space are spatial coordinate of the processing unit, time moment of the operator calculation, and operator type. During the synthesis, the nodes are placed in the space according to a set of rules, providing the minimum hardware volume for the given number of clock cycles in the algorithm period. The resulting spatial SDF is described by VHDL language and is modeled and compiled using proper CAD tools. The method is successfully proven by the synthesis of a set of FFT processors, IIR filters, and other pipelined datapaths for FPGA.
Zaproponowany sposób poszukiwania opiera się na właściwościach przestrzennych SDF. Metoda ta bazuje na SDF prezentacji w przestrzeni wielowymiarowej. Wymiarami danej przestrzeni są współrzędne jednostki przetwarzającej, czas momentu obliczeniowego operatora oraz typ operatora. Podczas syntezy, węzły są umieszczone w przestrzeni zgodnie z zestawem reguł, dając minimalną częstotliwość pracy zegara systemowego podczas wykonywania algorytmu. Powstały przestrzenny SDF jest opisany przez język VHDL i jest modelowany i skompilowany przy użyciu odpowiednich narzędzi CAD. Ta metoda jest pomyślnie sprawdzona przez syntezę zestawu procesorów FFT, filtrów IIR, oraz innych potokowych jednostek przetwarzających płytki FPGA.
Źródło:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej; 2015, 8; 53-60
1897-7421
Pojawia się w:
Zeszyty Naukowe Wydziału Elektroniki i Informatyki Politechniki Koszalińskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Average convergence rate of the first return time
Autorzy:
Choe, Geon
Kim, Dong
Powiązania:
https://bibliotekanauki.pl/articles/965737.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
entropy
the first return time
period of an irreducible matrix
Wyner-Ziv-Ornstein-Weiss theorem
data compression
Markov chain
Opis:
The convergence rate of the expectation of the logarithm of the first return time $R_{n}$, after being properly normalized, is investigated for ergodic Markov chains. I. Kontoyiannis showed that for any β > 0 we have $log[R_{n}(x)P_{n}(x)] =o(n^{β})$ a.s. for aperiodic cases and A. J. Wyner proved that for any ε >0 we have $-(1 + ε)log n ≤ log[R_{n}(x)P_{n}(x)] ≤ loglog n$ eventually, a.s., where $P_{n}(x)$ is the probability of the initial n-block in x. In this paper we prove that $ E[log R_{(L,S)} - (L-1)h]$ converges to a constant depending only on the process where $R_{(L,S)}$ is the modified first return time with block length L and gap size S. In the last section a formula is proposed for measuring entropy sharply; it may detect periodicity of the process.
Źródło:
Colloquium Mathematicum; 2000, 84/85, 1; 159-171
0010-1354
Pojawia się w:
Colloquium Mathematicum
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies