Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Data Matrix" wg kryterium: Temat


Tytuł:
Average convergence rate of the first return time
Autorzy:
Choe, Geon
Kim, Dong
Powiązania:
https://bibliotekanauki.pl/articles/965737.pdf
Data publikacji:
2000
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
entropy
the first return time
period of an irreducible matrix
Wyner-Ziv-Ornstein-Weiss theorem
data compression
Markov chain
Opis:
The convergence rate of the expectation of the logarithm of the first return time $R_{n}$, after being properly normalized, is investigated for ergodic Markov chains. I. Kontoyiannis showed that for any β > 0 we have $log[R_{n}(x)P_{n}(x)] =o(n^{β})$ a.s. for aperiodic cases and A. J. Wyner proved that for any ε >0 we have $-(1 + ε)log n ≤ log[R_{n}(x)P_{n}(x)] ≤ loglog n$ eventually, a.s., where $P_{n}(x)$ is the probability of the initial n-block in x. In this paper we prove that $ E[log R_{(L,S)} - (L-1)h]$ converges to a constant depending only on the process where $R_{(L,S)}$ is the modified first return time with block length L and gap size S. In the last section a formula is proposed for measuring entropy sharply; it may detect periodicity of the process.
Źródło:
Colloquium Mathematicum; 2000, 84/85, 1; 159-171
0010-1354
Pojawia się w:
Colloquium Mathematicum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie jakościowe w warunkach niedoszacowania czasu – czyli o konieczności „podążania na skróty”. Organizacja procesu badawczego pod kątem zastosowania komputerowego wsparcia analizy danych jakościowych
Qualitative Research in the Condition of Underestimated Time – In Need of “Shortcuts.” The Organization of Research Process Using the Computer-Aided Qualitative Analysis
Autorzy:
Brosz, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/623357.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
CAQDAS
NVivo
autokodowanie
segmentacja danych
importowanie ilościowych baz danych
kwerenda macierzowa
macierz ramowa
auto coding
data segmentation
import classification sheet data matrix coding query
framework matrix
Opis:
Artykuł poświęcony jest organizowaniu procesu badawczego pod kątem zastosowania oprogramowania NVivo. Prezentowane badania zostały przeprowadzone w warunkach niedoszacowania czasu. Zastosowanie CAQDA oraz odpowiednia organizacja badania pozwoliły zmieścić się w harmonogramie narzuconym przez instytucję zlecającą. Organizacja i podział pracy, przygotowanie odpowiednio sformatowanych dokumentów oraz uzupełnienie jakościowej bazy danych o zbiór atrybutów bazujących na danych standaryzowanych znacząco usprawniły opracowywanie wyników.
This paper concerns the organization of research process using NVivo software. Described researches were conducted in the condition of underestimated time. The use of CAQDA (computer-aided qualitative data analysis) and proper research management enabled fitting into the timeframe imposed by the contracting institution. The work distribution and its management, preparation of properly formatted documents, and complementation of qualitative database with the collection of attributes based on standardized data significantly improved the elaboration of results.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 40-58
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data w procesie zarządzania firmą
Big Data in the process of management
Autorzy:
Dembowski, P.
Powiązania:
https://bibliotekanauki.pl/articles/108929.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Szczeciński. Wydawnictwo Naukowe Uniwersytetu Szczecińskiego
Tematy:
big data
analiza sieci
zarządzanie sieciowe
zarządzanie macierzowe
teoria grafów
Big Data
social network
network analysis
graph theory
matrix management
Opis:
Przedmiotem niniejszego artykułu jest zjawisko Big Data. Autor przedstawia ogólne informacje na temat tego, czym ów zbiór jest, a także gdzie i w jaki sposób jest lub może być wykorzystany. Wskazuje problemy, które generuje wzmożony napływ informacji (którego znaczący wzrost obserwujemy w ciągu ostatnich kilku lat) oraz omawia przykładowe narzędzia, które pomogą te problemy rozwiązywać. Wybór instrumentów nie jest przypadkowy, gdyż stanowią one skuteczną pomoc w procesie zarządzania procesami produkcji czy usług, a także zasobami ludzkimi.
The main subject of this article is the phenomenon of Big Data. Author would like to present general information about Big Data, as well as where and how it is used. Also discused will be problem generated by increased flow of information which increased over last few years, and examples of tools that can be helpful to solve these problems. The choise of instruments isn’t accidental, because they are useful in management processes of production, services and humar resources.
Źródło:
Studia Informatica Pomerania; 2017, 46, 4; 5-17
2451-0424
2300-410X
Pojawia się w:
Studia Informatica Pomerania
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Clustering of Symbolic Data with Application of Ensemble Approach
Klasyfikacja danych symbolicznych z wykorzystaniem podejścia wielomodelowego
Autorzy:
Pełka, Marcin
Powiązania:
https://bibliotekanauki.pl/articles/905659.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
cluster ensemble
co-associacion matrix
symbolic data
Opis:
Ensemble approaches based on aggregated models have been applied with success to discrimination and regression tasks. Nevertheless this approach can be applied to cluster analysis tasks. Many articles have proved that, by combining different clusterings, an improved solution can be obtained. The article presents the possibility of applying ensemble approach based on aggregated models to cluster symbolic data. The paper presents also presents results of clustering obtained by applying ensemble approach.
Podejście wielomodelowe oparte na agregacji modeli jest z powodzeniem wykorzystywane w zagadnieniach dyskryminacyjnych i regresyjnych. Niemniej jednak podejście to może zostać także zastosowane w zagadnieniu klasyfikacji. W wielu artykułach wskazuje się, że połączenie wielu różnych klasyfikacji pozwala otrzymać lepsze wyniki. Artykuł przedstawia możliwość zastosowania podejścia wielomodelowego w klasyfikacji danych symbolicznych. W artykule przedstawiono także wyniki klasyfikacji z wykorzystaniem podejścia wielomodelowego.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2013, 285
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data and Task Scheduling in Distributed Computing Environments
Autorzy:
Szmajduch, M.
Powiązania:
https://bibliotekanauki.pl/articles/309172.pdf
Data publikacji:
2014
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
data cloud
data grid
data processing
data scheduling
ETC Matrix
Opis:
Data-aware scheduling in today’s large-scale heterogeneous environments has become a major research and engineering issue. Data Grids (DGs), Data Clouds (DCs) and Data Centers are designed for supporting the processing and analysis of massive data, which can be generated by distributed users, devices and computing centers. Data scheduling must be considered jointly with the application scheduling process. It generates a wide family of global optimization problems with the new scheduling criteria including data transmission time, data access and processing times, reliability of the data servers, security in the data processing and data access processes. In this paper, a new version of the Expected Time to Compute Matrix (ETC Matrix) model is defined for independent batch scheduling in physical network in DG and DC environments. In this model, the completion times of the computing nodes are estimated based on the standard ETC Matrix and data transmission times. The proposed model has been empirically evaluated on the static grid scheduling benchmark by using the simple genetic-based schedulers. A simple comparison of the achieved results for two basic scheduling metrics, namely makespan and average flowtime, with the results generated in the case of ignoring the data scheduling phase show the significant impact of the data processing model on the schedule execution times.
Źródło:
Journal of Telecommunications and Information Technology; 2014, 4; 71-78
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Kody dwuwymiarowe DataMatrix - efektywne i wygodne znakowanie w produkcji rolniczej
Two-dimensional DataMatrix codes - effective and convenient marking in farming
Autorzy:
Langman, J.
Lagman, M.
Powiązania:
https://bibliotekanauki.pl/articles/289031.pdf
Data publikacji:
2007
Wydawca:
Polskie Towarzystwo Inżynierii Rolniczej
Tematy:
kod kreskowy
DataMatrix
kod dwuwymiarowy
produkcja rolnicza
bar code
Data Matrix
two-dimensional code
farming
Opis:
W pracy przedstawiono krótką charakterystykę dwuwymiarowych kodów DataMatrix oraz propozycje zastosowania ich do znakowania produktów, narzędzi, towarów wykorzystywanych w produkcji rolniczej. Symbole DataMatrix posiadają dużą pojemność informacyjną pozwalające na zakodowanie w nich pełniejszej informacji o oznakowanym produkcie czy przedmiocie.
The paper presents a short overview of the two-dimensional DataMatrix codes, together with suggestions for their implementation in the marking of products, tools, and other goods used in farming. The DataMatrix code symbols are characterized by high data capacity allowing for encoding a wider range of information concerning the marked object or product.
Źródło:
Inżynieria Rolnicza; 2007, R. 11, nr 2 (90), 2 (90); 129-134
1429-7264
Pojawia się w:
Inżynieria Rolnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Local fault detection of rolling element bearing components by spectrogram clustering with semi-binary NMF
Wykrywanie uszkodzeń lokalnych elementów łożysk tocznych poprzez klasteryzację spektrogramu za pomocą półbinarnej nieujemnej faktoryzacji macierzy
Autorzy:
Wodecki, J.
Zdunek, R.
Wyłomańska, A.
Zimroz, R.
Powiązania:
https://bibliotekanauki.pl/articles/327868.pdf
Data publikacji:
2017
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
vibration data
time-frequency analysis
nonnegative matrix factorization
local damage detection
dane drganiowe
analiza czasowo-częstotliwościowa
nieujemna faktoryzacja macierzy
wykrywanie uszkodzeń lokalnych
Opis:
Information extraction is a very important problem nowadays. In diagnostics, it is particularly useful when one desires to isolate information about machine damage from a measured diagnostic signal. The method presented in this paper utilizes the idea that is based on a very important topic in numerical algebra, which is nonnegative matrix factorization. When applied to the matrix of multidimensional representation of the measured data, it can extract very useful information about the events which occur in the signal and are not recognizable otherwise. In the presented methodology, we use the algorithm called Semi-Binary Nonnegative Matrix Factorization (SB-NMF), and apply it to a time-frequency representation of the real-life vibration signal measured on faulty bearing operating in a belt conveyor driving station. Detected impulses of local damage are clearly identifiable. Performance of the algorithm is very satisfying in terms of time efficiency and output signal quality.
Ekstrakcja informacji jest aktualnym kierunkiem badań. Jest ona szczególnie użyteczna, kiedy próbuje się wyizolować informację na temat uszkodzenia maszyny z zarejestrowanego sygnału diagnostycznego. Metoda zaprezentowana w niniejszej pracy bazuje na bardzo ważnym zagadnieniu algebry numerycznej, jakim jest nieujemna faktoryzacja macierzy. Kiedy jest ona zastosowana do analizy macierzy będącej wielowymiarową reprezentacją sygnału wejściowego, może wyizolować informację istotną z punktu widzenia procesów zachodzących w sygnale, a która nie jest rozpoznawalna w inny sposób. Przedstawiona metodologia korzysta z algorytmu znanego jako półbinarna nieujemna faktoryzacja macierzy, zastosowanego do reprezentacji czasowo-częstotliwościowej rzeczywistego sygnału drganiowego, zmierzonego na uszkodzonym łożysku pracującym w stacji napędowej przenośnika taśmowego. Wykryte impulsy związane z uszkodzeniem lokalnym zostały wyraźnie zidentyfikowane. Działanie algorytmu jest satysfakcjonujące w kwestii wydajności obliczeniowej oraz jakości otrzymanego wyniku.
Źródło:
Diagnostyka; 2017, 18, 1; 3-8
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
MARD – Maritime Academic Resource Database
Autorzy:
Laczynski, B.
Powiązania:
https://bibliotekanauki.pl/articles/116763.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Morski w Gdyni. Wydział Nawigacyjny
Tematy:
Maritime Academic Resource Database (MARD)
International Association of Maritime Universities (IAMU)
Data Base
Matrix Form
IAMU Members Institutions
Lecturers Qualifications
Academic Level
research experience
Opis:
IAMU (International Association of Maritime Universities) was established fifteen years ago. For this moment IAMU content close to 60 Members Institution. One of the research activities in years 2012- 2014 was: preparing the algorithm for collect and analyze the necessary information and convert it into Matrix form. Both: IAMU MEMBERS INSTITUTION DATABASE and HUMAN RESOURCE DATABASE include comparison indicators such as academic degree, teaching subjects, qualifications, research experience and so on. In opinion of group of researchers new established database should be very useful and helpful in field of cooperation between IAMU Members Institutions.
Źródło:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation; 2014, 8 no. 4; 591-595
2083-6473
2083-6481
Pojawia się w:
TransNav : International Journal on Marine Navigation and Safety of Sea Transportation
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda aktualizacji modelu podróży z wykorzystaniem macierzy przemieszczeń telefonów komórkowych
Method to update demand model with application of GSM OD matrices
Autorzy:
Kucharski, R.
Mielczarek, J.
Drabicki, A.
Szarata, A.
Powiązania:
https://bibliotekanauki.pl/articles/193114.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Inżynierów i Techników Komunikacji Rzeczpospolitej Polskiej
Tematy:
więźba ruchu
model popytu
dane GSM
model podróży
demand model
cellular OD matrices
Od matrix
big data
Opis:
W artykule prezentujemy metodę aktualizacji modelu podróży z użyciem macierzy przemieszczeń telefonów komórkowych. Proponujemy rozwiązanie dla sytuacji, gdy model popytu przestaje być aktualny, a jednocześnie dostępne są duże zbiory danych o faktycznych przemieszczeniach. Jako że budowa modelu popytu jest pracochłonna i kosztowna, a duże zbiory danych coraz bardziej dostępne, wskazane jest opracowanie metody aktualizacji. Jest to jednak problematyczne. Po pierwsze szczegółowość podziału obszaru na rejony jest zazwyczaj większa niż ta dostępna dla macierzy komórkowych, po drugie model popytu zawiera pełny opis mobilności (ruchliwość, motywacje, modele wyboru celu, środka podróży i trasy), a macierze komórkowe zawierają jedynie wielkości podróży. W niniejszym artykule proponujemy metodę wykorzystującą zalety obydwu źródeł danych. W szczególności korzystamy z formuł generacji ruchu, zmiennych objaśniających i struktury motywacji ujawnionych w badaniach, na podstawie których sformułowano model podróży. Dopełniamy te dane dwustopniowym modelem wyboru celu podróży opracowanym na podstawie struktury przemieszczeń telefonów komórkowych. Uzyskane wielkości podróży kalibrujemy do wielkości ujawnionych w macierzach, a następnie potoki pasażerów i pojazdów kalibrujemy do wyników uzyskanych w pomiarach. Propozycja ta nie eliminuje wszystkich problemów i niejasności, ale niewątpliwe pozwala na pełniejsze wykorzystanie tego cennego źródła danych. Metodę ilustrujemy wynikami aktualizacji małopolskiego modelu ruchu z użyciem macierzy przemieszczeń między powiatami całej Polski klientów jednego z operatorów. W efekcie model podróży oparty na zdezaktualizowanych wynikach badań został zaktualizowany do aktualnej struktury przemieszczeń i wielkości podróży, ale i sam opis mobilności stał się dokładniejszy. Dzięki wydzieleniu na etapie generacji ruchu liczby podróży: a) do Krakowa, b) do Tarnowa lub Nowego Sącza, c) międzypowiatowych d) wewnątrzpowiatowych e) zewnątrzwojewódzkich udało się uzyskać obraz podróży regionalnych zgodny z rzeczywistym.
In this article we propose a method to update a high-density yet outdated transport demand model, with a low-density yet actual big-data on mobility. Since demand model building is both cost and time consuming and, in parallel, GSM OD matrices are available, we propose updating method utilizing both sources. This, however, is not trivial. Typically, zoning of demand model is more detailed than in the GSM matrices. Also the demand model is fully descriptive while OD matrices reveals only the final product of mobility, i.e. trips. We propose the method where a general structure of mobility is taken from the classical transportation demand model and the actual mobility pattern is read from the GSM matrices. This approach allows to update the model with actual mobility pattern without need to conduct new and costly travel survey. We illustrate the method with the case of Małopolska region in Poland (ca. 3.5 m inhabitants) where the demand model was updated with cellular od matrices.
Źródło:
Transport Miejski i Regionalny; 2018, 5; 18-24
1732-5153
Pojawia się w:
Transport Miejski i Regionalny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multi-criteria evaluation of coal properties in terms of gasification
Wielokryterialna ocena właściwości węgla w kontekście jego zgazowania
Autorzy:
Marciniak-Kowalska, J.
Niedoba, T.
Surowiak, A.
Tumidajski, T.
Powiązania:
https://bibliotekanauki.pl/articles/218775.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
zgazowanie węgla
podatność na zgazowanie
wielokryterialna analiza danych
macierz korelacji
coal gasification
suitability for gasification
multivariate data analysis
correlation matrix
Opis:
This paper presents a comparative analysis of two types of coal taken from the ZG Janina and ZG Wieczorek coalmines. The aim of this study has been to analyze the suitability of the coal in the context of the gasification process. The types of coal vary considerably in terms of their characteristics. Each of them was subjected to treatment in a ten-ringed annular jig. A particle size of 0-18 mm constituted the feed. The separated coal was divided into five layers, each of them containing material from two additional annular jigs. Analysis of their characteristics was carried out for each of the five layers and for both types of coal obtained, taking into account both their physicochemical properties as well as chemical ones. Each of these characteristics was then presented in three-dimensional surface diagrams, where the ordinate (or Y-axis) and abscissa (X-axis) was the particle size and height in which the material ended up in the jig (expressed as a percentage of the total height of the device). On the basis of observations, it was found that the types of coal have different potential for gasification, although both types are within the limits specified on the basis of previous studies. A correlation analysis between particle size and remaining characteristics of coal was carried out for each of the layers, allowing to determine which of the studied characteristics induced changes significant from the point of view of the coal gasification process. The entire research and observation was supported by conclusions and findings, which shall form the basis for further, in-depth analysis of coal.
Proces zgazowania węgla technologią naziemną jest coraz częściej rozważanym rozwiązaniem na całym świecie. Przyczyną tego stanu jest zarówno kwestia ochrony środowiska, jak i logistyki zagospodarowania produktów przeróbki węgla. Nie inaczej jest również w Polsce, gdzie od kilku lat proces zgazowania jest jednym z głównych tematów badawczych w dziedzinie polskiego górnictwa węglowego. Efektem tego jest szereg badań i doświadczeń, jak również publikacji naukowych. W artykule dokonano analizy porównawczej dwóch typów węgla kamiennego, które pobrane były w Zakładach Górniczych Janina (typ węgla 31.2) oraz Zakładach Górniczych Wieczorek (typ węgla 32). Węgle te znacząco się różnią pod względem charakterystyk. Każdy z nich został poddany rozdziałowi w osadzarce pierścieniowej o 10 pierścieniach. Nadawę stanowił węgiel o uziarnieniu 0-18 mm. Rozdzielony węgiel został podzielony na 5 warstw, z których każda zawierała materiał z dwóch kolejnych pierścieni osadzarki. Dla każdej z otrzymanych w ten sposób pięciu warstw dla obu typów węgli dokonano następnie analizy ich charakterystyk, biorąc pod uwagę zarówno cechy fizykochemiczne, jak i czysto chemiczne. Do tych pierwszych zaliczono takie parametry, jak zawartość węgla pierwiastkowego, zawartość popiołu oraz ciepło spalania, do drugich zaś zawartość azotu, zawartość chloru, zawartość siarki oraz zawartość wodoru. Szczegółowe dane dla dwóch skrajnych warstw przedstawiono w tabelach 1-4. Każdą z omawianych cech przedstawiono następnie na trójwymiarowych wykresach powierzchniowych, gdzie osiami rzędnych i odciętych były wielkość ziarna oraz wysokość, na której znalazł się materiał w osadzarce (wyrażona w procentach wysokości urządzenia). Wykresy te (rys. 1-8) stanowiły bazę do analizy porównawczej obu węgli pod kątem ich przydatności do procesu zgazowania naziemnego. Wyraźnie widać, że węgle te mają inny potencjał do zgazowania, choć oba typy mieszczą się w granicach wartości ograniczających (tab. 5), określonych na podstawie wcześniejszych badań. Następnie dokonano jeszcze analizy korelacji pomiędzy wielkością ziarna a pozostałymi charakterystykami badanych węgli dla każdej z warstw. Wyniki zobrazowano w tabeli 6. Przykładowo stwierdzono, że: – wraz ze wzrostem wielkości ziaren w warstwach zmieniają się ich związki z charakterystykami pierwiastkowymi węgli (w kolumnach (warstwach) następuje zmiana znaku współczynnika korelacji oraz miary jego istotności); – zasadnicze różnice występują dla siarki – dla KWK Wieczorek współczynniki te są ujemne, co świadczy o tym, że siarka w tym węglu jest prawdopodobnie siarką organiczną (w warstwach najcięższych poziom siarki maleje). Przeciwnie jest w ZG Janina, gdzie dla najcięższych warstw zawartość siarki nie zmienia się (co może być spowodowane znaczącym udziałem zrostów pirytowych). Chlor w ZG Janina koncentruje się zwłaszcza w klasach najdrobniejszych niezależnie od warstwy. Inaczej układają się współczynniki dla ZG Janina, ich istotność spada a dla warstw najcięższych ilość chloru nieznacznie wzrasta wraz z wielkością ziaren. Stopień uwęglenia w warstwach najlżejszych rośnie wraz ze wzrostem wielkości ziaren dla warstw najcięższych maleje. Można powiedzieć, że w KWK Wieczorek tylko ostatnia warstwa zawiera niewielkie zrosty węgla. Analiza współczynników korelacji dla ciepła spalania i zawartości popiołu prowadzi do analogicznych wniosków (ze względu na naturalne powiązania fizyczne tych właściwości). Współczynniki korelacji pomiędzy wielkością ziarna a zawartościami azotu w obu kopalniach układają się podobnie, przy czym zależności te są bardziej znaczące dla węgli z ZG Janina; dla obu węgli współczynniki są dodatnie dla trzech najlżejszych warstw i ujemne dla warstw najcięższych (azot występuje w większych i cięższych kawałkach węgla). Na podstawie dokonanych analiz można stwierdzić, iż oba węgle są dostatecznie dobre aby można je było poddać procesowi zgazowania, choć więcej cech sprzyjających temu procesowi posiada węgiel z KWK Wieczorek. Dalsze badania w tym aspekcie trwają i będą przedmiotem kolejnych publikacji.
Źródło:
Archives of Mining Sciences; 2014, 59, 3; 677-690
0860-7001
Pojawia się w:
Archives of Mining Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Multi-parameter data visualization by means of principal component analysis (PCA) in qualitative evaluation of various coal types
Autorzy:
Niedoba, T.
Powiązania:
https://bibliotekanauki.pl/articles/109595.pdf
Data publikacji:
2014
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
principal component analysis
PCA
multi-parameter data visualization
coal
identification of data
covariance matrix
pattern recognition
Opis:
Multi-parameter data visualization methods are a modern tool allowing to classify some analyzed objects. When it comes to grained materials, e.g. coal, many characteristics have an influence on the material quality. Besides the most obvious features like particle size, particle density or ash contents, coal has many other qualities which show significant differences between the studied types of material. The paper presents the possibility of applying visualization techniques for coal type identification and determination of significant differences between various types of coal. The Principal Component Analysis was applied to achieve this purpose. Three types of coal 31, 34.2 and 35 (according to Polish classification of coal types) were investigated, which were initially screened on sieves and subsequently divided into density fractions. Next, each size-density fraction was analyzed chemically to obtain other characteristics. It was pointed out that the applied methodology allowed to identify certain coal types efficiently, which makes it useful as a qualitative criterion for grained materials. However, it was impossible to provide such identification based on contrastive comparisons of all three types of coal. The presented methodology is a new way of analyzing data concerning widely understood mineral processing.
Źródło:
Physicochemical Problems of Mineral Processing; 2014, 50, 2; 575-589
1643-1049
2084-4735
Pojawia się w:
Physicochemical Problems of Mineral Processing
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O miernikach konkurecyjności regionalnej
On Measures of Regional Competitiveness
Autorzy:
Ponikowski, Henryk
Powiązania:
https://bibliotekanauki.pl/articles/1856574.pdf
Data publikacji:
2004
Wydawca:
Katolicki Uniwersytet Lubelski Jana Pawła II. Towarzystwo Naukowe KUL
Tematy:
konkurencyjność regionalna
cechy konkurencyjności
wielowymiarowa macierz danych
mierniki struktur konkurencyjności
mierniki dystansów konkurencyjności
regional competitiveness
features of competitiveness
multidimensional matrix of data
measures of competitiveness structures
measures of competitiveness distances
Opis:
The article is concerned with quantification of the idea of regional competitiveness. The fact that a generally accepted definition is missing from the subject literature results in problems appearing in empirical studies, that are connected with measuring this category. We accept that regional competitiveness is the ability of the administrative system to effect changes in its inner quantitative structure, that is the number and intensity of elements that make up the region, and its qualitative structure, that is the kind and type of relations occurring between the elements of the region and its surrounding. Formulated in this way regional competitiveness is reduced to a measure of regional structures and distances.
Źródło:
Roczniki Nauk Społecznych; 2004, 32, 3; 241-247
0137-4176
Pojawia się w:
Roczniki Nauk Społecznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization of manipulation logistics using data matrix codes
Autorzy:
Pivarčiová, Elena
Karrach, Ladislav
Tučková, Zuzana
Powiązania:
https://bibliotekanauki.pl/articles/102648.pdf
Data publikacji:
2018
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
Data Matrix
logistics
localization
Finder Pattern
Timing Pattern
logistyka
lokalizacja
wzór wyszukiwania
wzorzec czasu
Opis:
In the paper we deal with optimization of manipulation logistics using Data Matrix codes. Our goal is scanning and decoding Data Matrix codes in real-time. We have designed and verified an efficient computer aided method for location of the Data Matrix codes. This method is also suited to real-time processing and has been verified on a test set of images taken from real industrial world. We have proposed a modified, computationally efficient local thresholding technique that uses local mean and variation under the sliding window. The proposed Data Matrix code localization algorithm utilizes the connecting of the adjoining points into the continuous regions and determining of the boundaries of the outer region and it works in two basic steps: localization of the Finder Pattern and verification of the Timing Pattern. Part of the algorithm deals also with the decoding of the Data Matrix code using external libraries. Data Matrix codes can be used to mark logistic units, parts, warehousing positions, but also for automated robot navigation. Because of their low cost, accuracy, speed, reliability, flexibility and efficiency, as well as the ability to write large amounts of data on a small area, they still have a great advantage in logistics.
Źródło:
Advances in Science and Technology. Research Journal; 2018, 12, 3; 173-180
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimization on the complementation procedure towards efficient implementation of the index generation function
Autorzy:
Borowik, G.
Powiązania:
https://bibliotekanauki.pl/articles/330597.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
data reduction
feature selection
indiscernibility matrix
logic synthesis
index generation function
redukcja danych
selekcja cech
synteza logiczna
funkcja generowania indeksów
Opis:
In the era of big data, solutions are desired that would be capable of efficient data reduction. This paper presents a summary of research on an algorithm for complementation of a Boolean function which is fundamental for logic synthesis and data mining. Successively, the existing problems and their proposed solutions are examined, including the analysis of current implementations of the algorithm. Then, methods to speed up the computation process and efficient parallel implementation of the algorithm are shown; they include optimization of data representation, recursive decomposition, merging, and removal of redundant data. Besides the discussion of computational complexity, the paper compares the processing times of the proposed solution with those for the well-known analysis and data mining systems. Although the presented idea is focused on searching for all possible solutions, it can be restricted to finding just those of the smallest size. Both approaches are of great application potential, including proving mathematical theorems, logic synthesis, especially index generation functions, or data processing and mining such as feature selection, data discretization, rule generation, etc. The problem considered is NP-hard, and it is easy to point to examples that are not solvable within the expected amount of time. However, the solution allows the barrier of computations to be moved one step further. For example, the unique algorithm can calculate, as the only one at the moment, all minimal sets of features for few standard benchmarks. Unlike many existing methods, the algorithm additionally works with undetermined values. The result of this research is an easily extendable experimental software that is the fastest among the tested solutions and the data mining systems.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2018, 28, 4; 803-815
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Options to use data matrix codes in production engineering
Autorzy:
Karrach, L.
Pivarčiová, E.
Powiązania:
https://bibliotekanauki.pl/articles/409860.pdf
Data publikacji:
2018
Wydawca:
STE GROUP
Tematy:
adaptive thresholding
Data Matrix
Finder Pattern
Timing Pattern
Opis:
The paper deals with the possibilities of using Data Matrix codes in production engineering. We designed and tested the computationally efficient method for locating the Data Matrix code in the images. The location search procedure consists of identification of candidate regions using image binarization, then joining adjacent points into continuous regions and also examining outer boundaries of the regions. Afterwards we verify the presence of the Finder Pattern (as two perpendicular line segments) and Timing Pattern (as alternating sequence of black and white modules) in these candidate regions. Such procedure is invariant to shift rotation and scale change of Data Matrix codes. The method we have proposed has been verified on a set of real industrial images and compared to other commercial algorithms. We are also convinced that such technique is also suitable for real-time processing and has achieved better results than comparable commercial algorithms.
Źródło:
Management Systems in Production Engineering; 2018, 4 (26); 231-236
2299-0461
Pojawia się w:
Management Systems in Production Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies