Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "classification algorithms" wg kryterium: Temat


Tytuł:
Machine learning-based business rule engine data transformation over high-speed networks
Autorzy:
Neelima, Kenpi
Vasundra, S.
Powiązania:
https://bibliotekanauki.pl/articles/38700094.pdf
Data publikacji:
2023
Wydawca:
Instytut Podstawowych Problemów Techniki PAN
Tematy:
CRISP-DM
data mining algorithms
business rule
prediction
classification
machine learning
deep learning
AI design
algorytmy eksploracji danych
reguła biznesowa
prognoza
klasyfikacja
nauczanie maszynowe
uczenie głębokie
projekt Sztucznej Inteligencji
Opis:
Raw data processing is a key business operation. Business-specific rules determine howthe raw data should be transformed into business-required formats. When source datacontinuously changes its formats and has keying errors and invalid data, then the effectiveness of the data transformation is a big challenge. The conventional data extraction andtransformation technique produces a delay in handling such data because of continuousfluctuations in data formats and requires continuous development of a business rule engine.The best business rule engines require near real-time detection of business rule and datatransformation mechanisms utilizing machine learning classification models. Since data iscombined from numerous sources and older systems, it is challenging to categorize andcluster the data and apply suitable business rules to turn raw data into the business-required format. This paper proposes a methodology for designing ensemble machine learning techniques and approaches for classifying and segmenting registered numbersof registered title records to choose the most suitable business rule that can convert theregistered number into the format the business expects, allowing businesses to provide customers with the most recent data in less time. This study evaluates the suggested modelby gathering sample data and analyzing classification machine learning (ML) models todetermine the relevant business rule. Experimentation employed Python, R, SQL storedprocedures, Impala scripts, and Datameer tools.
Źródło:
Computer Assisted Methods in Engineering and Science; 2023, 30, 1; 55-71
2299-3649
Pojawia się w:
Computer Assisted Methods in Engineering and Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of classical machine learning algorithms in the task of handwritten digits classification
Porównanie klasycznych algorytmów uczenia maszynowego w zadaniu klasyfikacji liczb pisanych odręcznie
Autorzy:
Voloshchenko, Oleksandr
Plechawska-Wójcik, Małgorzata
Powiązania:
https://bibliotekanauki.pl/articles/2055139.pdf
Data publikacji:
2021
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
machine learning
classification
MNIST
classical algorithms
uczenie maszynowe
klasyfikacja
algorytmy klasyczne
Opis:
The purpose of this paper is to compare classical machine learning algorithms for handwritten number classification. The following algorithms were chosen for comparison: Logistic Regression, SVM, Decision Tree, Random Forest and k-NN. MNIST handwritten digit database is used in the task of training and testing the above algorithms. The dataset consists of 70,000 images of numbers from 0 to 9. The algorithms are compared considering such criteria as the learn-ing speed, prediction construction speed, host machine load, and classification accuracy. Each algorithm went through the training and testing phases 100 times, with the desired metrics retained at each iteration. The results were averaged to reach the reliable outcomes.
Celem niniejszej pracy jest porównanie klasycznych algorytmów uczenia maszynowego do klasyfikacji liczb pisanych odręcznie. Do porównania wybrano następujące algorytmy: Logistic Regression, SVM, Decision Tree, Random Forest oraz k-NN. Do szkolenia i testowania powyższych algorytmów wykorzystano zbiór danych MNIST. Zbiór danych składa się z 70 000 obrazów cyfr od 0 do 9. Algorytmy porównywane są z uwzględnieniem takich kryteriów jak szyb-kość uczenia, szybkość budowania predykcji, obciążenie maszyny głównej oraz dokładność klasyfikacji. Każdy algo-rytm przeszedł przez fazy szkolenia i testowania 100 razy, z zachowaniem pożądanych metryk przy każdej iteracji. Wyniki zostały uśrednione w celu uzyskania wiarygodnych rezultatów.
Źródło:
Journal of Computer Sciences Institute; 2021, 21; 279-286
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rule-based Classification of Airborne Laser Scanner Data for Automatic Extraction of 3D Objects in the Urban Area
Autorzy:
Bui, Ngoc Quy
Le, Dinh Hien
Duong, Anh Quan
Nguyen, Quoc Long
Powiązania:
https://bibliotekanauki.pl/articles/2019227.pdf
Data publikacji:
2021
Wydawca:
Polskie Towarzystwo Przeróbki Kopalin
Tematy:
point cloud
Lidar data
NDVI index
classification algorithms
3D city
chmura punktów
indeks NDVI
algorytm klasyfikacji
Opis:
LiDAR technology has been widely adopted as a proper method for land cover classification. Recently with the development of technology, LiDAR systems can now capture high-resolution multispectral bands images with high-density LiDAR point cloud simultaneously. Therefore, it opens new opportunities for more precise automatic land-use classification methods by utilizing LiDAR data. This article introduces a combining technique of point cloud classification algorithms. The algorithms include ground detection, building detection, and close point classification - the classification is based on point clouds’ attributes. The main attributes are heigh, intensity, and NDVI index calculated from 4 bands of colors extracted from multispectral images for each point. Data of the Leica City Mapper LiDAR system in an area of 80 ha in Quang Xuong town, Thanh Hoa province, Vietnam was used to deploy the classification. The data is classified into eight different types of land use consist of asphalt road, other ground, low vegetation, medium vegetation, high vegetation, building, water, and other objects. The classification workflow was implemented in the TerraSolid suite, with the result of the automation process came out with 97% overall accuracy of classification points. The classified point cloud is used in a workflow to create a 3D city model LoD2 (Level of Detail) afterward.
Źródło:
Inżynieria Mineralna; 2021, 2; 103--114
1640-4920
Pojawia się w:
Inżynieria Mineralna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of Features and Classifiers in Emotion Recognition Systems : Case Study of Slavic Languages
Autorzy:
Nedeljković, Željko
Milošević, Milana
Ðurović, Željko
Powiązania:
https://bibliotekanauki.pl/articles/176678.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
emotion recognition
speech processing
classification algorithms
Opis:
Today’s human-computer interaction systems have a broad variety of applications in which automatic human emotion recognition is of great interest. Literature contains many different, more or less successful forms of these systems. This work emerged as an attempt to clarify which speech features are the most informative, which classification structure is the most convenient for this type of tasks, and the degree to which the results are influenced by database size, quality and cultural characteristic of a language. The research is presented as the case study on Slavic languages.
Źródło:
Archives of Acoustics; 2020, 45, 1; 129-140
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Method of Defining the Parameters for UAV Point Cloud Classification Algorithm
Metoda wyznaczania parametrów do opracowania metod klasyfikacji danych chmur punktów zbudowanych z obrazów BSP
Autorzy:
Bui, Ngoc Quy
Le, Dinh Hien
Nguyen, Quoc Long
Tong, Si Son
Duong, Anh Quan
Pham, Van Hiep
Phan, Thanh Hai
Pham, Thi Lan
Powiązania:
https://bibliotekanauki.pl/articles/318963.pdf
Data publikacji:
2020
Wydawca:
Polskie Towarzystwo Przeróbki Kopalin
Tematy:
UAV
point cloud
classification algorithms
open-pit mines
BSP
chmura punktów
algorytmy klasyfikacyjne
kopalnie odkrywkowe
Opis:
Image data from Drones/Unmanned Aerial Vehicles (UAVs) has been studied and used extensively for establishing maps. The process of UAV data provides three main products including (Digital Surface Model) DSM, Point cloud and Ortho-photos, in which point cloud is a valuable data source in building 3D models and topographic surfaces as well. However, processing point cloud separately to achieve secondary products has not been received much attention from researchers. This study determines parameters to develop a method for classifying point cloud data constructed from UAV images. Consequently, A 3D surface of the ground is built by applying a developed algorithm for the point cloud data for an open-pit mine. The temporal or non-ground objects such as trees, houses, vehicles are automatically subtracted from the point cloud by the algorithms. According to this line, it is possible to calculate and analyze the amount of reserves, the exploited volume to evaluate the efficiency for each mine during operation with the support of UAV integrated camera.
Dane uzyskane z dronów / bezzałogowych statków powietrznych (BSP) zostały zbadane i powszechnie wykorzystane do opracowania map. Przetwarzanie danych z BSP zapewnia trzy główne produkty, a mianowicie: Model numeryczny powierzchni (MNS), chmurę punktów i ortofotomapy, w których chmura punktów jest cennym źródłem danych przy budowaniu modeli 3D i powierzchni topograficznych. Dotychczas, kwestia przetwarzania chmury punktów osobno w celu uzyskania produktów wtórnych nie wzbudziła większego zainteresowania naukowców. W artykule, przedstawiono wyniki badania nad sposobem wyznaczenia parametrów niezbędnych do opracowania metod klasyfikacji danych chmur punktów zbudowanych z obrazów BSP. W efekcie tego procesu, powstaje trójwymiarowa powierzchnia powierzchni poprzez zastosowanie opracowanego algorytmu dla danych chmury punktów w kopalni odkrywkowej. Na tej podstawie, można służyć do pomiarów inwentaryzacyjnych, bieżącej kontroli zgodności postępu eksploatacji górniczej z planem ruchu zakładu górniczego, prowadzenia pomiarów postępu frontu eksploatacji w złożu oraz frontów, obejmujących proces zdejmowania nadkładu oraz wyeksploatowanego złoża.
Źródło:
Inżynieria Mineralna; 2020, 1, 2; 49-56
1640-4920
Pojawia się w:
Inżynieria Mineralna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Inefficiency of data mining algorithms and its architecture: with emphasis to the shortcoming of data mining algorithms on the output of the researches
Autorzy:
Tesema, Workineh
Powiązania:
https://bibliotekanauki.pl/articles/118221.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
data mining
classification
clustering
association
regression
algorithms bottleneck
pozyskiwanie danych
klasyfikacja
grupowanie
asocjacja
regresja
wąskie gardło algorytmów
Opis:
This review paper presents a shortcoming associated to data mining algorithm(s) classification, clustering, association and regression which are highly used as a tool in different research communities. Data mining researches has successfully handling large amounts of dataset to solve the problems. An increase in data sizes was brought a bottleneck on algorithms to retrieve hidden knowledge from a large volume of datasets. On the other hand, data mining algorithm(s) has been unable to analysis the same rate of growth. Data mining algorithm(s) must be efficient and visual architecture in order to effectively extract information from huge amounts of data in many data repositories or in dynamic data streams. Data visualization researchers believe in the importance of giving users an overview and insight into the data distributions. The combination of the graphical interface is permit to navigate through the complexity of statistical and data mining techniques to create powerful models. Therefore, there is an increasing need to understand the bottlenecks associated with the data mining algorithms in modern architectures and research community. This review paper basically to guide and help the researchers specifically to identify the shortcoming of data mining techniques with domain area in solving a certain problems they will explore. It also shows the research areas particularly a multimedia (where data can be sequential, audio signal, video signal, spatio-temporal, temporal, time series etc) in which data mining algorithms not yet used.
Źródło:
Applied Computer Science; 2019, 15, 3; 73-86
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
CCR: A combined cleaning and resampling algorithm for imbalanced data classification
Autorzy:
Koziarski, M.
Woźniak, M.
Powiązania:
https://bibliotekanauki.pl/articles/329869.pdf
Data publikacji:
2017
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
machine learning
classification algorithms
imbalanced data
preprocessing
oversampling
uczenie maszynowe
algorytm klasyfikacji
dane niezrównoważone
wstępne przetwarzanie danych
Opis:
Imbalanced data classification is one of the most widespread challenges in contemporary pattern recognition. Varying levels of imbalance may be observed in most real datasets, affecting the performance of classification algorithms. Particularly, high levels of imbalance make serious difficulties, often requiring the use of specially designed methods. In such cases the most important issue is often to properly detect minority examples, but at the same time the performance on the majority class cannot be neglected. In this paper we describe a novel resampling technique focused on proper detection of minority examples in a two-class imbalanced data task. The proposed method combines cleaning the decision border around minority objects with guided synthetic oversampling. Results of the conducted experimental study indicate that the proposed algorithm usually outperforms the conventional oversampling approaches, especially when the detection of minority examples is considered.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2017, 27, 4; 727-736
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Signal Processing Deployment in Power Quality Disturbance Detection and Classification
Autorzy:
Dekhandji, F.
Powiązania:
https://bibliotekanauki.pl/articles/1030096.pdf
Data publikacji:
2017-09
Wydawca:
Polska Akademia Nauk. Instytut Fizyki PAN
Tematy:
power quality
detection
classification
hybrid algorithms
reliability
Opis:
Power quality disturbances have adverse impacts on the electric power supply as well as on the customer equipment. Therefore, the detection and classification of such problems is necessary. In this paper, a fast detection algorithm for power quality disturbances is presented. The proposed method is a hybrid of two algorithms, abc-0dq transformation and 90ırc phase shift algorithms. The proposed algorithm is fast and reliable in detecting most voltage disturbances in power systems such as voltage sags, voltage swells, voltage unbalance, interrupts, harmonics, etc. The three-phase utility voltages are sensed separately by each of the algorithms. These algorithms are combined to explore their individual strengths for a better performance. When a disturbance occurs, both algorithms work together to recognize this distortion. This control method can be used for critical loads protection in case of utility voltage distortion. Simulation and analysis results obtained in this study illustrate high performance of the strategy in different single-phase and three-phase voltage distortions.
Źródło:
Acta Physica Polonica A; 2017, 132, 3; 415-419
0587-4246
1898-794X
Pojawia się w:
Acta Physica Polonica A
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
SPOT-GPR: A Freeware Toolfor Target Detection and Localizationin GPR Data Developedwithin the COST Action TU1208
Autorzy:
Meschino, S.
Pajewski, L.
Powiązania:
https://bibliotekanauki.pl/articles/308799.pdf
Data publikacji:
2017
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
Direction-of-Arrival algorithms
Ground-Penetrating Radar
matched filter technique
MUltiple SIgnal Classification (MUSIC)
Sub-Array Processing
Opis:
SPOT-GPR (release 1.0) is a new freeware tool implementing an innovative Sub-Array Processing method, for the analysis of Ground-Penetrating Radar (GPR) data with the main purposes of detecting and localizing targets. The software is implemented in Matlab, it has a graphical user interface and a short manual. This work is the outcome of a series of three Short-Term Scientific Missions (STSMs) funded by European COoperation in Science and Technology (COST) and carried out in the framework of the COST Action TU1208 “Civil Engineering Applications of Ground Penetrating Radar” (www.GPRadar.eu). The input of the software is a GPR radargram (B-scan). The radargram is partitioned in subradargrams, composed of a few traces (A-scans) each. The multi-frequency information enclosed in each trace is exploited and a set of dominant Directions of Arrival (DoA) of the electromagnetic field is calculated for each sub-radargram. The estimated angles are triangulated, obtaining a pattern of crossings that are condensed around target locations. Such pattern is filtered, in order to remove a noisy background of unwanted crossings, and is then processed by applying a statistical procedure. Finally, the targets are detected and their positions are predicted. For DoA estimation, the MUltiple SIgnal Classification (MUSIC) algorithm is employed, in combination with the matched filter technique. To the best of our knowledge, this is the first time the matched filter technique is used for the processing of GPR data. The software has been tested on GPR synthetic radargrams, calculated by using the finite-difference time-domain simulator gprMax, with very good results.
Źródło:
Journal of Telecommunications and Information Technology; 2017, 3; 43-54
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adaptive modelling of spatial diversification of soil classification units
Adaptacyjne modelowanie przestrzennego zróżnicowania jednostek klasyfikacyjnych gleb
Autorzy:
Urbański, K.
Gruszczyński, S.
Powiązania:
https://bibliotekanauki.pl/articles/292945.pdf
Data publikacji:
2016
Wydawca:
Instytut Technologiczno-Przyrodniczy
Tematy:
adaptive algorithms
self-organizing map (SOM)
soil classification
Upper Silesian Industrial Region
algorytmy adaptacyjne
Górnośląski Okręg Przemysłowy (GOP)
klasyfikacja gleb
samoorganizująca mapa (SOM)
Opis:
The article presents the results of attempts to use adaptive algorithms for classification tasks different soils units. The area of study was the Upper Silesian Industrial Region, which physiographic and soils parameters in the form of digitized was used in the calculation. The study used algorithms, self-organizing map (SOM) of Kohonen, and classifiers: deep neural network, and two types of decision trees: Distributed Random Forest and Gradient Boosting Machine. Especially distributed algorithm Random Forest (algorithm DRF) showed a very high degree of generalization capabilities in modeling complex diversity of soil. The obtained results indicate, that the digitization of topographic and thematic maps give you a fairly good basis for creating useful models of soil classification. However, the results also showed that it cannot be concluded that the best algorithm presented in this research can be regarded as a general principle of system design inference.
Wraz z rozwojem technologii informatycznych następuje stopniowa zmiana podejścia do dokumentacji kartograficznej obiektów przyrodniczych, w tym gleb. Podstawowymi cechami dowolnej klasyfikacji, których przedmiotem są gleby, jest wielowymiarowość jednostek (nie ma pojedynczej właściwości, możliwej do wyznaczenia w drodze pomiaru, która wystarczałaby do jednoznacznego przypisania pedonu do określonej klasy w stosowanych skalach klasyfikacyjnych gleb), w związku z czym właściwe wydaje się wykorzystanie do tego celu dostępnych komputerowych metod przetwarzania danych. Modelowanie przestrzennego zróżnicowania gleb na podstawie przesłanek natury fizjograficznej, odtworzonych na podstawie digitalizacji istniejących materiałów kartograficznych, jest podstawą do tworzenia przestrzennych baz danych przechowywanych w wersji cyfrowej. Inaczej niż w typowej kartografii tematycznej zawierającej treści glebowo-siedliskowe, modele te wskazują na prawdopodobieństwo a priori występowania określonej jednostki glebowej w określonym położeniu, nie zaś bezwzględną przynależność terenu do niej. Taka interpretacja wymaga zbudowania stosownego algorytmu wiążącego czynniki natury geologicznej i fizjograficznej z jednostkami glebowymi. Do tego celu często wykorzystuje się tak zwane algorytmy adaptacyjne, umożliwiające elastyczne tworzenie modeli zależności bazujących na danych. W pracy przedstawiono dwa warianty doboru parametrów przetwarzania danych fizjograficzno-glebowych potencjalnie przydatnych do tych celów. Wykorzystano dane pochodzące z bazy danych fizjograficznoglebowych z rejonu GOP (Górnośląski Okręg Przemysłowy) uzyskanych w wyniku digitalizacji materiałów kartograficznych. Analizie poddano wyłącznie tereny użytków rolnych: gruntów ornych (R) i trwałych użytków zielonych (Ł i Ps). Na obszarze o powierzchni 1 km2 wyodrębniono 6,4 mln jednostek tworzących siatkę kwadratów o rozmiarach 20 × 20 m. Wykorzystane zostały algorytmy samoorganizującej mapy (SOM) Kohonena oraz klasyfikatory – głęboka sieć neuronowa, oraz dwa rodzaje drzew decyzyjnych – rozproszony las losowy (ang. Distributed Random Forest) i wzmacniane drzewa losowe (ang. Gradient Boosting Machine). Szczególnie algorytm rozproszonego lasu losowego (algorytm DRF) wykazał bardzo wysoki stopień zdolności generalizacyjnej w modelowaniu zróżnicowania kompleksów glebowych.
Źródło:
Journal of Water and Land Development; 2016, 30; 127-139
1429-7426
2083-4535
Pojawia się w:
Journal of Water and Land Development
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of selected trade classification algorithms on the warsaw stock exchange
Porównanie wybranych algorytmów klasyfikacji transakcji na giełdzie papierów wartościowych w Warszawie S.A.
Autorzy:
Olbryś, J.
Mursztyn, M.
Powiązania:
https://bibliotekanauki.pl/articles/88432.pdf
Data publikacji:
2015
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Tematy:
algorytmy klasyfikacji transakcji
dane intraday
polski rynek kapitałowy
trade classification algorithms
intraday data
Polish stock market
Opis:
Empirical equity market microstructure research often requires knowledge about trade sides. It is important to recognize the side that initiates the transaction and to distinguish between the so called buyer- and seller-initiated trades. Unfortunately, most data sets do not identify the trade direction. Therefore, researchers rely on indirect trade classification rules to infer trade sides. The aim of this paper is to implement and compare four trade classification algorithms on the Warsaw Stock Exchange (WSE). The high-frequency data for the selected WSE-listed companies covers the period from January 3, 2005 to June 30, 2015. To check the robustness of empirical results to the choice of sample, three adjacent sub-periods of equal size: the pre-crisis, crisis, and post-crisis period are analysed. The Global Financial Crisis on the WSE is formally established as the period June 2007-February 2009.
Badania empiryczne w zakresie mikrostruktury rynku często wymagają wiedzy na temat stron transakcji. Szczególnie ważna jest identyfikacja strony inicjującej transakcje oraz podział na transakcje inicjowane przez nabywcę i sprzedającego. Niestety, większość baz danych intraday nie zawiera takich informacji. Dlatego badacze korzystają z pośrednich metod klasyfikacji. Celem pracy była implementacja i porównanie czterech algorytmów klasyfikacji transakcji na Giełdzie Papierów Wartościowych w Warszawie S.A. Badanie przeprowadzono z wykorzystaniem sróddziennych danych transakcyjnych akcji trzech reprezentatywnych firm, należących do grup spółek dużych (grupa BIG), średnich (grupa MEDIUM) i małych (grupa SMALL). Były to odpowiednio spółki: KGH, MCI oraz ENP. Wszystkie charakteryzują się stosunkowo wysoką płynnością na tle grup, do których należą. Analizy objęły okres od 3 stycznia 2005 do 30 czerwca 2015, z wyróżnieniem trzech jednakowo licznych podokresów: przed kryzysem, kryzys, po kryzysie. Okres globalnego kryzysu finansowego na giełdzie warszawskiej został ustalony w sposób formalny jako przedział czasowy czerwiec 2007-luty 2009.
Źródło:
Advances in Computer Science Research; 2015, 12; 37-52
2300-715X
Pojawia się w:
Advances in Computer Science Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Methodology for the Construction of a Rule-Based Knowledge Base Enabling the Selection of Appropriate Bronze Heat Treatment Parameters Using Rough Sets
Metodyka budowy regułowej bazy wiedzy umożliwiającej dobór odpowiednich parametrów obróbki cieplnej brązów z zastosowaniem zbiorów przybliżonych
Autorzy:
Górny, Z.
Kluska-Nawarecka, S.
Wilk-Kołodziejczyk, D.
Regulski, K.
Powiązania:
https://bibliotekanauki.pl/articles/353780.pdf
Data publikacji:
2015
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
application of information technology to the foundry industry
heat treatment
classification algorithms
rough sets
data mining
zastosowanie technologii informatycznych dla przemysłu odlewniczego
obróbka cieplna
algorytm klasyfikacji
zbiory przybliżone
Opis:
Decisions regarding appropriate methods for the heat treatment of bronzes affect the final properties obtained in these materials. This study gives an example of the construction of a knowledge base with application of the rough set theory. Using relevant inference mechanisms, knowledge stored in the rule-based database allows the selection of appropriate heat treatment parameters to achieve the required properties of bronze. The paper presents the methodology and the results of exploratory research. It also discloses the methodology used in the creation of a knowledge base.
Decyzje dotyczące odpowiedniej metody obróbki cieplnej brązów mają wpływ na uzyskanie końcowych własności tych materiałów. W pracy przedstawiono przykład budowy bazy wiedzy z zastosowaniem teorii zbiorów przybliżonych. Wiedza zgromadzona w bazie reguł umożliwia za pomocą mechanizmów wnioskowania dobór odpowiednich parametrów obróbki w celu uzyskania pożądanych własności brązu.
Źródło:
Archives of Metallurgy and Materials; 2015, 60, 1; 309-312
1733-3490
Pojawia się w:
Archives of Metallurgy and Materials
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A Method to Make Classification of the Heat Treatment Processes Performed on Bronze Using Incomplete Knowledge
Autorzy:
Kluska-Nawarecka, S.
Górny, Z.
Regulski, K.
Wilk-Kołodziejczyk, D.
Jančíková, Z.
David, J.
Powiązania:
https://bibliotekanauki.pl/articles/947501.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
information technology
foundry industry
heat treatment
classification algorithms
rough sets
data mining
technologia informacyjna
przemysł odlewniczy
obróbka cieplna
algorytmy klasyfikacyjne
zbiory przybliżone
Opis:
The article describes the problem of selection of heat treatment parameters to obtain the required mechanical properties in heat- treated bronzes. A methodology for the construction of a classification model based on rough set theory is presented. A model of this type allows the construction of inference rules also in the case when our knowledge of the existing phenomena is incomplete, and this is situation commonly encountered when new materials enter the market. In the case of new test materials, such as the grade of bronze described in this article, we still lack full knowledge and the choice of heat treatment parameters is based on a fragmentary knowledge resulting from experimental studies. The measurement results can be useful in building of a model, this model, however, cannot be deterministic, but can only approximate the stochastic nature of phenomena. The use of rough set theory allows for efficient inference also in areas that are not yet fully explored.
Źródło:
Archives of Foundry Engineering; 2014, 14, 2; 69-72
1897-3310
2299-2944
Pojawia się w:
Archives of Foundry Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic vehicle classification in systems with single inductive loop detector
Autorzy:
Gajda, J.
Mielczarek, M.
Powiązania:
https://bibliotekanauki.pl/articles/221584.pdf
Data publikacji:
2014
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
inductive loop detectors
magnetic signature
vehicle classification
classification algorithms
Opis:
The work proposes a new method for vehicle classification, which allows treating vehicles uniformly at the stage of defining the vehicle classes, as well as during the classification itself and the assessment of its correctness. The sole source of information about a vehicle is its magnetic signature normalised with respect to the amplitude and duration. The proposed method allows defining a large number (even several thousand) of classes comprising vehicles whose magnetic signatures are similar according to the assumed criterion with precisely determined degree of similarity. The decision about the degree of similarity and, consequently, about the number of classes, is taken by a user depending on the classification purpose. An additional advantage of the proposed solution is the automated defining of vehicle classes for the given degree of similarity between signatures determined by a user. Thus the human factor, which plays a significant role in currently used methods, has been removed from the classification process at the stage of defining vehicle classes. The efficiency of the proposed approach to the vehicle classification problem was demonstrated on the basis of a large set of experimental data.
Źródło:
Metrology and Measurement Systems; 2014, 21, 4; 619-630
0860-8229
Pojawia się w:
Metrology and Measurement Systems
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Products and services recommendation systems in e-commerce. Recommendation methods, algorithms, and measures of their effectiveness
Autorzy:
Lasek, Mirosława
Kosieradzki, Dominik
Powiązania:
https://bibliotekanauki.pl/articles/432132.pdf
Data publikacji:
2014
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
recommendation systems
recommender systems
recommendation methods
recommendation algorithms
collaborative filtering
content-based filtering
memory-based algorithms
model-based algorithms
predictive accuracy metrics
classification accuracy metrics
Opis:
The article concerns products and services recommendation systems in ecommerce which have become increasingly important for both consumers and retailers. The methods used for the recommendation of products and services, as well as the algorithms used to implement them, are presented in the article. Particular attention was paid to the problems of testing the suitability of algorithms, along with the effectiveness measures of the applications of the methods and algorithms.
Źródło:
Informatyka Ekonomiczna; 2014, 1(31); 304-317
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies