Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "głębokie uczenie" wg kryterium: Temat


Tytuł:
An Analysis of Novel Money Laundering Data Using Heterogeneous Graph Isomorphism Networks. FinCEN Files Case Study
Wykorzystanie heterogenicznych grafowych sieci izomorficznych w analizie danych związanych z praniem brudnych pieniędzy. Studium przypadku FinCEN
Autorzy:
Wójcik, Filip
Powiązania:
https://bibliotekanauki.pl/articles/38890419.pdf
Data publikacji:
2024
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
money laundering
deep learning
machine learning
network analysis
graphs
pranie brudnych pieniędzy
uczenie głębokie
analiza sieci
grafy
Opis:
Aim: This study aimed to develop and apply the novel HexGIN (Heterogeneous extension for Graph Isomorphism Network) model to the FinCEN Files case data and compare its performance with existing solutions, such as the SAGE-based graph neural network and Multi-Layer Perceptron (MLP), to demonstrate its potential advantages in the field of anti-money laundering systems (AML). Methodology: The research employed the FinCEN Files case data to develop and apply the HexGIN model in a beneficiary prediction task for a suspicious transactions graph. The model's performance was compared with the existing solutions in a series of cross-validation experiments. Results: The experimental results on the cross-validation data and test dataset indicate the potential advantages of HexGIN over the existing solutions, such as MLP and Graph SAGE. The proposed model outperformed other algorithms in terms of F1 score, precision, and ROC AUC in both training and testing phases. Implications and recommendations: The findings demonstrate the potential of heterogeneous graph neural networks and their highly expressive architectures, such as GIN, in AML. Further research is needed, in particular to combine the proposed model with other existing algorithms and test the solution on various money-laundering datasets. Originality/value: Unlike many AML studies that rely on synthetic or undisclosed data sources, this research was based on a publicly available, real, heterogeneous transaction dataset, being part of a larger investigation. The results indicate a promising direction for the development of modern hybrid AML tools for analysing suspicious transactions; based on heterogeneous graph networks capable of handling various types of entities and their connections.
Cel: Celem niniejszej analizy jest opracowanie i zastosowanie nowego modelu HexGIN (heterogeniczne rozszerzenie dla izomorfizmu sieci grafowych) do danych z dochodzenia dziennikarskiego FinCEN oraz porównanie jego jakości predykcji z istniejącymi rozwiązaniami, takimi jak sieć SAGE i wielowarstwowa sieć neuronowa (MLP). Metodyka: W badaniach wykorzystano dane ze śledztwa FinCEN do opracowania i zastosowania modelu HexGIN w zadaniu przewidywania beneficjenta sieci powiązanych transakcji finansowych. Skuteczność modelu porównano z istniejącymi rozwiązaniami wykorzystującymi sieci neuronowe grafu w serii eksperymentów z walidacją krzyżową. Wyniki: Eksperymentalne wyniki na danych walidacji krzyżowej i zestawie testowym potwierdzają potencjalne zalety HexGIN w porównaniu z istniejącymi rozwiązaniami, takimi jak MLP i SAGE. Proponowany model przewyższa inne algorytmy pod względem wyniku miary F1, precyzji i ROC AUC, w fazie zarówno treningowej, jak i testowej. Implikacje i rekomendacje: Wyniki pokazują potencjał heterogenicznych grafowych sieci i ich wysoce ekspresyjnych implementacji, takich jak GIN, w analizie transakcji finansowych. Potrzebne są dalsze badania, zwłaszcza w celu połączenia proponowanego modelu z innymi istniejącymi algorytmami i przetestowania rozwiązania na różnych zestawach danych dotyczących problemu prania brudnych pieniędzy. Oryginalność/wartość: W przeciwieństwie do wielu badań, które opierają się na syntetycznych lub nieujawnionych źródłach danych związanych z praniem brudnych pieniędzy, to studium przypadku opiera się na publicznie dostępnych, rzeczywistych, heterogenicznych danych transakcyjnych, będących częścią większego śledztwa dziennikarskiego. Wyniki wskazują obiecujący kierunek dla rozwoju nowoczesnych hybrydowych narzędzi do analizy podejrzanych transakcji, opartych na heterogenicznych sieciach grafowych.
Źródło:
Econometrics. Ekonometria. Advances in Applied Data Analytics; 2024, 28, 2; 32-49
1507-3866
Pojawia się w:
Econometrics. Ekonometria. Advances in Applied Data Analytics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza potencjału ataków wykorzystujących syntetycznie wygenerowane głosy na systemy biometrycznej weryfikacji mówców oraz wykrywania materiałów deepfake
Autorzy:
Bartuzi-Trokielewicz, Ewelina
Powiązania:
https://bibliotekanauki.pl/articles/31342041.pdf
Data publikacji:
2024-05-20
Wydawca:
Akademia Sztuki Wojennej
Tematy:
cyberbezpieczeństwo
biometria
weryfikacja mówców
audio deepfake
syntetyczne głosy
metody sztucznej inteligencji
uczenie maszynowe
uczenie głębokie
Opis:
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do rozwoju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod konwersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.
Źródło:
Cybersecurity and Law; 2024, 12, 2; 25-36
2658-1493
Pojawia się w:
Cybersecurity and Law
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A BIM technology-based underwater structure damage identification and management method
Autorzy:
Li, Xiaofei
Su, Rongrong
Cheng, Peng
Sun, Heming
Meng, Qinghang
Song, Taiyi
Wei, Mengpu
Zhang, Chen
Powiązania:
https://bibliotekanauki.pl/articles/2204531.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
building information modeling
underwater structural disease
damage identification
deep learning
modelowanie informacji o budynku
identyfikacja uszkodzeń
uczenie głębokie
uszkodzenie podwodnej konstrukcji
Opis:
With the continuous development of bridge technology, the condition assessment of large bridges has gradually attracted attention. Structural Health Monitoring (SHM) technology provides valuable information about a structure's existing health, keeping it safe and uninterrupted use under various operating conditions by mitigating risks and hazards on time. At the same time, the problem of bridge underwater structure disease is becoming more obvious, affecting the safe operation of the bridge structure. It is necessary to test the bridge’s underwater structure. This paper develops a bridge underwater structure health monitoring system by combining building information modeling (BIM) and an underwater structure damage algorithm. This paper is verified by multiple image recognition networks, and compared with the advantages of different networks, the YOLOV4 network is used as the main body to improve, and a lightweight convolutional neural network (Lite-yolov4) is built. At the same time, the accuracy of disease identification and the performance of each network are tested in various experimental environments, and the reliability of the underwater structure detection link is verified.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2023, 71, 2; art. no. e144602
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A genetic algorithm based optimized convolutional neural network for face recognition
Autorzy:
Karlupia, Namrata
Mahajan, Palak
Abrol, Pawanesh
Lehana, Parveen K.
Powiązania:
https://bibliotekanauki.pl/articles/2201023.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
convolutional neural network
genetic algorithm
deep learning
evolutionary technique
sieć neuronowa konwolucyjna
algorytm genetyczny
uczenie głębokie
technika ewolucyjna
Opis:
Face recognition (FR) is one of the most active research areas in the field of computer vision. Convolutional neural networks (CNNs) have been extensively used in this field due to their good efficiency. Thus, it is important to find the best CNN parameters for its best performance. Hyperparameter optimization is one of the various techniques for increasing the performance of CNN models. Since manual tuning of hyperparameters is a tedious and time-consuming task, population based metaheuristic techniques can be used for the automatic hyperparameter optimization of CNNs. Automatic tuning of parameters reduces manual efforts and improves the efficiency of the CNN model. In the proposed work, genetic algorithm (GA) based hyperparameter optimization of CNNs is applied for face recognition. GAs are used for the optimization of various hyperparameters like filter size as well as the number of filters and of hidden layers. For analysis, a benchmark dataset for FR with ninety subjects is used. The experimental results indicate that the proposed GA-CNN model generates an improved model accuracy in comparison with existing CNN models. In each iteration, the GA minimizes the objective function by selecting the best combination set of CNN hyperparameters. An improved accuracy of 94.5% is obtained for FR.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2023, 33, 1; 21--31
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Anonymous traffic classification based on three-dimensional Markov image and deep learning
Autorzy:
Tang, Xin
Li, Huanzhou
Zhang, Jian
Tang, Zhangguo
Wang, Han
Cai, Cheng
Powiązania:
https://bibliotekanauki.pl/articles/27311448.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
anonymous network
traffic classification
three-dimensional Markov image
output self-attention
deep learning
sieć anonimowa
klasyfikacja ruchu
trójwymiarowy obraz Markowa
samouwaga wyjściowa
uczenie głębokie
Opis:
Illegal elements use the characteristics of an anonymous network hidden service mechanism to build a dark network and conduct various illegal activities, which brings a serious challenge to network security. The existing anonymous traffic classification methods suffer from cumbersome feature selection and difficult feature information extraction, resulting in low accuracy of classification. To solve this problem, a classification method based on three-dimensional Markov images and output self-attention convolutional neural network is proposed. This method first divides and cleans anonymous traffic data packets according to sessions, then converts the cleaned traffic data into three-dimensional Markov images according to the transition probability matrix of bytes, and finally inputs the images to the output self-attention convolution neural network to train the model and perform classification. The experimental results show that the classification accuracy and F1-score of the proposed method for Tor, I2P, Freenet, and ZeroNet can exceed 98.5%, and the average classification accuracy and F1-score for 8 kinds of user behaviors of each type of anonymous traffic can reach 93.7%. The proposed method significantly improves the classification effect of anonymous traffic compared with the existing methods.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2023, 71, 4; art. no. e145676
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of deep learning techniques in identification of the structure of selected road materials
Zastosowanie techniki głębokiego uczenia do identyfikacji struktury wybranych materiałów drogowych
Autorzy:
Mazurek, Grzegorz
Durlej, Małgorzata
Šrámek, Juraj
Powiązania:
https://bibliotekanauki.pl/articles/27314909.pdf
Data publikacji:
2023
Wydawca:
Politechnika Świętokrzyska w Kielcach. Wydawnictwo PŚw
Tematy:
deep learning
tomograph
R programming language
classification
road surfaces
correlation
digital image
głębokie uczenie
tomograf
język programowania R
klasyfikacja
nawierzchnie drogowe
korelacja
obraz cyfrowy
Opis:
In research, there is a growing interest in using artificial intelligence to find solutions to difficult scientific problems. In this paper, a deep learning algorithm has been applied using images of samples of materials used for road surfaces. The photographs showed cross-sections of random samples taken with a CT scanner. Historical samples were used for the analysis, located in a database collecting information over many years. The deep learning analysis was performed using some elements of the VGG16 network architecture and implemented using the R language. The learning and training data were augmented and cross-validated. This resulted in the high level of 96.4% quality identification of the sample type and its selected structural features. The photographs in the identification set were correctly identified in terms of structure, mix type and grain size. The trained model identified samples in the domain of the dataset used for training in a very good way. As a result, in the future such a methodology may facilitate the identification of the type of mixture, its basic properties and defects.
W badaniach naukowych obserwuje się coraz większe zainteresowanie wykorzystaniem sztucznej inteligencji do poszukiwania rozwiązań trudnych problemów naukowych. W niniejszym artykule został zastosowany algorytm głębokiego uczenia z użyciem obrazów próbek materiałów wykorzystywanych do budowy nawierzchni drogowych. Fotografie przedstawiały przekroje losowych próbek wykonane za pomocą tomografu komputerowego. Do analizy wykorzystano próbki historyczne, znajdujące się w bazie danych zbierającej informacje z wielu lat. Analizę głębokiego uczenia wykonano przy użyciu niektórych elementów architektury sieci VGG16 i zaimplementowano, stosując język R. Dane uczące oraz treningowe poddano augmentacji oraz walidacji krzyżowej. W rezultacie uzyskano wysoki poziom 96,4% jakości identyfikacji rodzaju próbki oraz jej wybranych cech strukturalnych. Fotografie w zbiorze identyfikacyjnym zostały poprawnie zidentyfikowane pod względem struktury, typu mieszanki oraz uziarnienia. Wytrenowany model w bardzo dobry sposób zidentyfikował próbki w obszarze dziedziny trenowanego zbioru danych. W rezultacie taka metodyka może w przyszłości ułatwić identyfikację rodzaju mieszanki, jej podstawowych właściwości oraz defektów.
Źródło:
Structure and Environment; 2023, 15, 3; 159--167
2081-1500
Pojawia się w:
Structure and Environment
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Automatic detection of Alzheimers disease based on artificial intelligence
Automatyczne wykrywanie choroby Alzheimera w oparciu o sztuczną inteligencję
Autorzy:
Benba, Achraf
Abdelilah, Kerchaoui
Powiązania:
https://bibliotekanauki.pl/articles/27315370.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
Alzheimer’s disorder
artificial intelligence
deep learning
signal processing
choroba Alzheimera
sztuczna inteligencja
głębokie uczenie się
przetwarzanie sygnału
Opis:
Alzheimer's disease is a neurodegenerative disease that progressively destroys neurons through the formation of platelets that prevent communication between neurons. The study carried out in this project aims to find a precise and relevant diagnostic solution based on artificial intelligence and which helps in the early detection of Alzheimer's disease in order to stop its progression. The study went through a process of processing MRI images followed by training of three deep learning algorithms (VGG-19, Xception and DenseNet121) and finally by a step of testing and predicting the results. The results of the accuracy metric obtained for the three algorithms were respectively 98%, 95%, 91%.
Choroba Alzheimera jest chorobą neurodegeneracyjną, która stopniowo niszczy neurony poprzez tworzenie płytek krwi, które uniemożliwiają komunikację między neuronami. Badania prowadzone w ramach tego projektu mają na celu znalezienie precyzyjnego i trafnego rozwiązania diagnostycznego opartego na sztucznej inteligencji, które pomoże we wczesnym wykryciu choroby Alzheimera w celu zatrzymania jej postępu. Badanie przeszło przez proces przetwarzania obrazów MRI, po którym następowało szkolenie trzech algorytmów głębokiego uczenia (VGG-19, Xception i DenseNet121), a na koniec etap testowania i przewidywania wyników. Wyniki metryki dokładności otrzymane dla trzech algorytmów wyniosły odpowiednio 98%, 95%, 91%.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2023, 13, 1; 18--21
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Classification and segmentation of periodontal cystfor digital dental diagnosis using deep learning
Autorzy:
Lakshmi, T. K.
Dheeba, J.
Powiązania:
https://bibliotekanauki.pl/articles/38700996.pdf
Data publikacji:
2023
Wydawca:
Instytut Podstawowych Problemów Techniki PAN
Tematy:
CNN
dental radiograph
deep learning
health care
machine transfer learning
periodontal cyst
predictive analytics
segmentation
U-Net
VGG16
rentgenowskie zdjęcie zębów
uczenie głębokie
opieka zdrowotna
uczenie się z transferu maszynowego
torbiel przyzębia
analityka predykcyjna
segmentacja
Opis:
The digital revolution is changing every aspect of life by simulating the ways humansthink, learn and make decisions. Dentistry is one of the major fields where subsets ofartificial intelligence are extensively used for disease predictions. Periodontitis, the mostprevalent oral disease, is the main focus of this study. We propose methods for classifyingand segmenting periodontal cysts on dental radiographs using CNN, VGG16, and U-Net.Accuracy of 77.78% is obtained using CNN, and enhanced accuracy of 98.48% is obtainedthrough transfer learning with VGG16. The U-Net model also gives encouraging results.This study presents promising results, and in the future, the work can be extended withother pre-trained models and compared. Researchers working in this field can develop novelmethods and approaches to support dental practitioners and periodontists in decision-making and diagnosis and use artificial intelligence to bridge the gap between humansand machines.
Źródło:
Computer Assisted Methods in Engineering and Science; 2023, 30, 2; 131-149
2299-3649
Pojawia się w:
Computer Assisted Methods in Engineering and Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Constant Q-transform-based deep learning architecture for detection of obstructive sleep apnea
Autorzy:
Kandukuri, Usha Rani
Prakash, Allam Jaya
Patro, Kiran Kumar
Neelapu, Bala Chakravarthy
Tadeusiewicz, Ryszard
Pławiak, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/24200694.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
sleep apnea
convolutional neural network
constant Q-transform
deep learning
single lead ECG signal
non apnea
obstructive sleep apnea
bezdech senny
sieć neuronowa konwolucyjna
uczenie głębokie
sygnał EKG
obturacyjny bezdech senny
Opis:
Obstructive sleep apnea (OSA) is a long-term sleep disorder that causes temporary disruption in breathing while sleeping. Polysomnography (PSG) is the technique for monitoring different signals during the patient’s sleep cycle, including electroencephalogram (EEG), electromyography (EMG), electrocardiogram (ECG), and oxygen saturation (SpO2). Due to the high cost and inconvenience of polysomnography, the usefulness of ECG signals in detecting OSA is explored in this work, which proposes a two-dimensional convolutional neural network (2D-CNN) model for detecting OSA using ECG signals. A publicly available apnea ECG database from PhysioNet is used for experimentation. Further, a constant Q-transform (CQT) is applied for segmentation, filtering, and conversion of ECG beats into images. The proposed CNN model demonstrates an average accuracy, sensitivity and specificity of 91.34%, 90.68% and 90.70%, respectively. The findings obtained using the proposed approach are comparable to those of many other existing methods for automatic detection of OSA.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2023, 33, 3; 493--506
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Deep Learning for Small and Tiny Object Detection: A Survey
Przegląd metod uczenia głębokiego w wykrywaniu małych i bardzo małych obiektów
Autorzy:
Kos, Aleksandra
Belter, Dominik
Majek, Karol
Powiązania:
https://bibliotekanauki.pl/articles/27312454.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
Deep Learning
Small Object Detection
Tiny Object Detection
Tiny Object Detection Datasets
Tiny Object Detection Methods
uczenie głębokie
wykrywanie małych obiektów
wykrywanie bardzo małych obiektów
zbiory danych bardzo małych obiektów
metody wykrywania bardzo małych obiektów
Opis:
In recent years, thanks to the development of Deep Learning methods, there has been significant progress in object detection and other computer vision tasks. While generic object detection is becoming less of an issue for modern algorithms, with the Average Precision for medium and large objects in the COCO dataset approaching 70 and 80 percent, respectively, small object detection still remains an unsolved problem. Limited appearance information, blurring, and low signal-to-noise ratio cause state-of-the-art general detectors to fail when applied to small objects. Traditional feature extractors rely on downsampling, which can cause the smallest objects to disappear, and standard anchor assignment methods have proven to be less effective when used to detect low-pixel instances. In this work, we perform an exhaustive review of the literature related to small and tiny object detection. We aggregate the definitions of small and tiny objects, distinguish between small absolute and small relative sizes, and highlight their challenges. We comprehensively discuss datasets, metrics, and methods dedicated to small and tiny objects, and finally, we make a quantitative comparison on three publicly available datasets.
W ostatnich latach, dzięki rozwojowi metod uczenia głębokiego, dokonano znacznego postępu w detekcji obiektów i innych zadaniach widzenia maszynowego. Mimo że ogólne wykrywanie obiektów staje się coraz mniej problematyczne dla nowoczesnych algorytmów, a średnia precyzja dla średnich i dużych instancji w zbiorze COCO zbliża się odpowiednio do 70 i 80 procent, wykrywanie małych obiektów pozostaje nierozwiązanym problemem. Ograniczone informacje o wyglądzie, rozmycia i niski stosunek sygnału do szumu powodują, że najnowocześniejsze detektory zawodzą, gdy są stosowane do małych obiektów. Tradycyjne ekstraktory cech opierają się na próbkowaniu w dół, które może powodować zanikanie najmniejszych obiektów, a standardowe metody przypisania kotwic są mniej skuteczne w wykrywaniu instancji o małej liczbie pikseli. W niniejszej pracy dokonujemy wyczerpującego przeglądu literatury dotyczącej wykrywania małych i bardzo małych obiektów. Przedstawiamy definicje, rozróżniamy małe wymiary bezwzględne i względne oraz podkreślamy związane z nimi wyzwania. Kompleksowo omawiamy zbiory danych, metryki i metody, a na koniec dokonujemy porównania ilościowego na trzech publicznie dostępnych zbiorach danych.
Źródło:
Pomiary Automatyka Robotyka; 2023, 27, 3; 85--94
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Early detection and localization of stator inter-turn short circuit faults based on variational mode decomposition and deep learning in induction motor
Autorzy:
Guedidi, Asma
Laala, Widad
Guettaf, Abderrazak
Arif, Ali
Powiązania:
https://bibliotekanauki.pl/articles/27313828.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Polskie Towarzystwo Diagnostyki Technicznej PAN
Tematy:
convolutional neural networks
CNNs
deep learning
short circuit fault diagnosis
variational mode decomposition
information map
silnik indukcyjny
konwolucyjne sieci neuronowe
uczenie głębokie
mapa informacyjna
Opis:
The existing diagnostic techniques for detecting inter-turn short circuits (ITSCs) in induction motors face two primary challenges. Firstly, they suffer from reduced sensitivity, often failing to detect ITSCs when only a few turns are short-circuited. Secondly, their reliability are compromised by load fluctuations, leading to false alarms even in the absence of actual faults. To address these issues, a novel intelligent approach to diagnose ITSC fault is proposed. Indeed, this method encompasses three core components: a novel multi-sensor fusion technique, a knowledge map, and enhanced Convolutional Neural Networks (CNNs). First, the raw data collected from multiple sensors undergoes a transformation into 2D data using a novel image transformation based on Hilbert transform (HT) and variational mode decomposition (VMD), which is concatenate to a novel information map including frequency fault information and rotational speed. Then, this 3D multi information image is used as input to an improvement CNN model that apply a transfer learning for an enhanced version of SqueezNet with incorporating a novel attention mechanism module to precisely identify fault features. Experimental results and performance comparisons demonstrate that the proposed model attains high performance surpassing other Deep Learning (DL) methods in terms of accuracy. In addition, the model has consistently demonstrated its ability to make precise predictions and accurately classify fault severity, even under different working conditions.
Źródło:
Diagnostyka; 2023, 24, 4; art. no. 2023401
1641-6414
2449-5220
Pojawia się w:
Diagnostyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hybrid deep learning method for detection of liver cancer
Autorzy:
Deshmukh, Sunita P.
Choudhari, Dharmaveer
Amalraj, Shankar
Matte, Pravin N.
Powiązania:
https://bibliotekanauki.pl/articles/38701864.pdf
Data publikacji:
2023
Wydawca:
Instytut Podstawowych Problemów Techniki PAN
Tematy:
liver cancer detection
deep learning
fully convolutional neural network
hybrid approach
discrete wavelet transform
wykrywanie raka wątroby
uczenie głębokie
neuronowa sieć konwulcyjna
podejście hybrydowe
dyskretna transformata falkowa
Opis:
Liver disease refers to any liver irregularity causing its damage. There are several kinds of liver ailments. Benign growths are rarely life threatening and can be removed by specialists. Liver malignant tumor is leading causes of cancer death. Identifying malignant growth tissue is a troublesome and tedious task. There is significantly less information and statistical analysis presented related to cholangiocarcinoma and hepatoblastoma. This research focuses on the image analysis of these two types of cancer. The framework’s performance is evaluated using 2871 images, and a dual hybrid model is used to accomplish superb exactness. The aftereffects of both neural networks are sent into the result prioritizer that decides the most ideal choice for image arrangement. The relevance of elements appears to address the appropriate imaging rules for each class, and feature maps matching the original picture voxel features. The significance of features represents the most important imaging criteria for each class. This deep learning system demonstrates the concept of illuminating elements of a pre-trained deep neural network’s decision-making process by an examination of inner layers and the description of attributes that contribute to predictions.
Źródło:
Computer Assisted Methods in Engineering and Science; 2023, 30, 2; 151-165
2299-3649
Pojawia się w:
Computer Assisted Methods in Engineering and Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Internet rzeczy i modele uczenia głębokiego w zrównoważonym rozwoju inteligentnych miast
Internet of Things and Deep Learning Models for Sustainable Development of Smart Cities
Autorzy:
Balicka, Honorata
Powiązania:
https://bibliotekanauki.pl/articles/35054201.pdf
Data publikacji:
2023
Wydawca:
Uniwersytet Gdański. Wydział Ekonomiczny
Tematy:
: Smart City
Green Economy
Internet of Things
Deep Learning
Smart City
Ekologiczna Gospodarka
Internet Rzeczy
Uczenie Głębokie
Opis:
Celem artykułu jest scharakteryzowanie kierunków zrównoważonego rozwoju inteligentnych miast w oparciu o wykorzystanie Internetu Rzeczy oraz modeli uczenia głębokiego. Zdaniem autorki taka strategia stwarza ogromną szansę na uniknięcie kryzysu w dużych miastach, wynikającego z negatywnych skutków pandemii, zagęszczania miast, zmian klimatycznych oraz zanieczyszczenia środowiska. W literaturze przedmiotu istnieje w tym zakresie luka, ponieważ brakuje jasnych koncepcji, jak wykorzystać wybrane technologie do zrównoważonego rozwoju inteligentnych miast. Z powyższych względów w artykule rozważa się strategie zastosowania Internetu Rzeczy oraz uczenia głębokiego, opartego na sieciach neuronowych do zwiększenia efektywności funkcjonowania miasta oraz poprawy jakości życia mieszkańców, dbając jednocześnie o środowisko naturalne. Scharakteryzowano zintegrowany system zarzadzania miastem z zastosowaniem inteligentnych i ekologicznych technologii. Rolę i znaczenie Internetu Rzeczy opisano w kontekście zarządzania krytycznymi zasobami miasta. Natomiast zagadnienia związane z modelami uczenia głębokiego zaprezentowano pod kątem możliwości doskonalenia predykcji i przewidywania wyników. Przedstawiono rozważania dotyczące szczególnego przypadku architektury głębokiego uczenia opartej na sztucznych sieciach neuronowych (ANN). Rekurencyjne ANN klasy LSTM zweryfikowano pod kątem inwestycji finansowych na giełdzie. Na zakończenie przedstawiono konkluzje i planowane przyszłe prace. Wnioski wyciągnięte na podstawie przeprowadzonych badań jednoznacznie wskazują, że Internet Rzeczy oraz modele uczenia głębokiego odgrywają istotną rolę w zrównoważonym rozwoju inteligentnych miast.
The aim of the article is to characterize the directions of sustainable development of smart cities based on the use of the Internet of Things and deep learning models. According to the author, such a strategy creates a great opportunity to avoid the crisis in large cities resulting from the negative effects of the pandemic, urban density, climate change and environmental pollution. There is a gap in the literature on the subject, because there are no clear concepts on how to use selected technologies for the sustainable development of smart cities. For the above reasons, the article considers the strategies of using the Internet of Things and deep learning based on neural networks to increase the efficiency of the city's functioning and improve the quality of life of residents, while caring for the natural environment. An integrated city management system with the use of intelligent and ecological technologies has been characterized. The role and importance of the Internet of Things has been described in the context of managing critical city resources. On the other hand, issues related to deep learning models were presented in terms of the possibility of improving prediction and predicting results. Considerations on a special case of a deep learning architecture based on artificial neural networks (ANN) are presented. Recursive ANNs of the LSTM class were verified in terms of financial investments on the stock exchange. Finally, conclusions and planned future work were presented. The conclusions drawn on the basis of the conducted research clearly indicate that the IoT and deep learning models play an important role in the sustainable development of smart cities.
Źródło:
Współczesna Gospodarka; 2023, 16, 1 (40); 27-43
2082-677X
Pojawia się w:
Współczesna Gospodarka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Machine learning-based business rule engine data transformation over high-speed networks
Autorzy:
Neelima, Kenpi
Vasundra, S.
Powiązania:
https://bibliotekanauki.pl/articles/38700094.pdf
Data publikacji:
2023
Wydawca:
Instytut Podstawowych Problemów Techniki PAN
Tematy:
CRISP-DM
data mining algorithms
business rule
prediction
classification
machine learning
deep learning
AI design
algorytmy eksploracji danych
reguła biznesowa
prognoza
klasyfikacja
nauczanie maszynowe
uczenie głębokie
projekt Sztucznej Inteligencji
Opis:
Raw data processing is a key business operation. Business-specific rules determine howthe raw data should be transformed into business-required formats. When source datacontinuously changes its formats and has keying errors and invalid data, then the effectiveness of the data transformation is a big challenge. The conventional data extraction andtransformation technique produces a delay in handling such data because of continuousfluctuations in data formats and requires continuous development of a business rule engine.The best business rule engines require near real-time detection of business rule and datatransformation mechanisms utilizing machine learning classification models. Since data iscombined from numerous sources and older systems, it is challenging to categorize andcluster the data and apply suitable business rules to turn raw data into the business-required format. This paper proposes a methodology for designing ensemble machine learning techniques and approaches for classifying and segmenting registered numbersof registered title records to choose the most suitable business rule that can convert theregistered number into the format the business expects, allowing businesses to provide customers with the most recent data in less time. This study evaluates the suggested modelby gathering sample data and analyzing classification machine learning (ML) models todetermine the relevant business rule. Experimentation employed Python, R, SQL storedprocedures, Impala scripts, and Datameer tools.
Źródło:
Computer Assisted Methods in Engineering and Science; 2023, 30, 1; 55-71
2299-3649
Pojawia się w:
Computer Assisted Methods in Engineering and Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Smart optimizer selection technique:a comparative study of modified DensNet201 with other deep learning models
Inteligentna technika wyboru optymalizatora: badanie porównawcze zmodyfikowanego modelu DensNet201 z innymi modelami głębokiego uczenia
Autorzy:
Manguri, Kamaran
Mohammed, Aree Ali
Powiązania:
https://bibliotekanauki.pl/articles/27315461.pdf
Data publikacji:
2023
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
deep learning
optimization technique
transfer learning
customized dataset
modified DenseNet201
głębokie uczenie
technika optymalizacji
uczenie transferowe
dostosowany zbiór danych
zmodyfikowany DenseNet201
Opis:
The rapid growth and development of AI-based applications introduce a wide range of deep and transfer learning model architectures. Selecting an optimal optimizer is still challenging to improve any classification type's performance efficiency and accuracy. This paper proposes an intelligent optimizer selection technique using a newsearch algorithm to overcome this difficulty. A dataset used in this work was collected and customizedfor controlling and monitoring roads, especially when emergency vehicles are approaching. In this regard, several deep and transfer learning models havebeen compared for accurate detection and classification. Furthermore, DenseNet201 layers are frizzed to choose the perfect optimizer. The main goalis to improve the performance accuracy of emergency car classification by performing the test of various optimization methods, including (Adam, Adamax, Nadam, and RMSprob). The evaluation metrics utilized for the model’s comparison with other deep learning techniques are basedon classification accuracy, precision, recall, and F1-Score. Test results show that the proposed selection-based optimizer increased classification accuracy and reached 98.84%.
Szybki wzrost i rozwój aplikacji opartych na sztucznej inteligencji wprowadzają szeroki zakres architektur modeli głębokiego uczeniai uczenia transferowego. Wybór optymalnego optymalizatora wciąż stanowi wyzwanie w celu poprawy wydajności i dokładności każdego rodzaju klasyfikacji. W niniejszej pracy proponowana jest inteligentna technika wyboru optymalizatora, wykorzystująca nowy algorytm wyszukiwania,aby pokonać to wyzwanie. Zbiór danych użyty w tej pracy został zebrany i dostosowany do celów kontroli i monitorowania dróg, zwłaszcza w sytuacjach, gdy zbliżają się pojazdy ratunkowe. W tym kontekście porównano kilka modeli głębokiego uczenia i uczenia transferowego w celu dokładnej detekcjii klasyfikacji. Ponadto, warstwy DenseNet201 zostały zamrożone, aby wybrać optymalizatora idealnego. Głównym celem jest poprawa dokładności klasyfikacji samochodów ratunkowych poprzez przeprowadzenie testów różnych metod optymalizacji, w tym (Adam, Adamax, Nadam i RMSprob). Metryki oceny wykorzystane do porównania modelu z innymi technikami głębokiego uczenia opierają się na dokładności klasyfikacji, precyzji, czułości i miarze F1. Wyniki testów pokazują, że zaproponowany optymalizator oparty na wyborze zwiększył dokładność klasyfikacji i osiągnął wynik na poziomie 98,84%.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2023, 13, 4; 39--43
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies