Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "feature fusion" wg kryterium: Wszystkie pola


Tytuł:
A Scheme for Template Security at Feature Fusion Level in Multimodal Biometric System
Autorzy:
Selwal, A.
Gupta, S. K.
Kumar, S.
Powiązania:
https://bibliotekanauki.pl/articles/102518.pdf
Data publikacji:
2016
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
feature template
biometric data
feature vectors
multimodal biometrics
fuzzy sets
database
feature fusion
Opis:
Biometrics is the science of human recognition by means of their biological, chemical or behavioural traits. These systems are used in many real life applications simply from biometric based attendance system to providing security at a very sophisticated level. A biometric system deals with raw data captured using a sensor and feature template extracted from raw image. One of the challenges being faced by designers of these systems is to secure template data extracted from the biometric modalities of the user and protect the raw images. In order to minimize spoof attacks on biometric systems by unauthorised users one of the solutions is to use multi-biometric systems. Multi-modal biometric system works by using fusion technique to merge feature templates generated from different modalities of the human. In this work, a novel scheme is proposed to secure template during feature fusion level. The scheme is based on union operation of fuzzy relations of templates of modalities during fusion process of multimodal biometric systems. This approach serves dual purpose of feature fusion as well as transformation of templates into a single secured non invertible template. The proposed technique is irreversible, diverse and experimentally tested on a bimodal biometric system comprising of fingerprint and hand geometry. The given scheme results into significant improvement in the performance of the system with lower equal error rate and improvement in genuine acceptance rate.
Źródło:
Advances in Science and Technology. Research Journal; 2016, 10, 31; 23-30
2299-8624
Pojawia się w:
Advances in Science and Technology. Research Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Intelligent fault diagnosis of rolling bearings based on continuous wavelet transform-multiscale feature fusion and improved channel attention mechanism
Autorzy:
Zhang, Jiqiang
Kong, Xiangwei
Cheng, Liu
Qi, Haochen
Yu, Mingzhu
Powiązania:
https://bibliotekanauki.pl/articles/24200817.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
deep learning
continuous wavelet transform
improved channel attention mechanism
multi-conditions
convolutional neural network
Opis:
Accurate fault diagnosis is critical to operating rotating machinery safely and efficiently. Traditional fault information description methods rely on experts to extract statistical features, which inevitably leads to the problem of information loss. As a result, this paper proposes an intelligent fault diagnosis of rolling bearings based on a continuous wavelet transform(CWT)-multiscale feature fusion and an improved channel attention mechanism. Different from traditional CNNs, CWT can convert the 1-D signals into 2-D images, and extract the wavelet power spectrum, which is conducive to model recognition. In this case, the multiscale feature fusion was implemented by the parallel 2-D convolutional neural networks to accomplish deeper feature fusion. Meanwhile, the channel attention mechanism is improved by converting from compressed to extended ways in the excitation block to better obtain the evaluation score of the channel. The proposed model has been validated using two bearing datasets, and the results show that it has excellent accuracy compared to existing methods.
Źródło:
Eksploatacja i Niezawodność; 2023, 25, 1; art. no. 16
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on Scattering Feature Extraction of Underwater Moving Cluster Targets Based on the Highlight Model
Autorzy:
Yang, Yang
Fan, Jun
Wang, Bing
Powiązania:
https://bibliotekanauki.pl/articles/31339855.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Czasopisma i Monografie PAN
Tematy:
motion small cluster targets
feature fusion
azimuth trend scale
azimuth trend Doppler
Opis:
In detecting cluster targets in ports or near-shore waters, the echo amplitude is seriously disturbed by interface reverberation, which leads to the distortion of the traditional target intensity characteristics, and the appearance of multiple targets in the same or adjacent beam leads to fuzzy feature recognition. Studying and extracting spatial distribution scale and motion features that reflect the information on cluster targets physics can improve the representation accuracy of cluster target characteristics. Based on the highlight model of target acoustic scattering, the target azimuth tendency is accurately estimated by the splitting beam method to fit the spatial geometric scale formed by multiple highlights. The instantaneous frequencies of highlights are extracted from the time-frequency domain, the Doppler shift of the highlights is calculated, and the motion state of the highlights is estimated. Based on the above processing method, target highlights’ orientation, spatial scale and motion characteristics are fused, and the multiple moving highlights of typical formation distribution in the same beam are accurately identified. The features are applied to processing acoustic scattering data of multiple moving unmanned underwater vehicles (UUVs) on a lake. The results show that multiple small moving underwater targets can be effectively recognized according to the highlight scattering characteristics.
Źródło:
Archives of Acoustics; 2023, 48, 3; 235-247
0137-5075
Pojawia się w:
Archives of Acoustics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
MFFNet: A multi-frequency feature extraction and fusion network for visual processing
Autorzy:
Deng, Jinsheng
Zhang, Zhichao
Yin, Xiaoqing
Powiązania:
https://bibliotekanauki.pl/articles/2173678.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
deblurring
multi-feature fusion
deep learning
attention mechanism
rozmywanie
fuzja wielu funkcji
głęboka nauka
mechanizm uwagi
Opis:
Convolutional neural networks have achieved tremendous success in the areas of image processing and computer vision. However, they experience problems with low-frequency information such as semantic and category content and background color, and high-frequency information such as edge and structure. We propose an efficient and accurate deep learning framework called the multi-frequency feature extraction and fusion network (MFFNet) to perform image processing tasks such as deblurring. MFFNet is aided by edge and attention modules to restore high-frequency information and overcomes the multiscale parameter problem and the low-efficiency issue of recurrent architectures. It handles information from multiple paths and extracts features such as edges, colors, positions, and differences. Then, edge detectors and attention modules are aggregated into units to refine and learn knowledge, and efficient multi-learning features are fused into a final perception result. Experimental results indicate that the proposed framework achieves state-of-the-art deblurring performance on benchmark datasets.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 3; art. no. e140466
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on stacked ore detection based on improved Mask RCNN under complex background
Badania nad wykrywaniem usypanej (stos) rudy w oparciu o ulepszoną maskę RCNN w złożonym tle
Autorzy:
Zhou, Hehui
Cai, Gaipin
Liu, Shun
Powiązania:
https://bibliotekanauki.pl/articles/2203302.pdf
Data publikacji:
2023
Wydawca:
Polska Akademia Nauk. Instytut Gospodarki Surowcami Mineralnymi i Energią PAN
Tematy:
feature fusion
Mask RCNN
feature pyramid
ore detection
połączenie funkcji
maska RCNN
piramida funkcji
wykrywanie rudy
Opis:
In order to achieve accurate identification and segmentation of ore under complex working conditions, machine vision and neural network technology are used to carry out intelligent detection research on ore, an improved Mask RCNN instance segmentation algorithm is proposed. Aiming at the problem of misidentification of stacked ores caused by the loss of deep feature details during the feature extraction process of ore images, an improved Multipath Feature Pyramid Network (MFPN) was proposed. The network firstly adds a single bottom-up feature fusion path, and then adds with the top-down feature fusion path of the original algorithm, which can enrich the deep feature details and strengthen the fusion of the network to the feature layer, and improve the accuracy of the network to the ore recognition. The experimental results show that the algorithm proposed in this paper has a recognition accuracy of 96.5% for ore under complex working conditions, and the recall rate and recall rate function values reach 97.4% and 97.0% respectively, and the AP75 value is 6.84% higher than the original algorithm. The detection results of the ore in the actual scene show that the mask size segmented by the network is close to the actual size of the ore, indicating that the improved network model proposed in this paper has achieved a good performance in the detection of ore under different illumination, pose and background. Therefore, the method proposed in this paper has a good application prospect for stacked ore identification under complex working conditions.
Aby uzyskać dokładną identyfikację i segmentację rudy w złożonych warunkach pracy, do prowadzenia inteligentnych badań wykrywania rudy wykorzystywane są technologie wizji maszynowej i sieci neuronowych, zaproponowano udoskonalony algorytm segmentacji obrazu Mask RCNN (Region Convolutional Neural Networks). Mając na celu rozwiązanie problemu błędnej identyfikacji ułożonych rud, spowodowanego utratą głębokich szczegółów cech podczas procesu ekstrakcji cech z obrazów rudy, zaproponowano ulepszoną sieć wielościeżkową piramidy cech MFPN (Multipath Feature Pyramid Network). Sieć najpierw dodaje pojedynczą ścieżkę łączenia funkcji od dołu do góry, a następnie dodaje ścieżkę łączenia funkcji od góry do dołu oryginalnego algorytmu, co może wzbogacić głębokie szczegóły funkcji i wzmocnić połączenie sieci z warstwą funkcji (obiektową) i poprawić dokładność sieci do rozpoznawania rudy. Wyniki eksperymentalne pokazują, że algorytm zaproponowany w niniejszej pracy ma dokładność rozpoznawania na poziomie 96,5% dla rudy w złożonych warunkach pracy, a wartości współczynnika czułości i współczynnika czułości funkcji osiągają odpowiednio 97,4 i 97,0%, a wartość AP75 jest wyższa o 6,84% niż oryginalny algorytm. Wyniki wykrywania rudy w rzeczywistej scenie pokazują, że rozmiar maski podzielonej na segmenty przez sieć jest zbliżony do rzeczywistego rozmiaru rudy, co wskazuje, że ulepszony model sieci zaproponowany w tym artykule osiągnął dobrą efektywność w wykrywaniu rudy przy różnym oświetleniu, ułożeniu i tle. Dlatego zaproponowana w pracy metoda ma dobre perspektywy aplikacyjne do identyfikacji usypanych rud w złożonych warunkach pracy.
Źródło:
Gospodarka Surowcami Mineralnymi; 2023, 39, 1; 131--148
0860-0953
Pojawia się w:
Gospodarka Surowcami Mineralnymi
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fusion of feature selection methods in gene recognition
Autorzy:
Gil, Fabian
Osowski, Stanislaw
Powiązania:
https://bibliotekanauki.pl/articles/2128155.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
diagnostic features
selection methods
genes
recognition
biomarkers
funkcja diagnostyczna
metody selekcji
geny
rozpoznanie
biomarkery
Opis:
The paper presents the fusion approach of different feature selection methods in pattern recognition problems. The following methods are examined: nearest component analysis, Fisher discriminant criterion, refiefF method, stepwise fit, Kolmogorov-Smirnov criteria, T2-test, Kruskall-Wallis test, feature correlation with class, and SVM recursive feature elimination. The sensitivity to the noisy data as well as the repeatability of the most important features are studied. Based on this study, the best selection methods are chosen and applied in the process of selection of the most important genes and gene sequences in a dataset of gene expression microarray in prostate and ovarian cancers. The results of their fusion are presented and discussed. The small selected set of such genes can be treated as biomarkers of cancer.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 3; e136748, 1--8
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Fusion of feature selection methods in gene recognition
Autorzy:
Gil, Fabian
Osowski, Stanislaw
Powiązania:
https://bibliotekanauki.pl/articles/2173571.pdf
Data publikacji:
2021
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
diagnostic features
selection methods
genes
recognition
biomarkers
funkcja diagnostyczna
metody selekcji
geny
rozpoznanie
biomarkery
Opis:
The paper presents the fusion approach of different feature selection methods in pattern recognition problems. The following methods are examined: nearest component analysis, Fisher discriminant criterion, refiefF method, stepwise fit, Kolmogorov-Smirnov criteria, T2-test, Kruskall-Wallis test, feature correlation with class, and SVM recursive feature elimination. The sensitivity to the noisy data as well as the repeatability of the most important features are studied. Based on this study, the best selection methods are chosen and applied in the process of selection of the most important genes and gene sequences in a dataset of gene expression microarray in prostate and ovarian cancers. The results of their fusion are presented and discussed. The small selected set of such genes can be treated as biomarkers of cancer.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2021, 69, 3; art. no. e136748
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Single target tracking algorithm for lightweight Siamese networks based on global attention
Autorzy:
Wang, Zhentao
He, Xiaowei
Cheng, Rao
Powiązania:
https://bibliotekanauki.pl/articles/2173664.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
target tracking
Siamese network
semantic information
training strategy
feature fusion
deep learning
śledzenie celu
sieć syjamska
informacja semantyczna
strategia szkolenia
fuzja funkcji
głęboka nauka
Opis:
Object tracking based on Siamese networks has achieved great success in recent years, but increasingly advanced trackers are also becoming cumbersome, which will severely limit deployment on resource-constrained devices. To solve the above problems, we designed a network with the same or higher tracking performance as other lightweight models based on the SiamFC lightweight tracking model. At the same time, for the problems that the SiamFC tracking network is poor in processing similar semantic information, deformation, illumination change, and scale change, we propose a global attention module and different scale training and testing strategies to solve them. To verify the effectiveness of the proposed algorithm, this paper has done comparative experiments on the ILSVRC, OTB100, VOT2018 datasets. The experimental results show that the method proposed in this paper can significantly improve the performance of the benchmark algorithm.
Źródło:
Bulletin of the Polish Academy of Sciences. Technical Sciences; 2022, 70, 3; art. no. e139961
0239-7528
Pojawia się w:
Bulletin of the Polish Academy of Sciences. Technical Sciences
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A novel feature biometric fusion approach for iris, speech and signature
Nowatorskie połączenie cech biometrycznych dla tęczówki, mowy i podpisu
Autorzy:
Garg, Mamta
Arora, Ajat Shatru
Gupta, Savita
Powiązania:
https://bibliotekanauki.pl/articles/29520274.pdf
Data publikacji:
2020
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
biometric fusion
scale invariant feature transform
2-dimensional principle component analysis
mel-frequency cepstral coefficient
genetic algorithms
artificial neural networks
Opis:
With an ever-increasing emphasis on security and the new dimensions in security challenges facing the world today, the need for automated personal identification/verification system based on multimodal biometrics has increased. This paper addresses the issue of multiple biometric fusion to enhance the security of recognition. The paper utilizes iris, speech,and signature for the novel fusion. A segregated classification mechanism for each biometric is also presented. The fusion is done on the base of features extracted at the time of individual classification of biometrics. Different feature extraction algorithms are applied for different biometrics. The paper has utilized 2-Dimensional Principle Component Analysis (2DPCA) for Iris, Scale Invariant Feature Transform (SIFT) for signature and Mel-frequency cepstral coefficients for speech biometric. This paper utilizes Genetic Algorithm for the optimization of the evaluated features. The classification is done using Artificial Neural Network (ANN).
W związku z ciągłym wzrostem wymagań dotyczących bezpieczeństwa i nowymi wyzwaniami stojącymi dzisiaj w tym zakresie przed światem istnieje potrzeba tworzenia ststremów wykorzystujących biometrię multimodalną do automatycznej identyfikacji/weryfikacji osób. Artykuł opisuje problem zastosowania multimodalnej fuzji biometrycznej do poprawy bezpieczeństwa rozpoznawania osób. Do nowej fuzji wykorzystano tęczówkę, mowę i podpis. Zaprezentowano oddzielny mechanism dla każdego czynnika biometrycznego. Fuzję przeprowadzono wykorzystując cechy wybrane w danej chwili czasu indywidualnie dla każdego czynnika. Dla różnych czynników zastosowano różny algorytm wyboru cech biometrycznych. Zastosowano 2- wymiarową analizę podstawowych składników (ang. 2-Dimensional Principle Component Analysis - 2DPCA) dla tęczówki, skaloniezmiennicze przekształcenie cech (ang. Scale Invariant Feature Transform - SIFT) dla podpisu oraz parametry melcepstralne (ang. Mel-Frequency Cepstral Coefficients) dla mowy. W artykule wykorzystano metodę Algorytmów Genetycznych do optymalizacji oceny poszczególnych cech. Klasyfikację przeprowadzono wykorzystując sztuczne sieci neuronowe.
Źródło:
Computer Methods in Materials Science; 2020, 20, 2; 63-71
2720-4081
2720-3948
Pojawia się w:
Computer Methods in Materials Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Learning-free deep features for multispectral palm-print classification
Autorzy:
Aounallah, Asma
Meraoumia, Abdallah
Bendjenna, Hakim
Powiązania:
https://bibliotekanauki.pl/articles/27312870.pdf
Data publikacji:
2023
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
feature extraction
biometrics
multispectral imaging
deep learning
DCTNet
data fusion
Opis:
The feature-extraction step is a major and crucial step in analyzing and understanding raw data, as it has a considerable impact on system accuracy. Despite the very acceptable results that have been obtained by many handcrafted methods, these can unfortunately have difficulty representing features in the cases of large databases or with strongly correlated samples. In this context, we attempt to examine the discriminability of texture features by proposing a novel, simple, and lightweight method for deep feature extraction to characterize the discriminative power of different textures. We evaluated the performance of our method by using a palm print-based biometric system, and the experimental results (using the CASIA multispectral palm--print database) demonstrate the superiority of the proposed method over the latest handcrafted and deep methods.
Źródło:
Computer Science; 2023, 24 (2); 243--271
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies