Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "learning software" wg kryterium: Temat


Wyświetlanie 1-8 z 8
Tytuł:
Multi-view learning for software defect prediction
Autorzy:
Kiyak, Elife Ozturk
Birant, Derya
Birant, Kokten Ulas
Powiązania:
https://bibliotekanauki.pl/articles/2060905.pdf
Data publikacji:
2021
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
software defect prediction
multi-view learning
machine learning
k-nearest neighbor
Opis:
Background: Traditionally, machine learning algorithms have been simply applied for software defect prediction by considering single-view data, meaning the input data contains a single feature vector. Nevertheless, different software engineering data sources may include multiple and partially independent information, which makes the standard single-view approaches ineffective. Objective: In order to overcome the single-view limitation in the current studies, this article proposes the usage of a multi-view learning method for software defect classification problems. Method: The Multi-View k-Nearest Neighbors (MVKNN) method was used in the software engineering field. In this method, first, base classifiers are constructed to learn from each view, and then classifiers are combined to create a robust multi-view model. Results: In the experimental studies, our algorithm (MVKNN) is compared with the standard k-nearest neighbors (KNN) algorithm on 50 datasets obtained from different software bug repositories. The experimental results demonstrate that the MVKNN method outperformed KNN on most of the datasets in terms of accuracy. The average accuracy values of MVKNN are 86.59%, 88.09%, and 83.10% for the NASA MDP, Softlab, and OSSP datasets, respectively. Conclusion: The results show that using multiple views (MVKNN) can usually improve classification accuracy compared to a single-view strategy (KNN) for software defect prediction.
Źródło:
e-Informatica Software Engineering Journal; 2021, 15, 1; 163--184
1897-7979
Pojawia się w:
e-Informatica Software Engineering Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Software Change Prediction: A Systematic Review and Future Guidelines
Autorzy:
Malhotra, Ruchika
Khanna, Megha
Powiązania:
https://bibliotekanauki.pl/articles/384059.pdf
Data publikacji:
2019
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
change-proneness
machine learning
software quality
systematic review
Opis:
Background: The importance of Software Change Prediction (SCP) has been emphasized by several studies. Numerous prediction models in literature claim to effectively predict change-prone classes in software products. These models help software managers in optimizing resource usage and in developing good quality, easily maintainable products. Aim: There is an urgent need to compare and assess these numerous SCP models in order to evaluate their effectiveness. Moreover, one also needs to assess the advancements and pitfalls in the domain of SCP to guide researchers and practitioners. Method: In order to fulfill the above stated aims, we conduct an extensive literature review of 38 primary SCP studies from January 2000 to June 2019. Results: The review analyzes the different set of predictors, experimental settings, data analysis techniques, statistical tests and the threats involved in the studies, which develop SCP models. Conclusion: Besides, the review also provides future guidelines to researchers in the SCP domain, some of which include exploring methods for dealing with imbalanced training data, evaluation of search-based algorithms and ensemble of algorithms for SCP amongst others.
Źródło:
e-Informatica Software Engineering Journal; 2019, 13, 1; 227-259
1897-7979
Pojawia się w:
e-Informatica Software Engineering Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On Efficiency of Selected Machine Learning Algorithms for Intrusion Detection in Software Defined Networks
Autorzy:
Jankowski, D.
Amanowicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/963945.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
software defined network
intrusion detection
machine learning
Mininet
SDN
Opis:
We propose a concept of using Software Defined Network (SDN) technology and machine learning algorithms for monitoring and detection of malicious activities in the SDN data plane. The statistics and features of network traffic are generated by the native mechanisms of SDN technology.In order to conduct tests and a verification of the concept, it was necessary to obtain a set of network workload test data.We present virtual environment which enables generation of the SDN network traffic.The article examines the efficiency of selected machine learning methods: Self Organizing Maps and Learning Vector Quantization and their enhanced versions.The results are compared with other SDN-based IDS.
Źródło:
International Journal of Electronics and Telecommunications; 2016, 62, 3; 247-252
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Machine learning for supporting irrigation decisions based on climatic water balance
Autorzy:
Treder, Waldemar
Klamkowski, Krzysztof
Wójcik, Katarzyna
Tryngiel-Gać, Anna
Powiązania:
https://bibliotekanauki.pl/articles/27312625.pdf
Data publikacji:
2023
Wydawca:
Instytut Technologiczno-Przyrodniczy
Tematy:
apple tree
evapotranspiration
irrigation scheduling
machine learning
precipitation
WEKA software
Opis:
A machine learning model was developed to support irrigation decisions. The field research was conducted on ‘Gala’ apple trees. For each week during the growing seasons (2009-2013), the following parameters were determined: precipitation, evapotranspiration (Penman-Monteith formula), crop (apple) evapotranspiration, climatic water balance, crop (apple) water balance (AWB), cumulative climatic water balance (determined weekly, ∑CWB), cumulative apple water balance (∑AWB), week number from full bloom, and nominal classification variable: irrigation, no irrigation. Statistical analyses were performed with the use of the WEKA 3.9 application software. The attribute evaluator was performed using Correlation Attribute Eval with the Ranker Search Method. Due to its highest accuracy, the final analyses were performed using the WEKA classifier package with the J48graft algorithm. For each of the analysed growing seasons, different correlations were found between the water balance determined for apple trees and the actual water balance of the soil layer (10-30 cm). The model made correct decisions in 76.7% of the instances when watering was needed and in 87.7% of the instances when watering was not needed. The root of the classification tree was the AWB determined for individual weeks of the growing season. The high places in the tree hierarchy were occupied by the nodes defining the elapsed time of the growing season, the values of ∑CWB and ∑AWB.
Źródło:
Journal of Water and Land Development; 2023, 58; 25--30
1429-7426
2083-4535
Pojawia się w:
Journal of Water and Land Development
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying Machine Learning to Software Fault Prediction
Autorzy:
Wójcicki, B.
Dabrowski, R.
Powiązania:
https://bibliotekanauki.pl/articles/384105.pdf
Data publikacji:
2018
Wydawca:
Politechnika Wrocławska. Oficyna Wydawnicza Politechniki Wrocławskiej
Tematy:
classifier
fault prediction
machine learning
metric
Naïve Bayes
Python
quality
software intelligence
Opis:
Introduction: Software engineering continuously suffers from inadequate software testing. The automated prediction of possibly faulty fragments of source code allows developers to focus development efforts on fault-prone fragments first. Fault prediction has been a topic of many studies concentrating on C/C++ and Java programs, with little focus on such programming languages as Python. Objectives: In this study the authors want to verify whether the type of approach used in former fault prediction studies can be applied to Python. More precisely, the primary objective is conducting preliminary research using simple methods that would support (or contradict) the expectation that predicting faults in Python programs is also feasible. The secondary objective is establishing grounds for more thorough future research and publications, provided promising results are obtained during the preliminary research. Methods: It has been demonstrated that using machine learning techniques, it is possible to predict faults for C/C++ and Java projects with recall 0.71 and false positive rate 0.25. A similar approach was applied in order to find out if promising results can be obtained for Python projects. The working hypothesis is that choosing Python as a programming language does not significantly alter those results. A preliminary study is conducted and a basic machine learning technique is applied to a few sample Python projects. If these efforts succeed, it will indicate that the selected approach is worth pursuing as it is possible to obtain for Python results similar to the ones obtained for C/C++ and Java. However, if these efforts fail, it will indicate that the selected approach was not appropriate for the selected group of Python projects. Results: The research demonstrates experimental evidence that fault-prediction methods similar to those developed for C/C++ and Java programs can be successfully applied to Python programs, achieving recall up to 0.64 with false positive rate 0.23 (mean recall 0.53 with false positive rate 0.24). This indicates that more thorough research in this area is worth conducting. Conclusion: Having obtained promising results using this simple approach, the authors conclude that the research on predicting faults in Python programs using machine learning techniques is worth conducting, natural ways to enhance the future research being: using more sophisticated machine learning techniques, using additional Python-specific features and extended data sets.
Źródło:
e-Informatica Software Engineering Journal; 2018, 12, 1; 199-216
1897-7979
Pojawia się w:
e-Informatica Software Engineering Journal
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A novel test case prioritization method based on problems of numerical software code statement defect prediction
Nowatorska metoda priorytetyzacji przypadków testowych oparta na prognozowaniu błędów instrukcji kodu oprogramowania numerycznego
Autorzy:
Shao, Yuanxun
Liu, Bin
Wang, Shihai
Xiao, Peng
Powiązania:
https://bibliotekanauki.pl/articles/1841862.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Tematy:
software defect prediction
test case prioritization
code statement metrics
machine learning
software testing
przewidywanie błędów oprogramowania
priorytetyzacja przypadków testowych
metryki instrukcji kodu
uczenie maszynowe
testowanie oprogramowania
Opis:
Test case prioritization (TCP) has been considerably utilized to arrange the implementation order of test cases, which contributes to improve the efficiency and resource allocation of software regression testing. Traditional coverage-based TCP techniques, such as statement-level, method/function-level and class-level, only leverages program code coverage to prioritize test cases without considering the probable distribution of defects. However, software defect data tends to be imbalanced following Pareto principle. Instinctively, the more vulnerable the code covered by the test case is, the higher the priority it is. Besides, statement-level coverage is a more fine-grained method than function-level coverage or class-level coverage, which can more accurately formulate test strategies. Therefore, we present a test case prioritization approach based on statement software defect prediction to tame the limitations of current coverage-based techniques in this paper. Statement metrics in the source code are extracted and data pre-processing is implemented to train the defect predictor. And then the defect detection rate of test cases is calculated by combining the prioritization strategy and prediction results. Finally, the prioritization performance is evaluated in terms of average percentage faults detected in four open source datasets. We comprehensively compare the performance of the proposed method under different prioritization strategies and predictors. The experimental results show it is a promising technique to improve the prevailing coverage-based TCP methods by incorporating statement-level defect-proneness. Moreover, it is also concluded that the performance of the additional strategy is better than that of max and total, and the choice of the defect predictor affects the efficiency of the strategy.
Metodę priorytetyzacji przypadków testowych (TCP) wykorzystuje się powszechnie do ustalania kolejności implementacji przypadków testowych, co przyczynia się do poprawy wydajności i alokacji zasobów w trakcie testowania regresyjnego oprogramowania. Tradycyjne techniki TCP oparte na pokryciu na poziomie instrukcji, metody/funkcji oraz klasy, wykorzystują pokrycie kodu programu tylko w celu ustalenia priorytetów przypadków testowych, bez uwzględnienia prawdopodobnego rozkładu błędów. Jednak dane o błędach oprogramowania są zwykle niezrównoważone zgodnie z zasadą Pareto. Instynktownie, im bardziej wrażliwy jest kod pokryty przypadkiem testowym, tym wyższy jest jego priorytet. Poza tym, pokrycie na poziomie instrukcji jest bardziej szczegółową metodą niż pokrycie na poziomie funkcji lub pokrycie na poziomie klasy, które mogą dokładniej formułować strategie testowe. Dlatego w artykule przedstawiamy podejście do priorytetyzacji przypadków testowych oparte na prognozowaniu błędów instrukcji oprogramowania, które pozwala zmniejszyć ograniczenia obecnych technik opartych na pokryciu. Wyodrębniono metryki instrukcji w kodzie źródłowym i zaimplementowano wstępne przetwarzanie danych w celu nauczania predyktora błędów. Następnie obliczono wskaźnik wykrywania błędów w przypadkach testowych poprzez połączenie strategii priorytetyzacji i wyników prognozowania. Wreszcie, oceniono wydajność ustalania priorytetów pod względem średnich procentowych błędów wykrytych w czterech zestawach danych typu open source. Kompleksowo porównano wydajność proponowanej metody w ramach różnych strategii ustalania priorytetów i predyktorów. Wyniki eksperymentów pokazują, że jest to obiecująca technika poprawy dominujących metod TCP opartych na pokryciu poprzez włączenie podatności na błędy na poziomie instrukcji. Ponadto stwierdzono również, że strategia dodatkowa cechuje się lepszą wydajnością niż strategie max i total, a wybór predyktora błędów wpływa na skuteczność strategii.
Źródło:
Eksploatacja i Niezawodność; 2020, 22, 3; 419-431
1507-2711
Pojawia się w:
Eksploatacja i Niezawodność
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Artificial intelligence for software development : the present and the challenges for the future
Sztuczna inteligencja w wytwarzaniu oprogramowania : stan aktualny i wyzwania na przyszłość
Autorzy:
Korzeniowski, Łukasz
Goczyła, Krzysztof
Powiązania:
https://bibliotekanauki.pl/articles/211290.pdf
Data publikacji:
2019
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
software development
artificial intelligence
machine learning
automated code generation
wytwarzanie oprogramowania
sztuczna inteligencja
uczenie maszynowe
automatyczne generowanie kodu
Opis:
Since the time when first CASE (Computer-Aided Software Engineering) methods and tools were developed, little has been done in the area of automated creation of code. CASE tools support a software engineer in creation the system structure, in defining interfaces and relationships between software modules and, after the code has been written, in performing testing tasks on different levels of detail. Writing code is still the task of a skilled human, which makes the whole software development a costly and error-prone process. It seems that recent advances in AI area, particularly in deep learning methods, may considerably improve the matters. The paper presents an extensive survey of recent work and achievements in this area reported in the literature, both from the theoretical branch of research and from engineer-oriented approaches. Then, some challenges for the future work are proposed, classified into Full AI, Assisted AI and Supplementary AI research fields.
Od czasu pojawienia się pierwszych metod i narzędzi CASE niewiele zrobiono w zakresie automatycznego wytwarzania oprogramowania. Narzędzia CASE wspierają deweloperów w tworzeniu struktury systemu, definiowaniu interfejsów i relacji między modułami oprogramowania oraz, po powstaniu kodu, w wykonywaniu zadań testowych na różnych poziomach szczegółowości. Pisanie kodu jest jednak nadal zadaniem wykwalifikowanego specjalisty, co powoduje, że cały proces wytwarzania oprogramowania jest kosztowny i podatny na błędy. Ostatnie postępy w obszarze sztucznej inteligencji, szczególnie w zakresie metod głębokiego uczenia maszynowego, mogą i powinny znacznie poprawić tę sytuację. W artykule przedstawiono przegląd dotychczasowych osiągnięć w tej dziedzinie, znanych z literatury przedmiotu, szczególnie w zakresie czysto teoretycznym, gdyż efekty inżynierskie znajdujące zastosowanie praktyczne są jak dotąd bardzo ograniczone. Następnie zaproponowano i opisano kilka kierunków przyszłych prac w tej dziedzinie, które zaklasyfikowano jako Full AI, Assisted AI i Supplementary AI, w kolejności wynikającej z oczekiwanego stopnia zautomatyzowania procesów wytwarzania oprogramowania.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2019, 68, 1; 15-32
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sztuczna inteligencja (SI) w badaniach lingwistycznych
Artificial Intelligence (AI) in Linguistic Research
Autorzy:
Sztuk, Alicja
Powiązania:
https://bibliotekanauki.pl/articles/555501.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Warszawski. Wydział Lingwistyki Stosowanej
Tematy:
artificial intelligence
machine learning
linguistic intelligence
linguistic research
intelligent tutoring system
linguistic smart software system for glottodidactics and translation intelligent
voice recognition
chatbot
terminotics
Opis:
The main purpose of the paper is both to present and to highlight the wide range of artificial intelligence appliance in linguistic research. I intend to define the so called ‘linguistic intelligence’ in the sense of machine learning, based mainly on artificial neural networks. Linguistic intelligent solutions seem to be not only up-to-date but also very promising in the area of developing and improving any intelligent linguistic tools, such as intelligent tutoring systems that are able to interact with human being, or the voice (speech) recognition systems that are able to receive, interpret (understand) and sometimes even carry out spoken commands. Finally, I intend to present the area of so called ‘terminotics’. The term refers to the meeting point of three interrelated disciplines: terminology, computational linguistics and linguistic engineering. This branch is also assisted by computer tools and new technologies based on artificial intelligence and machine learning. These (tools) are mainly designed for term extraction and corpora development but lately there are also some new possibilities to use these tools to increase the quality of terminology infrastructure as well.
Źródło:
Applied Linguistics Papers; 2018, 25/4; 159-174
2544-9354
Pojawia się w:
Applied Linguistics Papers
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-8 z 8

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies