Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Knowledge extraction" wg kryterium: Temat


Wyświetlanie 1-11 z 11
Tytuł:
Extracting Class Description from Support Vector Machines
Profilowanie klas w metodzie wektorów nośnych
Autorzy:
Trzęsiok, Michał
Powiązania:
https://bibliotekanauki.pl/articles/904801.pdf
Data publikacji:
2013
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
Support Vector Machines
knowledge extraction
model interpretability
Opis:
Support Vector Machines (SVMs) belong to the group of Data Mining and Machine Learning methods. SVMs are considered to be one of the best classification methods in terms of performance measure. The biggest disadvantage of SVMs is their lack of interpretability. Additional procedures can be applied that enable knowledge extraction. We present such a procedure that uses the information embedded in support vectors – the observations that define the classification function. We use recursive partitioning applied to support vectors to increase the interpretability of SVMs.
Metoda wektorów nośnych (SVM) należy do grupy statystycznych metod uczących się. Jak większość metod z tej grupy, metoda SVM buduje modele o bardzo dobrych własnościach predykcyjnych, lecz niewielkiej interpretowalności. W celu uzyskania dodatkowej wiedzy –stosuje się dodatkowe procedury wspomagające interpretowanie wyników modelowania. W artykule przedstawiono procedurę wykorzystującą informacje zawarte w wektorach nośnych – obserwacjach istotnie wpływających na postać wyznaczonej funkcji dyskryminującej. Intepretowalność modelu końcowego uzyskano dzięki zastosowaniu modelu rekurencyjnego podziału do dyskryminacji wyznaczonych wektorów nośnych.
Źródło:
Acta Universitatis Lodziensis. Folia Oeconomica; 2013, 286
0208-6018
2353-7663
Pojawia się w:
Acta Universitatis Lodziensis. Folia Oeconomica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
System of knowledge extraction from ontology of electronic education resource
System pozyskiwania wiedzy z ontologii cyfrowych zasobów edukacyjnych
Autorzy:
Balova, T.
Rokhas Kriulko, N.
Kotyra, A.
Powiązania:
https://bibliotekanauki.pl/articles/408052.pdf
Data publikacji:
2012
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Tematy:
ekstrakcja nazw
analiza semantyczna
zasoby elektroniczne
knowledge extraction
semantic analysis
electronic resource
Opis:
This article describes the system having the main function of extraction of knowledge from the document corresponding to the knowledge stored in ontology of electronic educational resource.
W artykule przedstawiono opis systemu, którego podstawową funkcją jest wydobywanie z tekstu dokumentu nazw odpowiadających nazwom przechowywanym w ontologicznym elektronicznym zbiorze edukacyjnym.
Źródło:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska; 2012, 3; 3-4
2083-0157
2391-6761
Pojawia się w:
Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Prototypical implementation of a decentralized semantic-web-based information system for specific study programs
Prototypowa implementacja zdecentralizowanego systemu informacyjnego opartego na sieci semantycznej dla specyficznych programów studiów
Autorzy:
Jetschni, Jonas
Meister, Vera G.
Powiązania:
https://bibliotekanauki.pl/articles/590808.pdf
Data publikacji:
2016
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Education management
Knowledge extraction
Semantic annotation
Semantic web application
Ekstrakcja wiedzy
Semantyczna adnotacja
Semantyczna aplikacja internetowa
Zarządzanie edukacją
Opis:
The paper describes the approach and the results of an agile student’s development project. Initial point was the idea of a decentralized guide for specific study programs located in the DACH (Germany, Austria, Switzerland) region. Compared with existing systems, this guide is meant to provide relevant, and moreover commensurable information about the subject-specifics features of study programs. Prospective students ought to get support in their study decision. In addition, the system may support other stakeholders, e. g. companies searching for qualified personnel in a specific field. The basic idea is to allow the semantic enrichment of any website of a university on study programs (i.e. in a decentralized manner), which is based on an ontology for Information Systems study programs. Doing so, this information become web-wide accessible and may be aggregated and visualized in a web application. The single stages of development will be described from a business as well as from a technical perspective.
W artykule przedstawiono metodę oraz wyniki zwinnego projektu rozwoju edukacji studenta. Pierwotną była idea zdecentralizowanego poradnika dla konkretnych programów studiów, zlokalizowanych w regionie DACH (Niemcy, Austria, Szwajcaria). W porównaniu z istniejącymi systemami, analizowany w tym artykule poradnik dla studentów ma na celu zapewnienie odpowiedniej i współmiernej informacji dotyczącej programów studiów, zorientowanych na poszczególne przedmioty. Podstawową ideą jest umożliwienie semantycznego wzbogacenia każdej strony internetowej uniwersytetu o treści dotyczące programów studiów i oparte na ontologii programów studiów z dziedziny Systemów Informatycznych. W artykule poszczególne etapy rozwoju zostaną opisane z biznesowego i technicznego punktu widzenia.
Źródło:
Studia Ekonomiczne; 2016, 296; 7-21
2083-8611
Pojawia się w:
Studia Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Geoinformatyczne narzędzia w badaniu gleb
Geoinformatic instruments in the soil survey
Autorzy:
Gruszczyński, S.
Powiązania:
https://bibliotekanauki.pl/articles/262292.pdf
Data publikacji:
2006
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
dokumentowanie gleb
eksploracja danych
ekstrakcja wiedzy
prognozowanie przekształceń
soil records
data mining
extraction of knowledge
transformation forecasting
Opis:
Obecne wymagania wobec treści i celów dokumentowania gleb odróżniają, od oczekiwań wobec tradycyjnych map glebowych, trzy istotne okoliczności: możliwość wykorzystywania cyfrowych technik gromadzenia i analizy danych przestrzennych, zwiększenie roli środowiskowych kryteriów oceny jakości gruntów w porównaniu z dominującymi wcześniej wyznacznikami ich jakości obserwowanej wyłącznie z punktu widzenia potrzeb gospodarstwa rolnego i leśnego oraz uzupełnienie listy celów dokumentowania o predykcję zachowań gleb pod wpływem różnych typów oddziaływań. Wszystkie te okoliczności powodują zmiany w sposobach interpretowania i rozumienia przestrzennych danych glebowych. Pod względem metodycznym narzędziami nowego podejścia są: włączenie wnioskowania rozmytego jako właściwego dla procedur klasyfikacji gleb i wizualizacji zasięgów ich jednostek, wykorzystanie technik poszukiwania wiedzy w bazach danych KDD (Knowledge Discovery in Databases) oraz eksploracji danych DM (Data Mining) do modelowania zależności morfologiczno-przestrzennych przydatnych w przewidywaniu zmian zachowań gleb w nowych warunkach środowiskowych. Obecnie systemy informacji przestrzennej, wyposażone w algorytmy KDD, tworzą w odniesieniu do dokumentacji gleb, w zaawansowanych technologicznie krajach, systemy ekstrakcji wiedzy i informacji, pozwalające na ocenę ryzyka środowiskowego związanego z propagacją zanieczyszczeń oraz na złożone studia ich przekształceń pod wpływem wielokierunkowych oddziaływań antropogenicznych. W pracy zaprezentowano zastosowanie algorytmów KDD do oceny aktualnego i prognozowanego stanu gleb.
Present requirements in terms of the content and purposes of documenting soils, unlike traditional soil maps, differentiate three significant circumstances: the possibility of the application of digital techniques of collecting and analysing spatial data, the increase of the role of environmental criteria for the assessment of the quality of grounds, compared to dominating earlier indexes of their values viewed only in the aspect of the needs of agriculture and forestry, and supplementing the list of the goals of documentation with the prediction of the changes in soils influenced by different factors. All these circumstances cause changes in the ways of the interpretation and understanding of spatial soil data. In methodological sense, the tools of the new approach are: including the fuzzy inference as the proper for the procedures of the classification of soils and visualization of the ranges of their units, the application of knowledge discovery in databases (KDD) and data mining (DM) in the modelling of morphologic and spatial relations useful in predicting changes in soils in new environmental conditions. Nowadays, systems of spatial information, equipped with KDD algorithms make - in the relation to the documentation of soils in technologically advanced countries - systems of the extraction of knowledge and information, allowing environmental risk assessment related to the propagation of pollutants and complex studies of their transformations under the influence of multidirectional anthropogenic influence. In the paper the application of KDD algorithms was presented in the assessment of present and forecasted state of soils.
Źródło:
Geodezja / Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie; 2006, 12, 2/1; 221-233
1234-6608
Pojawia się w:
Geodezja / Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ontology-Based Information Extraction: Current Approaches
Autorzy:
Białek, M.
Powiązania:
https://bibliotekanauki.pl/articles/115891.pdf
Data publikacji:
2010
Wydawca:
Fundacja na Rzecz Młodych Naukowców
Tematy:
Ontology-Based Information Extraction
Information Extraction
semantic web
ontology
Knowledge
Representation
Opis:
The purpose of Information Extraction (IE) is extracting information from unstructured, or semi structured machine readable documents by automatic means. Generally this means dealing with human language texts using natural language processing (NLP) techniques. Recently on the market of IE systems a new player emerged. Ontology-Based IE (OBIE) idea consequently gains more and more supporters. In this approach a crucial role in the IE process is played by ontology (formal representation of the knowledge by a set of concepts within a domain and the relationships between those concepts). Using Ontology as one of the IE tools makes OBIE very convenient approach for gathering information that can be later on used in construction of Semantic Web. In this paper I will explain the idea of OBIE with its fl aws and advantages. I will try not only to provide theoretical approach, but also to review current trends in this fi eld. This will be done to point out some common architecture in currently used systems and in the end classify them based on diff erent factors depending on their usability in real life application. As a conclusion an attempt to identify possible trends and directions in this fi eld will be made.
Źródło:
Challenges of Modern Technology; 2010, 1, 1; 69-75
2082-2863
2353-4419
Pojawia się w:
Challenges of Modern Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Novel framework for aspect knowledge base generated automatically from social media using pattern rules
Autorzy:
Tran, Tuan Anh
Duangsuwan, Jarunee
Wettayaprasit, Wiphada
Powiązania:
https://bibliotekanauki.pl/articles/2097963.pdf
Data publikacji:
2021
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
opinion mining
aspect knowledge base
aspect extraction
pattern rules
social media
Opis:
One of the factors that improve businesses in business intelligence is summarization systems that can generate summaries based on sentiment from social media. However, these systems cannot produce such summaries automatically; they use annotated datasets. To support these systems with annotated datasets, we propose a novel framework that uses pattern rules. The framework has two procedures: 1) pre-processing, and 2) aspect knowledge-base generation. The first procedure is to check and correct any misspelled words (bigram and unigram) by a proposed method and tag the parts-of-speech of all of the words. The second procedure is to automatically generate an aspect knowledge base that is to be used to produce sentiment summaries by sentiment-summarization systems. Pattern rules and semantic similarity-based pruning are used to automatically generate an aspect knowledge base from social media. In the experiments, eight domains from benchmark datasets of reviews are used. The performance evaluation of our proposed approach shows the highest performance when compared to other unsupervised approaches.
Źródło:
Computer Science; 2021, 22 (4); 489--516
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Domain specific key feature extraction using knowledge graph mining
Autorzy:
Barai, Mohit Kumar
Sanyal, Subhasis
Powiązania:
https://bibliotekanauki.pl/articles/2027771.pdf
Data publikacji:
2020
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Feature extraction
Knowledge graph
Natural language processing
Product review
Text processing
Opis:
In the field of text mining, many novel feature extraction approaches have been propounded. The following research paper is based on a novel feature extraction algorithm. In this paper, to formulate this approach, a weighted graph mining has been used to ensure the effectiveness of the feature extraction and computational efficiency; only the most effective graphs representing the maximum number of triangles based on a predefined relational criterion have been considered. The proposed novel technique is an amalgamation of the relation between words surrounding an aspect of the product and the lexicon-based connection among those words, which creates a relational triangle. A maximum number of a triangle covering an element has been accounted as a prime feature. The proposed algorithm performs more than three times better than TF-IDF within a limited set of data in analysis based on domain-specific data.
Źródło:
Multiple Criteria Decision Making; 2020, 15; 1-22
2084-1531
Pojawia się w:
Multiple Criteria Decision Making
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Discovering knowledge with the rough set approach
Odkrywanie wiedzy w podejściu teorii zbiorów przybliżonych
Autorzy:
Mazurek, J.
Powiązania:
https://bibliotekanauki.pl/articles/405337.pdf
Data publikacji:
2013
Wydawca:
Politechnika Częstochowska
Tematy:
information system
knowledge discovery
rough sets
rule extraction
uncertainty
system informacyjny
odkrywanie wiedzy
zbiory przybliżone
ekstrakcja zasad
niepewność
Opis:
The rough set theory, which originated in the early 1980s, provides an alternative approach to the fuzzy set theory, when dealing with uncertainty, vagueness or inconsistence often encountered in real-world situations. The fundamental premise of the rough set theory is that every object of the universe is associated with some information, which is frequently imprecise and insufficient to distinguish among objects. In the rough set theory, this information about objects is represented by an information system (decision table). From an information system many useful facts and decision rules can be extracted, which is referred as knowledge discovery, and it is successfully applied in many fields including data mining, artificial intelligence learning or financial investment. The aim of the article is to show how hidden knowledge in the real-world data can be discovered within the rough set theory framework. After a brief preview of the rough set theory’s basic concepts, knowledge discovery is demonstrated on an example of baby car seats evaluation. For a decision rule extraction, the procedure of Ziarko and Shan is used.
Teoria zbiorów przybliżonych, która powstała w roku 1980, oferuje alternatywne podejście do teorii zbiorów rozmytych, gdy ma się do czynienia ze zjawiskiem niepewności, niejasności i niekonsekwencji, często spotykanym w rzeczywistych sytuacjach. Podstawowym założeniem teorii zbiorów przybliżonych jest to, że każdy obiekt wszechświata jest związany z pewnymi informacjami, które są często nieprecyzyjne i niewystarczające do rozróżnienia między obiektami. W teorii zbiorów przybliżonych, informacje o obiektach są reprezentowane przez system informacyjny (tabela decyzyjna). System informacyjny dostarcza wiele przydatnych faktów i reguł, które są określane jako odkrywanie wiedzy, która z powodzeniem jest stosowana w wielu dziedzinach, w tym w ekstrakcji danych, sztucznej inteligencji czy przy inwestycjach finansowych. Cele artykułu jest pokazanie, w jaki sposób wiedza ukryta w rzeczywistych danych, mogą zostać odkryte w trudnych ramach teorii mnogości. Po krótkim przedstawieniu podstawowych pojęć teorii zbiorów przybliżonych, na przykładzie ocen fotelików samochodowych, przedstawiono zjawisko odkrywania wiedzy. W celu wydobycia reguły decyzyjnej zastosowano procedurę Ziarko i Shan.
Źródło:
Polish Journal of Management Studies; 2013, 7; 245-254
2081-7452
Pojawia się w:
Polish Journal of Management Studies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych
Application of formal concept analysis for information extraction system analysis
Autorzy:
Mirończuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/209644.pdf
Data publikacji:
2012
Wydawca:
Wojskowa Akademia Techniczna im. Jarosława Dąbrowskiego
Tematy:
formalna analiza pojęć
FCA
ekstrakcja informacji
analiza danych tekstowych
projektowanie ekstraktorów informacji
formal concept analysis
information extraction
project of knowledge based systems
Opis:
W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.
This article describes a design process of information extraction system IES. The proposed projecting method is based on rules and formal concept analysis.
Źródło:
Biuletyn Wojskowej Akademii Technicznej; 2012, 61, 3; 270-293
1234-5865
Pojawia się w:
Biuletyn Wojskowej Akademii Technicznej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rola Państwowego Instytutu Geologicznego w popularyzacji geologii w społeczeństwie
The role of Polish Geological Institute in promoting geology in society
Autorzy:
Wołkowicz, Krystyna
Mizerski, Włodzimierz
Krzeczyńska, Monika
Powiązania:
https://bibliotekanauki.pl/articles/2076095.pdf
Data publikacji:
2020
Wydawca:
Państwowy Instytut Geologiczny – Państwowy Instytut Badawczy
Tematy:
Państwowy Instytut Geologiczny
Muzeum Geologiczne
popularyzacja wiedzy geologicznej
dziedzictwo geologiczne
wydobycie surowców mineralnych
Polish Geological Institute
Geological Museum
popularization of geological
knowledge
geoheritage
mineral resources extraction
Opis:
In the field of geological education conducted by the Polish Geological Institute (PGI), the Geological Museum has traditionally played the main role. Geological collections have been gathered already since the establishment of the PGI in 1919, and over time, the exhibition and educational activities, popularizing geological knowledge in society, have been continued. Currently, an increasing number of PGI employees, also from outside the Museum, are involved in the education conducted by PGI, which allows the Institute to go "outside the Museum Exhibition Hall” directly into society. This is marked, among others, by the participation in an increasing number of mass outdoor events, as well as by the increasing activity in the protection of geological heritage in Poland. In the future, special emphasis must be paid on education about the necessity and inevitability and, finally, the acceptance of exploitation of raw materials, because we, as a society and individual entities, use things created from the processing of mineral resources every day.
Źródło:
Przegląd Geologiczny; 2020, 68, 5; 370--377
0033-2151
Pojawia się w:
Przegląd Geologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego oparta o formalną analizę pojęć
The Method of Designing the Knowledge Database and Rules for a Text Segmentation Tool Based on Formal Concept Analysis
Autorzy:
Mirończuk, M.
Powiązania:
https://bibliotekanauki.pl/articles/373053.pdf
Data publikacji:
2014
Wydawca:
Centrum Naukowo-Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego
Tematy:
formalna analiza pojęć
segmentator tekstu
segmentator regułowy
projektowanie bazy wiedzy
metoda projektowania bazy wiedzy
FCA
wydzielanie segmentów
dzielenie tekstu na segmenty
formal concept analysis
project of knowledge database
segment extraction
text processing
Opis:
Cel: Zaprezentowanie rozwiązania problemu segmentacji tekstu dziedzinowego. Badany tekst pochodził z raportów (formularza „Informacji ze zdarzenia”, pola „Dane opisowe do informacji ze zdarzenia”) sporządzanych po akcjach ratowniczo-gaśniczych przez jednostki Państwowej Straży Pożarnej. Metody: W celu realizacji zadania autor zaproponował metodę projektowania bazy wiedzy oraz reguł segmentatora regułowego. Zaproponowana w artykule metoda opiera się na formalnej analizie pojęć. Zaprojektowana według proponowanej metody baza wiedzy oraz reguł umożliwiła przeprowadzenie procesu segmentacji dostępnej dokumentacji. Poprawność i skuteczność proponowanej metody zweryfikowano poprzez porównanie jej wyników z dwoma innymi rozwiązaniami wykorzystywanymi do segmentacji tekstu. Wyniki: W ramach badań i analiz opisano oraz pogrupowano reguły i skróty występujące w badanych raportach. Dzięki zastosowaniu formalnej analizy pojęć utworzono hierarchię wykrytych reguł oraz skrótów. Wydobyta hierarchia stanowiła zarazem bazę wiedzy oraz reguł segmentatora regułowego. Przeprowadzone eksperymenty numeryczne i porównawcze autorskiego rozwiązania z dwoma innymi rozwiązaniami wykazały znacznie lepsze działanie tego pierwszego. Przykładowo otrzymane wyniki F-miary otrzymane w wyniku zastosowania proponowanej metody wynoszą 95,5% i są lepsze o 7-8% od pozostałych dwóch rozwiązań. Wnioski: Zaproponowana metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego umożliwia projektowanie i implementację oprogramowania do segmentacji tekstu z małym błędem podziału tekstu na segmenty. Podstawowa reguła dotycząca wykrywania końca zdania poprzez interpretację kropki i dodatkowych znaków jako końca segmentu w rzeczywistości, zwłaszcza dla tekstów specjalistycznych, musi być opakowana dodatkowymi regułami. Działania te znacznie podnoszą jakość segmentacji i zmniejszają jej błąd. Do budowy i reprezentacji takich reguł nadaje się przedstawiona w artykule formalna analiza pojęć. Wiedza inżyniera oraz dodatkowe eksperymenty mogą wzbogacać utworzoną sieć o nowe reguły. Nowo wprowadzana wiedza może zostać w łatwy sposób naniesiona na aktualnie utworzoną sieć semantyczną, tym samym przyczyniając się do polepszenia segmentacji tekstu. Ponadto w ramach eksperymentu numerycznego wytworzono unikalny: zbiór reguł oraz skrótów stosowanych w raportach, jak również zbiór prawidłowo wydzielonych i oznakowanych segmentów.
Objective: Presentation of a specialist text segmentation technique. The text was derived from reports (a form “Information about the event”, field “Information about the event - descriptive data”) prepared by rescue units of the State Fire Service after firefighting and rescue operations. Methods: In order to perform the task the author has proposed a method of designing the knowledge base and rules for a text segmentation tool. The proposed method is based on formal concept analysis (FCA). The knowledge base and rules designed by the proposed method allow performing the segmentation process of the available documentation. The correctness and effectiveness of the proposed method was verified by comparing its results with the other two solutions used for text segmentation. Results: During the research and analysis rules and abbreviations that were present in the studied specialist texts were grouped and described. Thanks to the formal concepts analysis a hierarchy of detected rules and abbreviations was created. The extracted hierarchy constituted both a knowledge and rules base of tools for segmentation of the text. Numerical and comparative experiments on the author's solution with two other methods showed significantly better performance of the former. For example, the F-measure results obtained from the proposed method are 95.5% and are 7-8% better than the other two solutions. Conclusions: The proposed method of design knowledge and rules base text segmentation tool enables the design and implementation of software with a small error divide the text into segments. The basic rule to detect the end of a sentence by the interpretation of the dots and additional characters as the end of the segment, in fact, especially in case of specialist texts, must be packaged with additional rules. These actions will significantly improve the quality of segmentation and reduce the error. For the construction and representation of such rules is suitable presented in the article, the formal concepts analysis. Knowledge engineering and additional experiments can enrich the created hierarchy by the new rules. The newly inserted knowledge can be easily applied to the currently established hierarchy thereby contributing to improving the segmentation of the text. Moreover, within the numerical experiment is made unique: a set of rules and abbreviations used in reports and set properly separated and labeled segments.
Źródło:
Bezpieczeństwo i Technika Pożarnicza; 2014, 2; 93-103
1895-8443
Pojawia się w:
Bezpieczeństwo i Technika Pożarnicza
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-11 z 11

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies