- Tytuł:
-
Agentowa struktura wielomodalnego interfejsu do Narodowej Platformy Cyberbezpieczeństwa, część 2
Agent Structure of Multimodal User Interface to the National Cybersecurity Platform – Part 2 - Autorzy:
-
Kasprzak, Włodzimierz
Szynkiewicz, Wojciech
Stefańczyk, Maciej
Dudek, Wojciech
Figat, Maksym
Węgierek, Maciej
Seredyński, Dawid
Zieliński, Cezary - Powiązania:
- https://bibliotekanauki.pl/articles/275677.pdf
- Data publikacji:
- 2019
- Wydawca:
- Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
- Tematy:
-
Narodowa Platforma Cyberbezpieczeństwa
rozpoznawanie obrazu
rozpoznawanie gestów
rozpoznawanie mowy
rozpoznawanie mówcy
National Cybersecurity Platform
image recognition
gesture recognition
speech recognition
speaker recognition - Opis:
-
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy
Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania
pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania,
ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu
wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może
być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane
wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu
środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część
środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji
uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu
przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także
rezultaty testów tych algorytmów.
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers. - Źródło:
-
Pomiary Automatyka Robotyka; 2019, 23, 4; 5-18
1427-9126 - Pojawia się w:
- Pomiary Automatyka Robotyka
- Dostawca treści:
- Biblioteka Nauki