Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "metadata" wg kryterium: Temat


Tytuł:
Development of metadata for historical cartographic resources associated with the Paris Peace Conference (1919−1920)
Autorzy:
Zawadzki, Mateusz
Powiązania:
https://bibliotekanauki.pl/articles/1935067.pdf
Data publikacji:
2021
Wydawca:
Oddział Kartograficzny Polskiego Towarzystwa Geograficznego
Tematy:
metadata
historical cartographic sources
thematic repository
Opis:
In the era of interdisciplinary research supported by IT solutions, a special role is played by digital source repositories. The digital turn has contributed to their considerable development, and the application of new technologies has largely changed the current methods of research work. This facilitates pooling and structuring dispersed collections e.g. as part of thematic repositories, which collect and share thematically related resources. Metadata, which allow efective searching and identification of resources, are an important element of their function. The objective of the article is to present a procedure for the development of metadata aimed at creation of a thematic database of dispersed sources remaining after the Paris Peace Conference ending World War I. Based on the metadata development procedure, the author discusses the diagnosed problems associated with e.g. the specificity of the analyzed sources.
Źródło:
Polish Cartographical Review; 2021, 53; 77-90
2450-6974
Pojawia się w:
Polish Cartographical Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Access Logs : Underestimated Privacy Risks
Autorzy:
Glet, Michał
Kaczyński, Kamil
Powiązania:
https://bibliotekanauki.pl/articles/227087.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
metadata
privacy
cybersecurity
instant messaging
access log
Opis:
Access logs may offer service providers a lot of information about specific users. Depending on the type of the service offers, the operator is capable of obtaining the user’s IP, location, communication habits, device information and so on. In this paper, we analyze a sample instant messenger service that is operating for a certain period of time. In our sandbox, we gathered enough data to correlate user communication habits with their localization, and even contacts. We show how seriously metadata may impact the user’s privacy and make some recommendations about mitigating the quantity of data collected in connection with this type of services.
Źródło:
International Journal of Electronics and Telecommunications; 2020, 66, 3; 405-410
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Manipulation of compressed data using MPEG-7 low level audio descriptors
Autorzy:
Lukasiak, J.
Stirling, D.
Perrow, S.
Harders, N.
Powiązania:
https://bibliotekanauki.pl/articles/307721.pdf
Data publikacji:
2003
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
MPEG-7
metadata
description
machine learning
multimedia retrieval
Opis:
This paper analyses the consistency of a set of MPEG-7 low level audio descriptors when the input audio stream has previously been compressed with a lossy compression algorithm. The analysis results show that lossy compression has a detrimental effect on the integrity of practical search and retrieval schemes that utilize the low level audio descriptors. Methods are then proposed to reduce the detrimental effects of compression in searching schemes. These proposed methods include improved searches, switched adaptive scalar and vector prediction, and other prediction schemes based on machine learning principles. Of the proposed schemes the results indicate that searching which incorporates previous and future frames combined with machine learning based prediction best nullifies the effects of compression. However, future scope is identified to further improve the reliability of the MPEG-7 audio descriptors in practical search environments.
Źródło:
Journal of Telecommunications and Information Technology; 2003, 2; 83-91
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Internet Data Collection with the Google Hacking Tool – White, Grey or Black Open-Source Intelligence?
Pozyskiwanie informacji z Internetu metodą Google Hacking – biały, szary czy czarny wywiad?
Autorzy:
Mider, Daniel
Garlicki, Jan
Mincewicz, Wojciech
Powiązania:
https://bibliotekanauki.pl/articles/501858.pdf
Data publikacji:
2019-04-23
Wydawca:
Agencja Bezpieczeństwa Wewnętrznego
Tematy:
Google Hacking
FOCA
metadata harvesting
browser
wyszukiwarka internetowa
Opis:
The article analyzes the potential of obtaining internet-based information techniques referring to as Google Hacking (GH), that is, the forwarding of Google search queries revealing data not available directly or whose acquisition is unauthorized for ethical reasons, legal reasons or both. Techniques of obtaining information by GH method have been divided into three groups. The first method of obtaining data that does not raise ethical and legal concerns is referred to as open-source, white intelligence, including the search for deleted and archived pages, search for some information about users and other substantive information. The second group of techniques (grey intelligence) – raising ethical concerns – included the acquisition of information left (unconsciously) by the authors and owners of websites, information about the structure of websites and the configuration parameters of www servers. The last group of techniques is the so-called black intelligence – illegal and mostly unethical acts. There subject of analysis was the potential of obtaining secured information, of sensitive personal data and configuration parameters of programs and devices. The text is complemented by the analysis of the possibilities of obtaining information through the FOCA (Fingerprinting Organizations with Collected Archives) program, used to automate GH queries, metadata harvesting oriented, i.e. mass mining and analysis of meta-data contained in online documents.
W artykule dokonano analizy potencjału technik pozyskiwania informacji w Internecie określanych mianem Google Hacking (GH), tj. formułowania zapytań dla przeglądarki Google, ujawniających dane niedostępne bezpośrednio lub te, których pozyskanie jest nieuprawnione z powodów etycznych, prawnych lub z obu tych przyczyn. Techniki zdobywania informacji metodą GH pogrupowano w trzy zbiory. Pierwszy sposób pozyskiwania danych, który nie budzi zastrzeżeń etycznych i prawnych, określono mianem białego wywiadu. Zaliczono do niego wyszukiwanie stron usuniętych i archiwalnych, wyszukiwanie niektórych informacji o użytkownikach oraz innych informacji merytorycznych. Do drugiej grupy technik, określanych jako szary wywiad, wątpliwych z etycznego punktu widzenia, włączono zdobywanie informacji pozostawionych nieświadomie przez twórców i właścicieli witryn internetowych, informacji o strukturze witryn internetowych oraz parametrów konfiguracyjnych serwerów www. Ostatnią grupę technik stanowi czarny wywiad, tj. działania nielegalne i najczęściej nieetyczne. Przeanalizowano tu potencjał uzyskiwania informacji zabezpieczonych, osobowych danych wrażliwych oraz parametrów konfiguracyjnych programów i urządzeń. Uzupełnienie tekstu stanowi analiza możliwości pozyskiwania informacji za pomocą programu FOCA (Fingerprinting Organizations with Collected Archives), służącego do automatyzowania zapytań GH i zorientowanego na metadata harvesting, czyli masowe odnajdywanie i analizowanie metadanych zawartych w dokumentach online.
Źródło:
Przegląd Bezpieczeństwa Wewnętrznego; 2019, 11, 20; 280-300
2080-1335
2720-0841
Pojawia się w:
Przegląd Bezpieczeństwa Wewnętrznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
GeoWebCln: An intensive cleaning architecture for geospatial metadata
Autorzy:
Kumari Sheoran, Savita
Parmar, Vinti
Powiązania:
https://bibliotekanauki.pl/articles/2054577.pdf
Data publikacji:
2022-03-31
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
spatial data
spatial metadata
data cleaning
spatial database
GIS
Opis:
Developments in big data technology, wireless networks, Geographic information system (GIS) technology, and internet growth has increased the volume of data at an exponential rate. Internet users are generating data with every single click. Geospatial metadata is widely used for urban planning, map making, spatial data analysis, and so on. Scientific databases use metadata for computations and query processing. Cleaning of data is required for improving the quality of geospatial metadata for scientific computations and spatial data analysis. In this paper, we have designed a data cleaning tool named as GeoWebCln to remove useless data from geospatial metadata in a user-friendly environment using the Python console of QGIS Software.
Źródło:
Quaestiones Geographicae; 2022, 41, 1; 51-62
0137-477X
2081-6383
Pojawia się w:
Quaestiones Geographicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An Ensemble of Statistical Metadata and CNN Classification of Class Imbalanced Skin Lesion Data
Autorzy:
Nayak, Sachin
Vincent, Shweta
Sumathi, K.
Kumar, Om Prakash
Pathan, Sameena
Powiązania:
https://bibliotekanauki.pl/articles/2055258.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
classification
Convolutional Neural Networks
Ensemble Learning
machine learning
metadata
Opis:
Skin Cancer is one of the most widely present forms of cancer. The correct classification of skin lesions as malignant or benign is a complex process that has to be undertaken by experienced specialists. Another major issue of the class imbalance of data causes a bias in the results of classification. This article presents a novel approach to the usage of metadata of skin lesions images to classify them. The usage of techniques addresses the problem of class imbalance to nullify the imbalances. Further, the use of a convolutional neural network (CNN) is proposed to finetune the skin lesion data classification. Ultimately, it is proven that an ensemble of statistical metadata analysis and CNN usage would result in the highest accuracy of skin color classification instead of using the two techniques separately.
Źródło:
International Journal of Electronics and Telecommunications; 2022, 68, 2; 251--257
2300-1933
Pojawia się w:
International Journal of Electronics and Telecommunications
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sampling, metadata and DNA extraction - important steps in metagenomic studies
Autorzy:
Felczykowska, Agnieszka
Krajewska, Anna
Zielińska, Sylwia
Łoś, Joanna
Powiązania:
https://bibliotekanauki.pl/articles/1039153.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Biochemiczne
Tematy:
sampling
DNA extraction
DNA purification
soil
water
wastewater
metadata
Opis:
Metagenomic studies have become increasingly popular. They allow for the estimation of biodiversity in complex populations. This diversity presents an enormous but largely unexpected genetic and biological pool and can be exploited for the recovery of novel genes, entire metabolic pathways and their products. Generally metagenomic study is a genomic analysis of organisms by direct extraction and cloning of DNA from their natural environment. The most common problems of modern metagenomics are as follows: majority of the microorganisms present in the environment cannot be cultivated by standard techniques, DNA extraction methods are not very effective, isolated DNA is contaminated with various compounds, a choice for a screening method is not obvious.
Źródło:
Acta Biochimica Polonica; 2015, 62, 1; 151-160
0001-527X
Pojawia się w:
Acta Biochimica Polonica
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Mental Files. Triggering Mechanisms, Metadata and ‘Discernibility of Identicals’
Autorzy:
Tałasiewicz, Mieszko
Powiązania:
https://bibliotekanauki.pl/articles/561320.pdf
Data publikacji:
2017
Wydawca:
Polskie Towarzystwo Semiotyczne
Tematy:
François Récanati
singularism/descriptivism
acquaintanceless thoughts
difference solo numero
metadata
Opis:
This paper initially follows the final part of the debate between singularism and descriptivism to the point of convergence, and discusses the notion of acquaintanceless singular thought (such that there is a compromise available between hitherto competing parties). Then a sketch of a mental files model is presented. Firstly, the triggering mechanisms for opening files are discussed. Two kinds of discourse situations, acquaintance-situations (A-situations) and decoding-situations (D-situations), are identified and different triggering mechanisms are postulated for each. Secondly, a bipartite structure of a file is introduced, combining an objectual part, encompassing what traditionally has been associated with the notion of a mental file, serving the purpose of storing information about the referent of the file, and a metadata part, serving the purpose of storing information about the file itself. Being capable of encoding a variety of types of mental files, this structure is then employed to illustrate how singularity/descriptivity of the files can be manipulated (as in the case of descriptive names) and how we can account for the cognitive discernibility of files containing identical objectual information and grounded with the same acquaintance relations.
Źródło:
Studia Semiotyczne; 2017, 31, 2; 13-34
0137-6608
Pojawia się w:
Studia Semiotyczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Towards implementing virtual data infrastructures - a case study with iRODS
Autorzy:
Roblitz, T.
Powiązania:
https://bibliotekanauki.pl/articles/305375.pdf
Data publikacji:
2012
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
data management
virtual infrastructures
metadata handling
provenance information
data provisioning
Opis:
Scientists demand easy-to-use, scalable and flexible infrastructures for sharing, managing and processing their data spread over multiple resources accessible via different technologies and interfaces. In our previous work, we developed the conceptual framework VISPA for addressing these requirements. This paper provides a case study assessing the integrated Rule-Oriented Data System (iRODS) for implementing the key concepts of VISPA. We found that iRODS is already well suited for handling metadata and sharing data. Although it does not directly support provenance information of data and the temporal provisioning of data, basic forms of these capabilities may be provided through its customization mechanisms, ie rules and micro-services.
Źródło:
Computer Science; 2012, 13 (4); 21-33
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
BDOT500 Database of Physical Topographic Objects – Basic Qualitative Analysis
Bazy danych obiektów topograficznych BDOT500 – podstwowa analiza jakościowa
Autorzy:
Ślusarski, M.
Powiązania:
https://bibliotekanauki.pl/articles/100278.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Tematy:
topographical object database
metadata
spatial data quality
metadane
topografia
BDOT500
Opis:
Official databases, which gather spatial data, should include sets of metadata, which serve to describe the information within. The fundamental element of a metadata set consists in the features describing the quality and relative importance of geospatial data. In the present work, we propose a method for the evaluation of database quality pertaining to databases of topographic objects (BDOT500) based on four criteria: location accuracy, completeness, validity (in the sense of being up to date) and logical coherence. Overall quality evaluation of the BDOT500 database was carried out using the calculation of two estimation factors: average absolute value and the coefficient of average variation. The method described herein is a useful device, which allows for a quick and credible evaluation of the BDOT500 data quality at a basic level. Applying the method does not require involving any additional means, as all the necessary information is already recorded inside the database.
Urzędowe bazy danych gromadzące dane przestrzenne powinny zawierać zbiory metadanych, służące do ich opisu. Zasadniczym elementem zbioru metadanych są cechy opisujące jakość i ważność danych przestrzennych. W pracy zaproponowano metodę oceny jakości baz danych obiektów topograficznych (BDOT500) opartą na czterech kryteriach: dokładności położenia, kompletności, aktualności i spójności logicznej. Całościową ocenę jakości danych bazy BDOT500 przeprowadzono poprzez obliczenie dwóch estymatorów: wartości przeciętnej absolutnej oraz współczynnika zmienności średnich. Przedstawiona metoda to sposób na szybką i wiarygodną ocenę jakości danych BDOT500 na poziomie podstawowym. Zastosowanie tej metody nie wymaga angażowania dodatkowych środków, wszystkie potrzebne informacje zapisane są w systemie bazy danych.
Źródło:
Geomatics, Landmanagement and Landscape; 2015, 1; 69-75
2300-1496
Pojawia się w:
Geomatics, Landmanagement and Landscape
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Forming of the semistructured data dynamic integration mash-up system content
Autorzy:
Kushniretska, I
Powiązania:
https://bibliotekanauki.pl/articles/118097.pdf
Data publikacji:
2015
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
Mash-up system
Mash-up system content
metadata triplets
similarity factor
Opis:
This paper describes the method of forming a united dynamic data set that has the general structure and only content. The procedure of forming the triplets with the structure "subject-predicate-object" with the received input information resources descriptions has been proposed. The formula of calculating the similarity factor of user query with information resource semantic metadata has been presented. The structure of the semistructured data dynamic integration system that used “Mash-Up” technology has been designed.
Źródło:
Applied Computer Science; 2015, 11, 3; 34-43
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The Cultural Heritage of Printing in the 15-18th Centuries as Digital Resources – a Reconnaissance
Dziedzictwo kultury druku XV-XVIII w. w zasobach cyfrowych – rekonesans
Autorzy:
Fluda-Krokos, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/1038627.pdf
Data publikacji:
2019-10-01
Wydawca:
Akademia Ignatianum w Krakowie
Tematy:
stary druk
biblioteka cyfrowa
metadane
wyszukiwanie
old print
digital library
metadata
search
Opis:
Digitization as an element of technological development has contributed to the removal of many information barriers related to access to the achievements of writing and printing culture. Thanks to numerous programs of developing and subsidizing work on intellectual property, digital libraries, museums and archives have been created, offering access to their collections online. Digital forms of priceless manuscripts, old prints, documents of social life and other manifestations of culture are not only a way of conservation and preservation of the originals or the presentation of library magazines, but also sources for research. The content of the Digital Library Federation – DLF, which associates 138 data providers, will be used as an example of digitized old prints along with ways of describing, searching, displaying results and special addons that make their use simple and effective. As a result of the research, 38,629 items marked as old prints were found in the database, supplied by 38 institutions, the most numerous being those provided by the Jagiellonian Digital Library and the Lower Silesia Digital Library, with the predominance of 18th and 17th century and Latin and Polish prints.
Cyfryzacja jako element rozwoju technologicznego przyczyniła się do zniesienia wielu barier informacyjnych związanych z dostępem do osiągnięć kultury pisma i druku. Dzięki licznym programom opracowywania i dofinansowywania prac nad dorobkiem umysłowym, znajdującym się w zasobach m.in. bibliotek, powstały biblioteki, muzea i archiwa cyfrowe, oferujące dostęp do swoich zbiorów z poziomu internetu. Formy cyfrowe bezcennych rękopisów, starych druków, dokumentów życia społecznego i innych przejawów kultury są nie tylko zabezpieczeniem i ochroną oryginałów czy też prezentacją bibliotecznych magazynów, lecz także źródłami do badań. Na przykładzie zawartości zasobów Federacji Bibliotek Cyfrowych, zrzeszającej 138 dostawców danych, przedstawiony zostanie zasób zdigitalizowanych starych druków oraz sposoby ich opisywania, przeszukiwania, wyświetlania wyników, a także dodatki specjalne, dzięki którym korzystanie z nich jest proste i efektywne. W wyniku badań w bazie stwierdzono obecność 38 629 obiektów oznaczonych jako starodruki, dostarczonych przez 38 instytucji, przy czym najliczniej udostępniane przez Jagiellońską Bibliotekę Cyfrową oraz Dolnośląską Bibliotekę Cyfrową, z dominującą przewagą druków XVIII- i XVII-wiecznych oraz łacińsko- i polskojęzycznych.
Źródło:
Perspektywy Kultury; 2019, 26, 3; 169-186
2081-1446
2719-8014
Pojawia się w:
Perspektywy Kultury
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Metadata-driven data migration from object-relational database to nosql document-oriented database
Autorzy:
Aggoune, Aicha
Namoune, Mohamed Sofiane
Powiązania:
https://bibliotekanauki.pl/articles/27312893.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
NoSQL document-oriented database
object-relational database
data migration
mapping rules
metadata
Opis:
Object-relational databases (ORDB) are powerful tools for managing complex data, but they suffer from problems of scalability and managing large-scale data. Therefore, the importance of the migration of ORDB to NoSQL derives from the fact that the large volume of data can be handled in the best way with high scalability and availability. This paper reports a metadata-driven approach for the migration of ORDB to a document-oriented NoSQL database. Our data-migration approach involves three major stages: a pre-processing stage (to extract data and a schema’s components), a processing stage (to provide data transformation), and a post-processing stage (to store migrated data as BSON documents). This approach maintains the benefits of Oracle ORDB in NoSQL MongoDB by supporting integrity constraint checking. To validate our approach, we developed the OR2DOD (object relational to document-oriented database) system, and the experimental results confirm the effectiveness of our proposal.
Źródło:
Computer Science; 2022, 23 (4); 495--519
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Encapsulation of image metadata for ease of retrieval and mobility
Autorzy:
Woods, Nancy
Robert, Charles
Powiązania:
https://bibliotekanauki.pl/articles/117866.pdf
Data publikacji:
2019
Wydawca:
Polskie Towarzystwo Promocji Wiedzy
Tematy:
automatic image annotation
image tagging
metadata
automatyczna adnotacja obrazu
znakowanie obrazów
metadane
Opis:
Increasing proliferation of images due to multimedia capabilities of hand-held devices has resulted in loss of source information resulting from inherent mobility. These images are cumbersome to search out once stored away from their original source because they drop their descriptive data. This work, developed a model to encapsulate descriptive metadata into the Exif section of image header for effective retrieval and mobility. The resulting metadata used for retrieval purposes was mobile, searchable and non-obstructive.
Źródło:
Applied Computer Science; 2019, 15, 1; 62-73
1895-3735
Pojawia się w:
Applied Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Platonic Computer— the Universal Machine That Bridges the “Inverse Explanatory Gap” in the Philosophy of Mind
Autorzy:
Duan, Simon X.
Powiązania:
https://bibliotekanauki.pl/articles/31234154.pdf
Data publikacji:
2022
Wydawca:
Polska Akademia Nauk. Instytut Filozofii i Socjologii PAN
Tematy:
Platonism
Platonic computer
pancomputationalism
metacomputics
metaconsciousness
metaprocessor
metadata
metaprogram
abstract entities
physical reality
nonphysical reality
Opis:
The scope of Platonism is extended by introducing the concept of a “Platonic computer” which is incorporated in metacomputics. The theoretical framework of metacomputics postulates that a Platonic computer exists in the realm of Forms and is made by, of, with, and from metaconsciousness. Metaconsciousness is defined as the “power to conceive, to perceive, and to be self-aware” and is the formless, contentless infinite potentiality. Metacomputics models how metaconsciousness generates the perceived actualities including abstract entities and physical and nonphysical realities. It is postulated that this is achieved via digital computation using the Platonic computer. The introduction of a Platonic computer into the realm of Forms thus bridges the “inverse explanatory gap” and therefore solves the “inverse hard problem of consciousness” in the philosophy of mind.
Źródło:
Filozofia i Nauka; 2022, 10, zeszyt specjalny; 285-302
2300-4711
2545-1936
Pojawia się w:
Filozofia i Nauka
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies