Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "query data" wg kryterium: Temat


Wyświetlanie 1-14 z 14
Tytuł:
Kilka uwag na temat możliwości ustalenia wysokości kosztów procesu karnego w Polsce w drodze wnioskowania statystycznego
A few remarks on estimating criminal trial costs in Poland by means of inferential statistics
Autorzy:
Florczak, Waldemar
Powiązania:
https://bibliotekanauki.pl/articles/2140646.pdf
Data publikacji:
2022-10-04
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
accounting records
query data
representative sample
verification of statistical hypotheses
dane księgowe
kwerenda danych
próba reprezentatywna
weryfikacja hipotez statystycznych
Opis:
Przedmiot badań: Przedmiot badań stanowią szacunki kosztów procesu karnego w Polsce przy użyciu dostępnych danych zastanych i ankietowych. Cel badawczy: Celem artykułu jest próba empirycznej odpowiedzi na kilka ważkich pytań związanych z możliwością pomiaru wysokości kosztów procesu karnego w polskim sądownictwie. Metoda badawcza: Do realizacji celu badawczego wykorzystano dane zastane z oficjalnych raportów księgowych, prowadzonych na szczeblu wybranych sądów, oraz podjęto starania o ich zaczerpnięcie ze źródeł bezpośrednio afiliowanych przy Ministerstwie Sprawiedliwości. Wysiłki te nie doprowadziły do oczekiwanych efektów; jedynym źródłem informacji w w/w obszarze okazała się baza danych utworzona na potrzeby realizacji grantu NCN nr 2015/19/B/HS5/01217 „Koszty procesu karnego w świetle ekonomicznej analizy prawa”, kierowanego przez dr hab. Dobrosławę Szumiło-Kulczycką, prof. UJ. Informacje zawarte w tej bazie posłużyły do sformułowania kilku hipotez badawczych – poniżej intencjonalnie przedstawionych w formule pytań – których weryfikacji dokonano za pomocą adekwatnych narzędzi statystyki matematycznej (testdwóch średnich, metoda ANOVA, test wielu proporcji). Wyniki: Pomimo że utworzona baza danych stanowi bezprecedensowe i najpełniejsze źródło wiedzy w zakresie ilościowych, kosztowych aspektów procesu karnego w Polsce, to jednak próba generalizacji wniosków, które mogłyby być sformułowane na jej podstawie na populację wszystkich sądów w Polsce, musi być bardzo ostrożna. W świetle przeprowadzonego w tym artykule badania zgromadzone w bazie dane nie mogą być bowiem uznane za w pełni reprezentatywne. Ponadto – warunkowo względem wniosku poprzedzającego – zróżnicowanie przedmiotowe spraw karnych nie tłumaczy w sposób jednoznaczny różnic w kosztach procesu karnego.
Background: The paper attempts to estimate criminal trial costs in Poland by means of existing official data as well as survey data dedicated to such costs. Research purpose: The paper aims to empirically answer several weighty questions concerning the estimation of criminal trial costs in Poland. Methods: An attempt was made to benefit from existing official data found in accounting records reported regularly by individual courts of justice, as well as by the Ministry of Justice. However, both attempts failed, so the only credible source of data was the database elaborated within research project no 2015/19/B/HS5/01217 “Criminal trial costs in the light of law and economics analysis”, funded by the National Science Centre of Poland (NCN), and supervised by Prof. Dobroslawa Szumilo-Kulczycka, PhD from the Jagiellonian University. Information collected in the database enabled the author to formulate a few research hypotheses – presented in the form of brief questions – to be verified using appropriate statistical methods (test for two means, ANOVA method, multi proportions test). Conclusions: Although the database elaborated for the NCN project constitutes an unprecedented source of credible data regarding criminal trial costs in Poland, any attempts to generalize possible conclusions that could be drawn on the basis of this data for all Polish courts must be cautious. This is because, in the light of the statistical analyses carried out in this investigation, the data cannot be regarded as fully representative. Additionally, diversification in the structure of criminal acts across individual courts cannot explain the actual differences in the criminal trial costs reported by individual courts .  
Źródło:
Studia Prawno-Ekonomiczne; 2022, 124; 101-119
0081-6841
Pojawia się w:
Studia Prawno-Ekonomiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Temporal analysis of adaptive face recognition
Autorzy:
Akhtar, Z.
Rattani, A.
Foresti, G. L.
Powiązania:
https://bibliotekanauki.pl/articles/91602.pdf
Data publikacji:
2014
Wydawca:
Społeczna Akademia Nauk w Łodzi. Polskie Towarzystwo Sieci Neuronowych
Tematy:
aging process
facial biometrics
virtual template synthesis
complex 3D modelling techniques
temporal variation
query data
facial representation
facial age progression process
Opis:
Aging has profound effects on facial biometrics as it causes change in shape and texture. However, aging remains an under-studied problem in comparison to facial variations due to pose, illumination and expression changes. A commonly adopted solution in the state-of-the-art is the virtual template synthesis for aging and de-aging transformations involving complex 3D modelling techniques. These methods are also prone to estimation errors in the synthesis. Another viable solution is to continuously adapt the template to the temporal variation (ageing) of the query data. Though efficacy of template update procedures has been proven for expression, lightning and pose variations, the use of template update for facial aging has not received much attention so far. Therefore, this paper first analyzes the performance of existing baseline facial representations, based on local features, under ageing effect then investigates the use of template update procedures for temporal variance due to the facial age progression process. Experimental results on FGNET and MORPH aging database using commercial VeriLook face recognition engine demonstrate that continuous template updating is an effective and simple way to adapt to variations due to the aging process.
Źródło:
Journal of Artificial Intelligence and Soft Computing Research; 2014, 4, 4; 43-255
2083-2567
2449-6499
Pojawia się w:
Journal of Artificial Intelligence and Soft Computing Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Query Optimization in Teradata Warehouse
Autorzy:
Gosk, A.
Powiązania:
https://bibliotekanauki.pl/articles/308501.pdf
Data publikacji:
2010
Wydawca:
Instytut Łączności - Państwowy Instytut Badawczy
Tematy:
active data warehouse
query optimization
tera-data
Opis:
The time necessary for data processing is becoming shorter and shorter nowadays. This thesis presents a definition of the active data warehousing (ADW) paradigm. One of the data warehouses which is consistent with this paradigm is teradata warehouse. Therefore, the basic elements of the teradata architecture are described, such as processors parsing engine (PE) and access module processor (AMP). Emphasis was put on the analysis of query optimization methods. There is presented the impact of a primary index on the time of query execution. Furthermore, this paper shows different methods of optimization of data selection, data joins and data aggregation. All these methods can help to minimize the time for data processing. This paper presents experiments which show the usage of different methods of query optimization. At the end some conclusions about different index usage are included.
Źródło:
Journal of Telecommunications and Information Technology; 2010, 3; 57-64
1509-4553
1899-8852
Pojawia się w:
Journal of Telecommunications and Information Technology
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An efficient SQL-based querying method to RDF schemata
Autorzy:
Falkowski, M.
Jędrzejek, Cz.
Powiązania:
https://bibliotekanauki.pl/articles/970821.pdf
Data publikacji:
2009
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
semantic data
graph query
RDF
relational database
query rewriting
Opis:
Applications based on knowledge engineering require operations on semantic data. Modern systems have to deal with large data volumes and the challenge is to process and search these data effectively. One of the aspects of efficiency is the ability to query those data with respect to their semantics. In this area an RDF data model and a SPARQL query language gained the highest popularity and are de facto standards. The problem is that most data in modern systems are stored in relational databases and have no formal and precisely expressed semantics, although operations on those data are fast and scalable. Traditionally, in this area relational data are transformed to a form expected by reasoning and querying systems (usually RDF based). In this work a method of query rewriting is presented that translates a query to an RDF data structure (i.e. SPARQL query) to a SQL query executed by RDBMS. Transforming queries instead of data has many advantages and might lead to significant increase of data extraction efficiency.
Źródło:
Control and Cybernetics; 2009, 38, 1; 193-213
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Badanie jakościowe w warunkach niedoszacowania czasu – czyli o konieczności „podążania na skróty”. Organizacja procesu badawczego pod kątem zastosowania komputerowego wsparcia analizy danych jakościowych
Qualitative Research in the Condition of Underestimated Time – In Need of “Shortcuts.” The Organization of Research Process Using the Computer-Aided Qualitative Analysis
Autorzy:
Brosz, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/623357.pdf
Data publikacji:
2014
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Tematy:
CAQDAS
NVivo
autokodowanie
segmentacja danych
importowanie ilościowych baz danych
kwerenda macierzowa
macierz ramowa
auto coding
data segmentation
import classification sheet data matrix coding query
framework matrix
Opis:
Artykuł poświęcony jest organizowaniu procesu badawczego pod kątem zastosowania oprogramowania NVivo. Prezentowane badania zostały przeprowadzone w warunkach niedoszacowania czasu. Zastosowanie CAQDA oraz odpowiednia organizacja badania pozwoliły zmieścić się w harmonogramie narzuconym przez instytucję zlecającą. Organizacja i podział pracy, przygotowanie odpowiednio sformatowanych dokumentów oraz uzupełnienie jakościowej bazy danych o zbiór atrybutów bazujących na danych standaryzowanych znacząco usprawniły opracowywanie wyników.
This paper concerns the organization of research process using NVivo software. Described researches were conducted in the condition of underestimated time. The use of CAQDA (computer-aided qualitative data analysis) and proper research management enabled fitting into the timeframe imposed by the contracting institution. The work distribution and its management, preparation of properly formatted documents, and complementation of qualitative database with the collection of attributes based on standardized data significantly improved the elaboration of results.
Źródło:
Przegląd Socjologii Jakościowej; 2014, 10, 2; 40-58
1733-8069
Pojawia się w:
Przegląd Socjologii Jakościowej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Schema mapping and query reformulation in peer-to-peer XML data integration system
Autorzy:
Pankowski, T.
Powiązania:
https://bibliotekanauki.pl/articles/970787.pdf
Data publikacji:
2009
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
semantic data integration
XML schema mapping
XML functional dependencies
query reformulation
query answering in peer-to-peer systems
Opis:
In the paper we discuss the problem of XML data integration in a P2P environment. In this setting each peer stores schema of its local data, mappings between the schema and schemas of some other peers (peer's partners), and schema constraints. The goal of the integration is to answer the queries formulated against arbitrarily chosen peers. The answer consists of data stored in the queried peer as well as data of its direct and indirect partners. We focus on denning and using mappings, schema constraints, and query reformulation in such scenario. We discuss a strategy that allows us to obtain a complete answer with the possibility of discovering missing values. The method is the theoretical foundation of the implementation of SixP2P system (Semantic Integration of XML data in P2P environment).
Źródło:
Control and Cybernetics; 2009, 38, 1; 173-192
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Yet another object-oriented data model and its application
Jeszcze jeden obiektowo zorientowany model danych i jego zastosowanie
Autorzy:
Jankowska, B.
Powiązania:
https://bibliotekanauki.pl/articles/206751.pdf
Data publikacji:
2003
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
model danych
język zapytań
rachunek obiektowy
data model
calculus for objects
query language
Opis:
In this paper we propose a certain object-oriented data model. It originates from the calculus for complex objects of Bancilhon and Khoshafian. These two models differ mainly in terms of the set objects' interpretation. In our model a set object stands for a set of items denoting different forms of the same object. As a consequence, a new sub object relation must be defined. Then, new functions of union, intersection and complement are defined. It is proven that the new data model is not only a lattice, but also a Boolean algebra. Finally, the model is expanded into a new calculus for objects. It is shown that the calculus provides a firm background for some interesting query language.
W artykule zaproponowano pewien obiektowo zorientowany model danych. Wywodzi się on z rachunku dla obiektów złożonych, wprowadzonego przez Bancilhona i Koshafiana. Te dwa modele różnią się między sobą w zakresie interpretacji obiektów typu zbioru. W zaproponowanym modelu obiekt typu zbioru oznacza zbiór pewnych przedmiotów oznaczających różne formy tego samego obiektu. W konsekwencji, trzeba zdefiniować nową relację, sub object. Wówczas definiuje się nowe funkcje: union (suma), intersection (przecięcie) oraz complement (dopełnienie). Wykazuje się, że nowy model nie tylko jest kratą, ale i algebrą Boole'owską. W końcu, zaproponowany model jest rozszerzony do postaci nowego rachunku dla obiektów. Pokazano, że ten rachunek stanowi dobrą podstawę do pewnego interesującego języka zapytań.
Źródło:
Control and Cybernetics; 2003, 32, 1; 175-195
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An efficient approach for view selection for data warehouse using tree mining and evolutionary computation
Autorzy:
Thakare, A.
Deshpande, P.
Powiązania:
https://bibliotekanauki.pl/articles/305413.pdf
Data publikacji:
2018
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
database management systems
data warehousing and data mining
query optimization
graph mining
algorithms for parallel computing
evolutionary computations
genetic algorithms
Opis:
The selection of a proper set of views to materialize plays an important role in database performance. There are many methods of view selection that use different techniques and frameworks to select an efficient set of views for materialization. In this paper, we present a new efficient scalable method for view selection under the given storage constraints using a tree mining approach and evolutionary optimization. The tree mining algorithm is designed to determine the exact frequency of (sub)queries in the historical SQL dataset. The Query Cost model achieves the objective of maximizing the performance benefits from the final view set that is derived from the frequent view set given by the tree mining algorithm. The performance benefit of a query is defined as a function of query frequency, query creation cost, and query maintenance cost. The experimental results show that the proposed method is successful in recommending a solution that is fairly close to an optimal solution.
Źródło:
Computer Science; 2018, 19 (4); 431-455
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
The development of multi-scale data management for CityGML-based 3D buildings
Autorzy:
Karim, Hairi
Rahman, Alias Abdul
Azri, Suhaibah
Halim, Zurairah
Powiązania:
https://bibliotekanauki.pl/articles/2055778.pdf
Data publikacji:
2022
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
CityGML
Level of Details (LoD)
multi-scale
scale unique ID
cross-scale query
spatial scale data management
Opis:
The CityGML model is now the norm for smart city or digital twin city development for better planning, management, risk-related modelling and other applications. CityGML comes with five levels of detail (LoD), mainly constructed from point cloud measurements and images of several systems, resulting in a variety of accuracies and detailed models. The LoDs, also known as pre-defined multi-scale models, require large storage-memory-graphic consumption compared to single scale models. Furthermore, these multi-scales have redundancy in geometries, attributes, are costly in terms of time and workload in updating tasks, and are difficult to view in a single viewer. It is essential for data owners to engage with a suitable multi-scale spatial management solution in minimizes the drawbacks of the current implementation. The proper construction, control and management of multi-scale models are needed to encourage and expedite data sharing among data owners, agencies, stakeholders and public users for efficient information retrieval and analyses. This paper discusses the construction of the CityGML model with different LoDs using several datasets. A scale unique ID is introduced to connect all respective LoDs for cross-LoD information queries within a single viewer. The paper also highlights the benefits of intermediate outputs and limitations of the proposed solution, as well as suggestions for the future.
Źródło:
Geomatics and Environmental Engineering; 2022, 16, 1; 71--94
1898-1135
Pojawia się w:
Geomatics and Environmental Engineering
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ontology-based access to temporal data with Ontop: A framework proposal
Autorzy:
Güzel Kalaycı, Elem
Brandt, Sebastian
Calvanese, Diego
Ryzhikov, Vladislav
Xiao, Guohui
Zakharyaschev, Michael
Powiązania:
https://bibliotekanauki.pl/articles/330542.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
metric temporal logic
ontology based data access
SPARQL query
Ontop platform
logika temporalna
baza danych ontologiczna
język zapytań SPARQL
platforma Ontop
Opis:
Predictive analysis gradually gains importance in industry. For instance, service engineers at Siemens diagnostic centres unveil hidden knowledge in huge amounts of historical sensor data and use it to improve the predictive systems analysing live data. Currently, the analysis is usually done using data-dependent rules that are specific to individual sensors and equipment. This dependence poses significant challenges in rule authoring, reuse, and maintenance by engineers. One solution to this problem is to employ ontology-based data access (OBDA), which provides a conceptual view of data via an ontology. However, classical OBDA systems do not support access to temporal data and reasoning over it. To address this issue, we propose a framework for temporal OBDA. In this framework, we use extended mapping languages to extract information about temporal events in the RDF format, classical ontology and rule languages to reflect static information, as well as a temporal rule language to describe events. We also propose a SPARQL-based query language for retrieving temporal information and, finally, an architecture of system implementation extending the state-of-the-art OBDA platform Ontop.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2019, 29, 1; 17-30
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: I. algebra and query language
Autorzy:
Widera, M.
Jeżewski, J.
Winiarczyk, R.
Wróbel, J.
Horoba, K.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/333189.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
The paper presents the algebra and declarative query language developed for fetal monitoring system MONAKO. At present, the system architecture is centralised. Recording, analyzing and visualization of data are carrying out in the central unit. Therefore, the system cannot scale in a simple manner. Presented solution enables to define query based on data streams that makes the updated answers currently available. Applying database management system that carries out its tasks based on presented assumptions enables the construction of monitoring system of distributed architecture
Źródło:
Journal of Medical Informatics & Technologies; 2003, 5; MI83-90
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Data stream processing in fetal monitoring system: II. Application to signal processing
Autorzy:
Jeżewski, J.
Widera, M.
Winiarczyk, R.
Matonia, A.
Kupka, T.
Gacek, A.
Powiązania:
https://bibliotekanauki.pl/articles/334015.pdf
Data publikacji:
2003
Wydawca:
Uniwersytet Śląski. Wydział Informatyki i Nauki o Materiałach. Instytut Informatyki. Zakład Systemów Komputerowych
Tematy:
język zapytań
przetwarzanie strumienia danych
system zarządzania bazami danych
monitorowanie płodu
query language
data stream processing
database management system
fetal monitoring
Opis:
Fetal monitoring system belongs to signal processing system class. The main functions of the system are signal acquisition from bedside monitors, on-line trace analysis and dynamic presentation of incoming data. Collected data set is controlled by centralised application. Relational database management system cannot process samples of high frequency biomedical signals on-line. Therefore, we decide to build our own data management system dedicated to stream processing that support continuous query. This paper describes a method of building a query plan based on proposed algebra. The presented example of application enables implementation of algorithm determining long- and short-term indices for fetal heart rate variability assessment on the basis of declarative query language. Our solution enables to define query based on data streams that make the updated answers currently available.
Źródło:
Journal of Medical Informatics & Technologies; 2003, 6; IT35-42
1642-6037
Pojawia się w:
Journal of Medical Informatics & Technologies
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Elementy optymalizacji zapytań SQL
Autorzy:
Ptasznik, A.
Powiązania:
https://bibliotekanauki.pl/articles/91325.pdf
Data publikacji:
2010
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Tematy:
optymalizacja zapytań SQL
organizacja przechowywania danych
indeksy zgrupowane
indeksy niezgrupowane
query optimization
organization of data storage
clustered ndexes
non-clustered indexes
Opis:
Współczesne bazy danych mogą przechowywać gigantyczne ilości danych i korzystać z nich mogą jednocześnie tysiące użytkowników. W bazach danych obsługujących działania operacyjne firmy krytyczne znaczenie ma szybkość realizowania zapytań. Problemy optymalizacji zapytań są złożone i wymagają od administratorów i programistów dużej wiedzy i doświadczenia. Wykład zapoznaje słuchaczy z problematyką wydajności i optymalizacji zapytań SQL. Omówiona zostanie fizyczna organizacja przechowywania danych i wprowadzone zostaną pojęcia indeksów zgrupowanych i niezgrupowanych. Zaprezentowane zostaną przykłady planów wykonania zapytań generowane przez optymalizator SQL. Na bazie przykładu omówione zostaną problemy wyboru strategii wykonania zapytania w zależności od zawartości tabel i zdefiniowanych indeksów. Wprowadzone zostanie pojecie statystyk indeksów i omówione będzie ich znaczenie przy wyborze strategii realizacji zapytania.
Present-day databases can store vast amounts of data and can be used simultaneously by thousands of users. Query executing speed is of crucial significance in databases for operational activities of a company. The issue of query optimisation is complex and it requires immense knowledge and experience from administrators and programmers. The lecture acquaints the audience with a range of issues connected with SQL query performance and optimisation. The physical organisation of data storage will be discussed and the concepts of clustered and non-clustered indexes will be introduced. The examples of query execution plans generated by SQL optimiser will be presented. On the basis of an example, issues of the choice of query execution strategy depending on the content of tables and defined indexes will be discussed. The concept of index statistics will be introduced and their significance for the choice of query execution strategy will be discussed.
Źródło:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki; 2010, 4, 4; 147-157
1896-396X
2082-8349
Pojawia się w:
Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Od JHP KABA do Deskryptorów Biblioteki Narodowej – wdrożenie zasad katalogowania Biblioteki Narodowej w Bibliotece Uniwersyteckiej w Toruniu
From the KABA Subject Headings Language to the National Library Descriptors – the implementation of the cataloguing code and authority control rules of the National Library of Poland in the University Library in Toruń
Autorzy:
Dwornik, Agnieszka
Powiązania:
https://bibliotekanauki.pl/articles/27311247.pdf
Data publikacji:
2022-12-30
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
Biblioteka Uniwersytecka w Toruniu
Deskryptory Biblioteki Narodowej
katalogowanie
MARC21
system biblioteczny
wyszukiwanie
języki informacyjno-wyszukiwawcze
ujednolicanie danych
JHP KABA
University Library in Toruń
KABA subject headings language
Descriptors of the National Library
cataloguing
library system
search query
information-retrieval languages
data standardisation
Opis:
W artykule przedstawiono proces zmiany zasad katalogowania w Bibliotece Uniwersyteckiej w Toruniu – odejście od JHP KABA i wdrożenie zasad katalogowania z zastosowaniem Deskryptorów Biblioteki Narodowej. Opisano przesłanki, jakie zainicjowały zmianę, etapy przygotowań oraz wdrożenie nowego sposobu opracowania. Porównane zostały zarówno zawartość informacyjna danych bibliograficznych w poprzedniej i nowej metodzie opracowania, jak i ich funkcjonalność we wdrożonym systemie nowej generacji Alma z wyszukiwarką Primo VE. Oceniono również przydatność nowych danych dla użytkowników biblioteki akademickiej. Zakres chronologiczny artykułu obejmuje lata 2015–2022. Praca ma charakter studium przypadku z zastosowaniem metody porównawczej i analizy piśmiennictwa.
This article presents the process of the changes in the set of rules with defined terminology designed for cataloguing purposes at the University Library in Toruń, i.e. the  departure from the KABA subject headings language and the transition to and implementation of the new set of rules for cataloguing using the National Library cataloguing descriptors. The article discusses the reasons that brought about this change, stages in the preparations, and the actual implementation of this new method for processing library materials. The author compares the information content of bibliographical data in the previously used  method and the newly-implemented method, as well as their functionalities in the Library’s new Alma integrated library system with its Primo VE search engine. The  expected utility of the new data for users of academic libraries is discussed and evaluated. The chronological bracket is defined by the years between 2015 and 2022. The present article is a case study and employs a comparative method and literature analysis.
Źródło:
Biblioteka; 2022, 26 (35); 171-204
1506-3615
2391-5838
Pojawia się w:
Biblioteka
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-14 z 14

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies