Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "BIG" wg kryterium: Temat


Tytuł:
«Что делает дьявол на нашем диване?»: Холокост и Ленинградская блокада в прозе Сильвии Хутник, Игоря Остаховича, Андрея Тургенева
“What is the Devil Doing on our Sofa?”: The Holocaust and the Leningrad Blockade in the Prose of Sylvia Chutnik, Igor Ostachowicz, Andrei Turgenev
Autorzy:
Adelgejm, Irina
Powiązania:
https://bibliotekanauki.pl/articles/29433555.pdf
Data publikacji:
2021
Wydawca:
Karpacka Państwowa Uczelnia w Krośnie
Tematy:
Holokaust
oblężenie Leningradu
postpamięć
wielka narracja
trauma historyczna
Warszawa
Muranów
groteska
dekonstrukcja
terapia prowokatywna Franka Farrelliego
Holocaust
the Siege of Leningrad
post-memory
big narrative
historical trauma
Warsaw
grotesque
deconstruction
provocative therapy of F. Farrelli
Opis:
W artykule zaanalizowano teksty polskich autorów Igora Ostachowicza i Sylwii Chutnik oraz rosyjskiego pisarza Andrieja Turgieniewa (pseudonim Wiaczesława Kuricyna), zrodzone perspektywę postpamięci, wcześniej czy później odsłaniającej i wypełniającej „białe plamy” – przez poczucie, że adekwatny dyskurs nie został wypracowany lub też istniejący już dyskurs nie funkcjonuje. Teksty literackie odnoszą się do tej części traumy historycznej, która nie została dostatecznie przepracowana albo została wyparta ze względu na haniebny lub przynajmniej nieheroiczny charakter doświadczenia, co uniemożliwia włączenie go do wielkiej narracji. Głównym pytaniem, na które stara się odpowiedzieć autorka artykułu, jest psychologiczno-artystyczny powód posługiwania się groteską, sarkazmem, czarnym humorem w odniesieniu do tematów sakralizowanych przez samą skalę ludzkiej tragedii – doświadczenie Holokaustu i oblężenie Leningradu.
The article analyzes the texts of the Polish authors Igor Ostachowicz and Sylvia Chutnik and the Russian writer Andrei Turgenev (the pen name of Vyacheslav Kuritsyn), generated by post-memory perspective, sooner or later revealing and filling the «blank spots», through the feeling that an adequate discourse has not been worked out or the existing discourse «doesn’t work». The literary texts refer to the part of historical trauma that was not (at all or sufficiently) worked through, was repressed because of its shameful or, at least, non-heroic nature, which prevents the inclusion of this experience into the «big narrative». The main question that the author of the article is trying to answer concerns the psychological and artistic reasons for using grotesque, sarcasm, and black humor when referring to topics sacralized by the very scale of human tragedy – the experience of the Holocaust and the Siege of Leningrad.
Źródło:
Studia Pigoniana; 2021, 4, 4; 103-119
2657-3261
Pojawia się w:
Studia Pigoniana
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A customized root cause analysis approach for cost overruns and schedule slippage in paper-machine-building projects
Autorzy:
Aikhatib, Maha
Altarazi, Safwan
Powiązania:
https://bibliotekanauki.pl/articles/407207.pdf
Data publikacji:
2019
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Tematy:
project quality management
project evaluation
paper industry
paper-machine-building projects
root cause analysis
big machines
Opis:
This study presents a customized root cause analysis approach to investigate the reasons, provide improvements measures for the cost overruns, and schedule slippage in papermachine-building projects. The proposed approach is an analytical-survey approach that uses both actual technical data and experts’ opinions. Various analysis tools are embedded in the approach including: data collection and clustering, interviews with experts, 5-Whys, Pareto charts, cause and effect diagram, and critical ratio control charts. The approach was implemented on seven projects obtained from a leading international paper machine supplier. As a result, it was found that the main causes behind cost and schedule deviations are products’ related; including technical accidents in the Press section, damaged parts, design issues, optimization of the machine and missing parts. Based on the results, prevention measures were perceived.
Źródło:
Management and Production Engineering Review; 2019, 10, 2; 83--92
2080-8208
2082-1344
Pojawia się w:
Management and Production Engineering Review
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Novel approach for big data classification based on hybrid parallel dimensionality reduction using spark cluster
Autorzy:
Ali, Ahmed Hussein
Abdullah, Mahmood Zaki
Powiązania:
https://bibliotekanauki.pl/articles/305766.pdf
Data publikacji:
2019
Wydawca:
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydawnictwo AGH
Tematy:
big data
dimensionality reduction
parallel processing
Spark
PCA
LDA
Opis:
The big data concept has elicited studies on how to accurately and efficiently extract valuable information from such huge dataset. The major problem during big data mining is data dimensionality due to a large number of dimensions in such datasets. This major consequence of high data dimensionality is that it affects the accuracy of machine learning (ML) classifiers; it also results in time wastage due to the presence of several redundant features in the dataset. This problem can be possibly solved using a fast feature reduction method. Hence, this study presents a fast HP-PL which is a new hybrid parallel feature reduction framework that utilizes spark to facilitate feature reduction on shared/distributed-memory clusters. The evaluation of the proposed HP-PL on KDD99 dataset showed the algorithm to be significantly faster than the conventional feature reduction techniques. The proposed technique required >1 minute to select 4 dataset features from over 79 features and 3,000,000 samples on a 3-node cluster (total of 21 cores). For the comparative algorithm, more than 2 hours was required to achieve the same feat. In the proposed system, Hadoop’s distributed file system (HDFS) was used to achieve distributed storage while Apache Spark was used as the computing engine. The model development was based on a parallel model with full consideration of the high performance and throughput of distributed computing. Conclusively, the proposed HP-PL method can achieve good accuracy with less memory and time compared to the conventional methods of feature reduction. This tool can be publicly accessed at https://github.com/ahmed/Fast-HP-PL.
Źródło:
Computer Science; 2019, 20 (4); 411-429
1508-2806
2300-7036
Pojawia się w:
Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
IoT and Big Data towards a Smart City
Autorzy:
Anand, Paul
Powiązania:
https://bibliotekanauki.pl/articles/1193544.pdf
Data publikacji:
2016
Wydawca:
Przedsiębiorstwo Wydawnictw Naukowych Darwin / Scientific Publishing House DARWIN
Tematy:
Big Data
Hadoop
IoT
Smart City
Smart Systems
Opis:
The fast growth in the population density in urban areas demands more facilities and resources. To meet the needs of city development, the use of Internet of Things (IoT) devices and the smart systems is the very quick and valuable source. However, thousands of IoT devices are interconnecting and communicating with each other over the Internet results in generating a huge amount of data, termed as Big Data. To integrate IoT services and processing Big Data in an efficient way aimed at smart city is a challenging task. Therefore, in this paper, we proposed a system for smart city development based on IoT using Big Data Analytics. We use sensors deployment including smart home sensors, vehicular networking, weather and water sensors, smart parking sensor, and surveillance objects, etc. initially a four-tier architecture is proposed, which includes 1) Bottom Tier: which is responsible for IoT sources, data generations, and collections 2) Intermediate Tier-1: That is responsible for all type of communication between sensors, relays, base stations, the internet, etc. 3) Intermediate Tier 2: it is responsible for data management and processing using Hadoop framework, and 4) Top tier: it is responsible for application and usage of the data analysis and results generated. The collected data from all smart system is processed at real-time to achieve smart cities using Hadoop with Spark, VoltDB, Storm or S4. We use existing datasets by various researchers including smart homes, smart parking weather, pollution, and vehicle for analysis and testing. All the datasets are replayed to test the real-time efficiency of the system. Finally, we evaluated the system by efficiency in term of throughput and processing time. The results show that the proposed system is scalable and efficient.
Źródło:
World Scientific News; 2016, 41; 45-54
2392-2192
Pojawia się w:
World Scientific News
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data management algorithms in artificial Internet of Things-based fintech
Autorzy:
Andronie, Mihai
Iatagan, Mariana
Uță, Cristian
Hurloiu, Iulian
Dijmărescu, Adrian
Dijmărescu, Irina
Powiązania:
https://bibliotekanauki.pl/articles/19902795.pdf
Data publikacji:
2023
Wydawca:
Instytut Badań Gospodarczych
Tematy:
big data management algorithms
artificial intelligence
Internet of Things
fintech
banking
capital markets
Opis:
Research background: Fintech companies should optimize banking sector performance in assisting enterprise financing as a result of firm digitalization. Artificial IoT-based fintech-based digital transformation can relevantly reverse credit resource misdistribution brought about by corrupt relationship chains. Purpose of the article: We aim to show that fintech can decrease transaction expenses and consolidates firm stock liquidity, enabling excess leverage decrease and cutting down information asymmetry and transaction expenses across capital markets. AI- and IoT-based fintechs enable immersive and collaborative financial transactions, purchases, and investments in relation to payment tokens and metaverse wallets, managing financial data, infrastructure, and value exchange across shared interactive virtual 3D and simulated digital environments. Methods: AMSTAR is a comprehensive critical measurement tool harnessed in systematic review methodological quality evaluation, DistillerSR is harnessed in producing accurate and transparent evidence-based research through literature review stage automation, MMAT appraises and describes study checklist across systematic mixed studies reviews in terms of content validity and methodological quality predictors, Rayyan is a responsive and intuitive knowledge synthesis tool and cloud-based architecture for article inclusion and exclusion suggestions, and ROBIS appraises systematic review bias risk in relation to relevance and concerns. As a reporting quality assessment tool, the PRISMA checklist and flow diagram, generated by a Shiny App, was used. As bibliometric visualization and construction tools for large datasets and networks, Dimensions and VOSviewer were leveraged. Search terms were “fintech” + “artificial intelligence”, “big data management algorithms”, and “Internet of Things”, search period was June 2023, published research inspected was 2023, and selected sources were 35 out of 188. Findings & value added: The growing volume of financial products and optimized operational performance of financial industries generated by fintech can provide firms with multifarious financing options quickly. Big data-driven fintech innovations are pivotal in banking and capital markets in relation to financial institution operational efficiency. Through data-driven technological and process innovation capabilities, AI system-based businesses can further automated services.
Źródło:
Oeconomia Copernicana; 2023, 14, 3; 769-793
2083-1277
Pojawia się w:
Oeconomia Copernicana
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applying e-learning systems for big data education
Autorzy:
Arkit, G.
Robak, S.
Arkit, A.
Powiązania:
https://bibliotekanauki.pl/articles/94807.pdf
Data publikacji:
2018
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Wydawnictwo Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie
Tematy:
big data
e-learning platform
Hadoop platform tools
cloud computing
Linux
virtualization
Opis:
Processing massive data amounts and Big Data became nowadays one of the most significant problems in computer science. The difficulties with education on this field arise, the appropriate teaching methods and tools are needed. The processing of vast amounts of data arriving quickly requires the choice and arrangement of extended hardware platforms. In the paper we will show an approach for teaching students in Big Data and also the choice and arrangement of an appropriate programming platform for Big Data laboratories. Usage of an e-learning platform Moodle, a dedicated platform for teaching, could allow the teaching staff and students an improved contact with by enhancing mutually communication possibilities. We will show the preparation of Hadoop platform tools and Big Data cluster based on Cloudera and Ambari. The both solutions together could enable to cope with the problems in education of students in the field of Big Data.
Źródło:
Information Systems in Management; 2018, 7, 2; 85-96
2084-5537
2544-1728
Pojawia się w:
Information Systems in Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using value stream map and process mapping for vizualization recovery boiler OS-5 production
Wykorzystanie analizy big picture i mapowania procesów do określenia czasu trwania cyklu produkcyjnego
Autorzy:
Bączkowicz, M.
Powiązania:
https://bibliotekanauki.pl/articles/339753.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Zarządzania Produkcją
Tematy:
value stream map
Big Picture analysis
defining the duration of production cycle
Lean Manufacturing
analiza Big Picture
mapowanie procesów
określenie długości cyklu produkcyjnego
Opis:
The paper shows a brief history of the Big Picture analysis and practical example of creating value stream map based on company manufacturing industrial boilers for special order. Production of boilers is in the presented case the additional task and it is manufactured in between the normal mass production of other products produced by the company. BPA delivers information about customer's requirements, information and physical flows and the impact of manufacturing on material planning. Thanks to creating a VSM, determination of the length of production cycle and non value added time were established. Determination of the non value added time allows for the selection of appropriate methods for their elimination. However, these methods must be feasible to implement by the company and not exceed the company financial capabilities. For the analysis of BPA to be more detailed, creating a process map for the selected business process "submit order" was proposed. Process map should be created for each process located on the VSM map, with the exception of manufacturing processes, in order to show links between business cells and production cells and how the flow of information looks like when business processes are performed. It gives companies the chance to check whether any actions are unnecessary and whether or not there is an excess of documents during process. Article draws attention to the affordable possibility for companies to monitor production using simple tools such as BPA and mapping processes, enabling organizations to visualize the production cycle and try to take action to improve it and eliminate the excessive documentation.
Artykuł pokazuje krótką historię analizy Big Picture i praktyczny przykład stworzenia mapy BPA na podstawie firmy zajmującej się produkcją kotłów wielkogabarytowych na zamówienie i innych produktów na potrzeby przemysłu energetyki. Produkcja kotłów wielkopiecowych jest w analizowanym przypadku zada-niem dodatkowym i realizowana jest między normalną produkcją seryjną innych produktów wytwarzanych w przedsiębiorstwie. Analiza BPA dostarcza informacji na temat wymagań klienta, przepływów informacji i przepływów materiałów oraz wpływu przebiegu produkcji na planowanie materiałowe. Dzięki stworzeniu mapy można określić całkowity czas cyklu produkcyjnego i czas wartości dodanej oraz pokazać jak wyglądają przepływy w firmie i przez jakie działy albo jakie osoby przechodzą dane informacje. BPA jest pewną metodą sieciową, która pozwala określić czasy operacji, wąskie gardła, stany zapasów, zlokalizować gdzie i jak przeprowadzane są kontrole i ogólnie śledzić przebieg produkcji. Określenie czasu niedodającego wartości pozwala na wybór odpowiednich metod pozwalających na ich eliminację. Należy jednak pamiętać, że metody te muszą być wykonalne do wdrożenia przez daną firmę i nie mogą przekraczać ich możliwości finansowych. W celu skrócenia czasu nie dodającego wartości można wykorzystać narzędzia z Lean Manufacturing. Aby analiza BPA była bardziej szczegółowa zaproponowano stworzenie mapy procesów dla wybranego procesu biznesowego „złożenie zamówienia”. Mapy procesów powinny być tworzone dla każdego procesu znajdującego się na mapie VSM, z wyjątkiem procesów wytwarzania w celu pokazania powiązań komórek biznesowych z komórkami produkcyjnymi i sprawdzenia czy któreś czynności są zbędne i czy nie występuje nadmiar zbędnych dokumentów. Artykuł zwraca uwagę na możliwość przystępnego dla firm śledzenia przebiegu produkcji z użyciem prostych narzędzi, jakimi są BPA i mapowanie procesów, dzięki czemu firmy mogą zwizualizować cykl produkcyjny i starać się podejmować działania dążące do jego usprawnienia i eliminacji nadmiernej dokumentacji.
Źródło:
Zarządzanie Przedsiębiorstwem; 2014, 17, 3; 2-9
1643-4773
Pojawia się w:
Zarządzanie Przedsiębiorstwem
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identification of areas for optimising marketing communications via AI systems
Autorzy:
Bajak, Maria
Majerczyk, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/27313540.pdf
Data publikacji:
2022
Wydawca:
Politechnika Śląska. Wydawnictwo Politechniki Śląskiej
Tematy:
artificial Intelligence
marketing communication
machine learning
Big Data
new technologies
sztuczna inteligencja
komunikacja marketingowa
nauczanie maszynowe
zbiór danych
nowe technologie
Opis:
Purpose: The main objective of this article is to identify areas for optimizing marketing communication via artificial intelligence solutions. Design/methodology/approach: In order to realise the assumptions made, an analysis and evaluation of exemplary implementations of AI systems in marketing communications was carried out. For the purpose of achieving the research objective, it was decided to choose the case study method. As part of the discussion, the considerations on the use of AI undertaken in world literature were analysed, as well as the analysis of three different practical projects. Findings: AI can contribute to the optimisation and personalisation of communication with the customer. Its application generates multifaceted benefits for both sides of the market exchange. Achieving them, however, requires a good understanding of this technology and the precise setting of objectives for its implementation. Research limitations/implications: The article contains a preliminary study. In the future it is planned to conduct additional quantitative and qualitative research. Practical implications: The conclusions of the study can serve to better understand the benefits of using artificial intelligence in communication with the consumer. The results of the research can be used both in market practice and also serve as an inspiration for further studies of this topic. Originality/value: The article reveals the specifics of artificial intelligence in relation to business activities and, in particular, communication with the buyer. The research used examples from business practice.
Źródło:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska; 2022, 160; 25--38
1641-3466
Pojawia się w:
Zeszyty Naukowe. Organizacja i Zarządzanie / Politechnika Śląska
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Technika załadunku na statek ładunku wiekogabarytowego na przykładzie obsługi suwnicy Voest Alpine w porcie szczecińskim
Autorzy:
Banaszek, A.
Powiązania:
https://bibliotekanauki.pl/articles/315295.pdf
Data publikacji:
2016
Wydawca:
Instytut Naukowo-Wydawniczy "SPATIUM"
Tematy:
suwnica nabrzeżna
załadunek statku
ładunek wielogabarytowy
suwnica Voest Alpine
wharf crane
loading ships
big dimensions cargoes
crane Voest Alpine
Opis:
W artykule przedstawiono technikę załadunku i transportu ładunku wielkogabarytowego na przykładzie obsługi portowej suwnicy nabrzeżnej austriackiej firmy Voest Alpine, której załadunek na statek firmy Big-Lift m/s Happy Ranger przeprowadzono w porcie szczecińskim w lutym 2005 rok.. Zaprezentowano historię powstania firmy Big Lift, wyspecjalizowanej w przewozie drogą morską ładunków wielkogabarytowych. Opisano następnie dane techniczne suwnicy nabrzeżnej kontenerowej przeznaczonej do przewozu drogą morską do Australii. Przedstawiono technikę załadunku powyższej suwnicy na Lift m/s Happy Ranger w porcie szczecińskim.
In the paper has been presented the loading and sea transport technology of heavy and big dimensions cargoes on example of harbour gantry crane service made by Voest Alpine Austria company on deck of Big-Lift carrier m/s Happy Ranger in Szczecin Harbour in February 2005 executed. The history of Big Lift Company which are specialized in transport of Heavy big dimensions cargoes by sea was described. The technical data of gantry crane to transport to Australia was shown. The technology of loading and transport above mentioned crane on Big Lift carrier m/s Happy Ranger in Szczecin Harbour was presented.
Źródło:
Autobusy : technika, eksploatacja, systemy transportowe; 2016, 17, 12; 791-795
1509-5878
2450-7725
Pojawia się w:
Autobusy : technika, eksploatacja, systemy transportowe
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
A survey of big data classification strategies
Autorzy:
Banchhor, Chitrakant
Srinivasu, N.
Powiązania:
https://bibliotekanauki.pl/articles/2050171.pdf
Data publikacji:
2020
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
big data
data mining
MapReduce
classification
machine learning
evolutionary intelligence
deep learning
Opis:
Big data plays nowadays a major role in finance, industry, medicine, and various other fields. In this survey, 50 research papers are reviewed regarding different big data classification techniques presented and/or used in the respective studies. The classification techniques are categorized into machine learning, evolutionary intelligence, fuzzy-based approaches, deep learning and so on. The research gaps and the challenges of the big data classification, faced by the existing techniques are also listed and described, which should help the researchers in enhancing the effectiveness of their future works. The research papers are analyzed for different techniques with respect to software tools, datasets used, publication year, classification techniques, and the performance metrics. It can be concluded from the here presented survey that the most frequently used big data classification methods are based on the machine learning techniques and the apparently most commonly used dataset for big data classification is the UCI repository dataset. The most frequently used performance metrics are accuracy and execution time.
Źródło:
Control and Cybernetics; 2020, 49, 4; 447-469
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Good and bad sociology: does topic modelling make a difference?
Autorzy:
BARANOWSKI, MARIUSZ
CICHOCKI, PIOTR
Powiązania:
https://bibliotekanauki.pl/articles/2028162.pdf
Data publikacji:
2021-12-31
Wydawca:
Uniwersytet im. Adama Mickiewicza w Poznaniu
Tematy:
unsupervised text analysis
LDA
topic modelling
sociological methods
big data sociology
Opis:
The changing social reality, which is increasingly digitally networked, requires new research methods capable of analysing large bodies of data (including textual data). This development poses a challenge for sociology, whose ambition is primarily to describe and explain social reality. As traditional sociological research methods focus on analysing relatively small data, the existential challenge of today involves the need to embrace new methods and techniques, which enable valuable insights into big volumes of data at speed. One such emerging area of investigation involves the application of Natural Language Processing and Machine-Learning to text mining, which allows for swift analyses of vast bodies of textual content. The paper’s main aim is to probe whether such a novel approach, namely, topic modelling based on Latent Dirichlet Allocation (LDA) algorithm, can find meaningful applications within sociology and whether its adaptation makes sociology perform its tasks better. In order to outline the context of the applicability of LDA in the social sciences and humanities, an analysis of abstracts of articles published in journals indexed in Elsevier’s Scopus database on topic modelling was conducted. This study, based on 1,149 abstracts, showed not only the diversity of topics undertaken by researchers but helped to answer the question of whether sociology using topic modelling is “good” sociology in the sense that it provides opportunities for exploration of topic areas and data that would not otherwise be undertaken.
Źródło:
Society Register; 2021, 5, 4; 7-22
2544-5502
Pojawia się w:
Society Register
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Solutions with big graph of iterative functional equations of the first order
Autorzy:
Bartłomiejczyk, Lech
Powiązania:
https://bibliotekanauki.pl/articles/965988.pdf
Data publikacji:
1999
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
iterative functional equation
big graph
Opis:
We obtain a result on the existence of a solution with big graph of functional equations of the form g(x,(x),(f(x)))=0 and we show that it is applicable to some important equations, both linear and nonlinear, including those of Abel, Böttcher and Schröder. The graph of such a solution has some strange properties: it is dense and connected, has full outer measure and is topologically big.
Źródło:
Colloquium Mathematicum; 1999, 82, 2; 223-230
0010-1354
Pojawia się w:
Colloquium Mathematicum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Diagnoza wykorzystania Big Data w organizacjach – wybrane wyniki badań
Autorzy:
Bartuś, Kamila
Batko, Kornelia
Lorek, Paweł
Powiązania:
https://bibliotekanauki.pl/articles/432300.pdf
Data publikacji:
2017
Wydawca:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
Tematy:
big data
business intelligence
strategia organizacji
zbiory danych
Opis:
Celem artykułu była identyfikacja sposobów i obszarów wykorzystania danych Big Data w przedsiębiorstwach w oparciu o wyniki badań bezpośrednich. W artykule omówiono specyfikę dużych zbiorów danych – Big Data oraz zaprezentowano systemy Business Intelligence jako narzędzia ich analizy. W dalszej części zaprezentowano wyniki badań dotyczące wykorzystania Big Data w organizacjach. Badanie opiera się na: 1) krytycznej analizie literatury przedmiotu dotyczącej Big Data, 2) analizie przypadków wykorzystania BD w działalności różnych organizacji i na 3) prezentacji wybranych wyników badań ankietowych dotyczących wykorzystania tego rozwiązania informatycznego w organizacjach. W ramach projektu badawczego przeprowadzono badania, które miały charakter bezpośredni i były wykonane za pomocą kwestionariusza ankietowego. Badaniami objęto firmy z branży produkcyjnej, usługowej oraz handlowej
Źródło:
Informatyka Ekonomiczna; 2017, 3(45); 9-20
1507-3858
Pojawia się w:
Informatyka Ekonomiczna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wolontariat jako narzędzie budowy kapitału społecznego w świetle badań nad wolontariatem akcyjnym w trzech polskich miastach
Volunteering as a tool of social capital building: action volunteering in three Polish cities
Autorzy:
Basińska, Anita
Matczak, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/413322.pdf
Data publikacji:
2010
Wydawca:
Łódzkie Towarzystwo Naukowe
Tematy:
wolontariat
kapitał społeczny
słabe więzi
wielkie imprezy
volunteering
social capital
weak ties
big events
Opis:
O potrzebie budowania silnego kapitału społecznego mówi się, między innymi, w kontekście kształtowania i rozwoju społeczeństwa obywatelskiego oraz w kontekście rozwoju ekonomicznego. W krajach podejmujących wysiłek rozwojowy, takich jak Polska, możliwość budowy kapitału społecznego okazuje się istotnym elementem modernizacji. W artykule podjęty jest temat znaczenia wolontariatu, w szczególności wolontariatu angażowanego przy okazji wielkich imprez, dla budowy kapitału społecznego. Dane zebrane w trzech miastach: Gdańsku, Poznaniu i Wrocławiu pokazują, że wolontariat akcyjny ma wpływ na budowę kapitału społecznego. Przy okazji procesu rekrutacyjnego oraz wokół samego wykonywania zadań budują się sieci, w oparciu o zróżnicowane więzi. Wytwarza się „wewnętrzny” system rekrutacji – gdzie wykorzystywane są sieci: organizatorzy korzystają ze swoich baz i kontaktów zaś wolontariusze stanowią źródło informacji o imprezach dla swego otoczenia. W efekcie dochodzi do tworzenia się sieci opartych o słabe więzi, gdzie cenną informacją jest powiadomienie o ciekawej imprezie. W zgodzie z Granovetterowską koncepcją sieci opartej o słabe więzi, sieć wytwarzana przy okazji wolontariatu staje się źródłem korzyści przydatnych na rynku pracy. Dodatkowo, systemy wolontariatu akcyjnego posiadają mechanizmy budowania systemów zaufania, gdyż oparte są o powtarzane kontakty.
Social capital is considered as a precondition for both vital civil society and economic development. For a developing country, such as Poland, revitalising social capital appears to be a significant element of the modernisation. In the paper, the role of volunteerism is discussed for the development of social capital. Particularly, volunteers work at the big events is analysed. Data collected in three Polish cities: Gdańsk, Poznań and Wrocław show that the big events volunteering has an impact on social capital reconstruction. Recruitment process and the work at the very events help to establish social networks based on both strong and weak ties. The internal recruitment systems are developed. Databases with potential volunteers are sustained by organisers, serving them to recruit. At the same time volunteers use their networks to inform acquaintances about events. Thus, networks based on weak ties are established, within which valuable information on volunteering possibilities are exchanged. In accordance with the Granovetterian concept of weak ties, the networks created at volunteering, serve as a source of benefits useful in the labour market. Additionally, action volunteering systems have trust building effect based on repetitive contacts.
Źródło:
Przegląd Socjologiczny; 2010, 59, 4; 83-102
0033-2356
Pojawia się w:
Przegląd Socjologiczny
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identification of advanced data analysis in marketing: A systematic literature review
Autorzy:
Bąska, Mateusz
Dudycz, Helena
Pondel, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/522286.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Advanced data analysis
Big data analytics
Marketing
Systematic review
Opis:
Aim/purpose – Marketing is an important area of activity for the vast majority of enterprises. Many of them try using marketing data analysis. Both the literature and the practice of many enterprises describe the use of advanced data analysis. However, interpretations of this concept differ. The aim of this paper is to identify the interpretation of advanced data analysis in marketing, in support of decision-making processes applied in the retail trading sector. Design/methodology/approach – The study was conducted using a systematic literature review, suggested by B. Kitchenham (2004), extended by C. Wohlin & R. Prikladniki (2013). This method was modified and expanded through the division of the whole study into two phases. Each phase is intended to facilitate obtaining answers to different important research questions. The first phase constitutes an exploratory study, whose results allow the detailed analysis of the literature in the second phase of the study. Findings – The results of this study of the relevant literature indicate that scholarly publications do not use the phrase ‘advanced data analysis’, and its context is described with the term ‘data analysis’. Another term used broadly within the sphere of data analysis is ‘big data’. The concept of ‘data analysis’ in marketing is focused around the term ‘big data analytics’ and terms linked to the word ‘customer’, such as ‘customer-centric’, ‘customer engagement’, ‘customer experience’, ‘customer targeting service’, and ‘customers classification’. The study of the literature undertaken indicates that marketing employs data analysis in such areas as customer needs identification and market segmentation. Research implications/limitations – The study of the literature review was carried out using selected four databases containing publications, i.e. Web of Science, IEEE, Springer and ACM for the period 2008 to 2018. The research described in the article can be continued in two ways. First, by analysing the literature presented in this paper on advanced data analysis in marketing using the method called snowball sampling. Secondly, the results obtained from the first stage of the study can be used to conduct the study with other databases. Originality/value/contribution – The main contribution of this work is the proposal of modifying the systematic literature review method, which was expanded through the introduction of two phases. This division of two stages is important for conducting studies of literature when there are no clear, established definitions for the concepts being employed. The result of the study is also a set of ordered terms and their meanings that clearly define advanced data analysis in marketing.
Źródło:
Journal of Economics and Management; 2019, 35; 18-39
1732-1948
Pojawia się w:
Journal of Economics and Management
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies