Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "big data analysis" wg kryterium: Temat


Tytuł:
Research on intelligent avoidance method of shipwreck based on bigdata analysis
Autorzy:
Li, W.
Huang, Q.
Powiązania:
https://bibliotekanauki.pl/articles/260002.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Inżynierii Mechanicznej i Okrętownictwa
Tematy:
big data analysis
shipwreck
intelligent avoidance
genetic algorithm
Opis:
In order to solve the problem that current avoidance method of shipwreck has the problem of low success rate of avoidance, this paper proposes a method of intelligent avoidance of shipwreck based on big data analysis. Firstly,our method used big data analysis to calculate the safe distance of approach of ship under the head-on situation, the crossing situation and the overtaking situation.On this basis, by calculating the risk-degree of collision of ships,our research determined the degree of immediate danger of ships.Finally, we calculated the three kinds of evaluation function of ship navigation, and used genetic algorithm to realize the intelligent avoidance of shipwreck.Experimental result shows that compared the proposed method with the traditional method in two in a recent meeting when the distance to closest point of approach between two ships is 0.13nmile, they can effectively evade.The success rate of avoidance is high.
Źródło:
Polish Maritime Research; 2017, S 3; 113-120
1233-2585
Pojawia się w:
Polish Maritime Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dlaczego Big Data?
Autorzy:
Hyunjoung, Lee
Powiązania:
https://bibliotekanauki.pl/articles/303256.pdf
Data publikacji:
2019
Wydawca:
Wydawnictwo Druk-Art
Tematy:
baza danych
inteligentne zarządzanie
analiza danych Big Data
database
intelligent management
big data analysis
Opis:
Ilość danych jest ogromna i cały czas rośnie w szalonym tempie. Jednocześnie przybywa danych zbędnych, a wykonanie bardziej efektywnej, rzetelnej analizy wymaga ich przefiltrowania i usunięcia. Umiejętność wyodrębniania ze zbiorów danych prawidłowych i przydatnych informacji staje się czymś nieodzownym. Dzięki analizie Big Data przedsiębiorstwo zyskuje możliwość oddzielenia „ziarna od plew” i poszerzenia swojej początkowo dość wąskiej perspektywy. Istotą Big Data nie jest objętość (ilość) danych, szybkość ich przepływu ani różnorodność, lecz poszerzenie horyzontów myślowych oraz inne spojrzenie na dane. Chcesz zobaczyć cały las? To nie wychodź z niego, ale wespnij się na szczyt góry. Podobnie rzeczy mają się z Big Data. Szukasz istotnych informacji? Wzbij się niczym ptak w przestworza, a im wyżej się wniesiesz, tym szersze będzie twoje pole widzenia. Aby zobaczyć z zewnątrz to, czego się nie da uchwycić, pozostając wewnątrz, potrzebny jest punkt widzenia obejmujący cały las. I tutaj właśnie wkracza Big Data.
Źródło:
Napędy i Sterowanie; 2019, 21, 2; 62-69
1507-7764
Pojawia się w:
Napędy i Sterowanie
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data analysis and simulation of distributed marine green energy resources grid-connected system
Autorzy:
Tian, J.
Huang, L.
Powiązania:
https://bibliotekanauki.pl/articles/259959.pdf
Data publikacji:
2017
Wydawca:
Politechnika Gdańska. Wydział Inżynierii Mechanicznej i Okrętownictwa
Tematy:
distributed
ocean
green energy resources
grid-connected systems
big data analysis
Opis:
In order to improve the working stability of distributed marine green energy resources grid-connected system, we need the big data information mining and fusion processing of grid-connected system and the information integration and recognition of distributed marine green energy grid-connected system based on big data analysis method, and improve the output performance of energy grid-connected system. This paper proposed a big data analysis method of distributed marine green energy resources grid-connected system based on closed-loop information fusion and auto correlation characteristic information mining. This method realized the big data closed-loop operation and maintenance management of grid-connected system, and built the big data information collection model of marine green energy resources grid-connected system, and reconstructs the feature space of the collected big data, and constructed the characteristic equation of fuzzy data closed-loop operation and maintenance management in convex spaces, and used the adaptive feature fusion method to achieve the auto correlation characteristics mining of big data operation and maintenance information, and improved the ability of information scheduling and information mining of distributed marine green energy resources grid-connected system. Simulation results show that using this method for the big data analysis of distributed marine green energy resources grid-connected system and using the multidimensional analysis technology of big data can improve the ability of information scheduling and information mining of distributed marine green energy resources grid-connected system, realizing the information optimization scheduling of grid-connected system. The output performance of grid connected system has been improved.
Źródło:
Polish Maritime Research; 2017, S 3; 182-191
1233-2585
Pojawia się w:
Polish Maritime Research
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Use of big data analysis to identify possible sources of supply chain disruption through the dotmlpfi method
Autorzy:
Nagy, Judit
Foltin, Pavel
Powiązania:
https://bibliotekanauki.pl/articles/2203757.pdf
Data publikacji:
2022
Wydawca:
Wyższa Szkoła Logistyki
Tematy:
supply chain disruption
supply chain resilience
Big Data analysis
DOTMLPFI method
zakłócenia łańcucha dostaw
odporność łańcucha dostaw
analiza Big Data
metoda DOTMLPFI
Opis:
Backgrounds: The presented research deals with the investigation of how big data analytics can help predict possible disruptive events in supply chains. The supply chain can be considered a complex system with a wide spectrum of possible sources of internal and external disruptions. Since the individual entities of the supply chains operate in a particular environment and interact with this environment, there is a certain level of mutual interdependency. This set of interconnected interactions within the supply chain will be the unit of analysis. Methods: There are many internal and external sources of supply chain disruption, which opens up the potential application of Big Data Analysis (BDA) as an early warning tool. To analyse the possible application of the BDA to identify sources of supply chain disruptions, we conduct a bibliometric analysis to define an appropriate structure for supply chain risk classification as well as appropriate keywords that make data collection quicker and easier. The DOTMLPFI methodology was used to systematically identify the most relevant risks threatening the supply chains. Results: The proposed research approach creates a possible framework to support the operational sustainability and resilience of the supply chain as a system, toward internal and external disruptions. The research results also point out the most explored attributes of supply chain disruption. The conducted bibliometric research and content analysis support the theoretical framework of using BDA as a possible early warning tool, especially for the identification of possible sources of supply chain disruption. The approach of grouping Big Data sources into categories based on DOTMLPFI groups allows to identify the appropriate keywords for their later BDA analysis. The analytical framework provides a starting point for individual supply chain entities to understand risks and systematically collect the appropriate data in the required structure about them. Conclusion: The complexity of supply chains, together with the increasing possibility of digital applications, requires a new analytical framework for evaluating the overall supply chain, with the possible application of new data sources and analytical approaches regarding the risks threatening the chain. DOTMLPFI methodology allows covering all the relevant categories of supply chain risks, and by proposing relevant keywords and data sources it can help companies to find the appropriate open-source, up-to-date information and be prepared for disruptive events.
Źródło:
LogForum; 2022, 18, 3; 309--319
1734-459X
Pojawia się w:
LogForum
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Applications of rough sets in big data analysis: An overview
Autorzy:
Pięta, Piotr
Szmuc, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2055175.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
rough sets theory
big data analysis
deep learning
data mining
teoria zbiorów przybliżonych
duży zbiór danych
uczenie głębokie
eksploracja danych
Opis:
Big data, artificial intelligence and the Internet of things (IoT) are still very popular areas in current research and industrial applications. Processing massive amounts of data generated by the IoT and stored in distributed space is not a straightforward task and may cause many problems. During the last few decades, scientists have proposed many interesting approaches to extract information and discover knowledge from data collected in database systems or other sources. We observe a permanent development of machine learning algorithms that support each phase of the data mining process, ensuring achievement of better results than before. Rough set theory (RST) delivers a formal insight into information, knowledge, data reduction, uncertainty, and missing values. This formalism, formulated in the 1980s and developed by several researches, can serve as a theoretical basis and practical background for dealing with ambiguities, data reduction, building ontologies, etc. Moreover, as a mature theory, it has evolved into numerous extensions and has been transformed through various incarnations, which have enriched expressiveness and applicability of the related tools. The main aim of this article is to present an overview of selected applications of RST in big data analysis and processing. Thousands of publications on rough sets have been contributed; therefore, we focus on papers published in the last few years. The applications of RST are considered from two main perspectives: direct use of the RST concepts and tools, and jointly with other approaches, i.e., fuzzy sets, probabilistic concepts, and deep learning. The latter hybrid idea seems to be very promising for developing new methods and related tools as well as extensions of the application area.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2021, 31, 4; 659--683
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An effective data reduction model for machine emergency state detection from big data tree topology structures
Autorzy:
Iaremko, Iaroslav
Senkerik, Roman
Jasek, Roman
Lukastik, Petr
Powiązania:
https://bibliotekanauki.pl/articles/2055178.pdf
Data publikacji:
2021
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
OPC UA
OPC tree
principal component analysis
PCA
big data analysis
data reduction
machine tool
anomaly detection
emergency states
analiza głównych składowych
duży zbiór danych
redukcja danych
wykrywanie anomalii
stan nadzwyczajny
Opis:
This work presents an original model for detecting machine tool anomalies and emergency states through operation data processing. The paper is focused on an elastic hierarchical system for effective data reduction and classification, which encompasses several modules. Firstly, principal component analysis (PCA) is used to perform data reduction of many input signals from big data tree topology structures into two signals representing all of them. Then the technique for segmentation of operating machine data based on dynamic time distortion and hierarchical clustering is used to calculate signal accident characteristics using classifiers such as the maximum level change, a signal trend, the variance of residuals, and others. Data segmentation and analysis techniques enable effective and robust detection of operating machine tool anomalies and emergency states due to almost real-time data collection from strategically placed sensors and results collected from previous production cycles. The emergency state detection model described in this paper could be beneficial for improving the production process, increasing production efficiency by detecting and minimizing machine tool error conditions, as well as improving product quality and overall equipment productivity. The proposed model was tested on H-630 and H-50 machine tools in a real production environment of the Tajmac-ZPS company.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2021, 31, 4; 601--611
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Research on the Innovation of European Economies in 2010–2016 Using IT Tools for Model Selection, Estimators and Data Analysis Parameters
Badanie innowacyjności gospodarek Europy w latach 2010–2016 z wykorzystaniem informatycznych narzędzi doboru modelu, estymatorów i parametrów analizy danych
Autorzy:
Czyżewska, Marta
Lewicki, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/439425.pdf
Data publikacji:
2018
Wydawca:
Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie
Tematy:
algorithms for spatial analysis of data vectors
big data analysis
European Innovation Scoreboard
innovativeness rankings
R&D expenditures
algorytmy analizy przestrzennej struktury zależności składowych wektorów wejściowych
analiza dużych zbiorów danych
rankingi innowacyjności
wydatki na działalność B+R
Opis:
The article presents the study of spatial variability of parameters being the main indicators describing innovativeness on the basis of European Innovation Scoreboard for the period 2010–2016. For this purpose we applied our own tool to assess the structure and input data vectors, and to select a correlation model for the input data and to assess the parameters of the selected model used. Thanks to this we positioned European countries in the EISin terms of innovative activity, in particular in conducting research and development, patenting of inventions and implementation of innovations. Using the developed tool we estimated the value of R&D expenditures, the intensity of enterprises’ involvement in innovative activity that are necessary to achieve at least the average level of innovation calculated for countries covered by the European Innovation Scoreboard. The results obtained may constitute recommendations for the innovation policy makers deciding on the scope of supporting innovative activities. The analyses carried out present an assessment of the effectiveness of public and private R&D expenditures which are based on the results ob22 tained and comparative assessments and allow to formulate the directions and scope of public involvement in stimulating innovativeness that determines the acceleration of the Polish economy development.
Artykuł prezentuje badanie zmienności przestrzennej parametrów będących głównymi wskaźnikami innowacyjności na przykładzie danych European Innovation Scoreboard (EIS) za okres 2010–2016. Zastosowano autorskie narzędzie oceny struktury i wejściowych wektorów danych, doboru modelu analizy korelacji wprowadzonych danych oraz oceny parametrów wybranego modelu. Dzięki temu dokonano pozycjonowania ujętych w indeksie EIS krajów Europy pod względem aktywności innowacyjnej, w szczególności w prowadzeniu działalności B+R, procesie patentowania wynalazków oraz wdrażania innowacji. Autorzy artykułu, przy wykorzystaniu opracowanego narzędzia, podjęli próbę oszacowania wartości nakładów na B+R, intensywności zaangażowania przedsiębiorstw w działalność innowacyjną, niezbędnego do osiągnięcia co najmniej średniego poziomu innowacyjności liczonego dla krajów objętych indeksem EIS. Uzyskane wyniki mogą stanowić podstawę rekomendacji dla twórców polityki innowacyjnej, decydujących o zakresie wspierania działalności innowacyjnej przez rządy państw. Przeprowadzone analizy przedstawiają ocenę efektywności wydatków publicznych i prywatnych na działalność B+R, co – na bazie otrzymanych wyników i ocen porównawczych – pozwala sformułować kierunki i zakres zaangażowania publicznego w stymulowanie innowacyjności, warunkujące przyspieszenie rozwojowe polskiej gospodarki.
Źródło:
Prace Komisji Geografii Przemysłu Polskiego Towarzystwa Geograficznego; 2018, 32, 2; 21-37
2080-1653
Pojawia się w:
Prace Komisji Geografii Przemysłu Polskiego Towarzystwa Geograficznego
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Generalized formal model of big data
Autorzy:
Shakhovska, N.
Veres, O.
Hirnyak, M.
Powiązania:
https://bibliotekanauki.pl/articles/410946.pdf
Data publikacji:
2016
Wydawca:
Polska Akademia Nauk. Oddział w Lublinie PAN
Tematy:
analysis
data
model
big data
information technology
Opis:
This article dwells on the basic characteristic features of the Big Data technologies. It is analyzed the existing definition of the "big data" term. The article proposes and describes the elements of the generalized formal model of big data. It is analyzed the peculiarities of the application of the proposed model components. It is described the fundamental differences between Big Data technology and business analytics. Big Data is supported by the distributed file system Google File System technology, Cassandra, HBase, Lustre and ZFS, by the MapReduce and Hadoop programming constructs and many other solutions. According to the experts, such as McKinsey Institute, the manufacturing, healthcare, trade, administration and control of individual movements undergo the transformations under the influence of the Big Data.
Źródło:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes; 2016, 5, 2; 33-38
2084-5715
Pojawia się w:
ECONTECHMOD : An International Quarterly Journal on Economics of Technology and Modelling Processes
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wykorzystanie technologii Big Data i analizy danych we wspomaganiu procesów ZZL
Technologies and Data Analysis in Supporting HR Processes
Autorzy:
Kania, Krzysztof
Staś, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/599162.pdf
Data publikacji:
2018-02-15
Wydawca:
Instytut Pracy i Spraw Socjalnych
Tematy:
Big Data
analiza danych
ZZL
data analysis
HRM
Opis:
Termin „Big Data” szybko rozprzestrzenia się w środowisku naukowym i w organizacjach. Wpływa również na zarządzanie danymi w obszarze ZZL, które ewoluuje od prostego raportowania w kierunku wykorzystania danych do podejmowania decyzji, zaawansowanego planowania zatrudnienia, poprzez przewidywanie wydajności pracowników i zarządzanie talentami. Celem artykułu jest scharakteryzowanie technologii Big Data w kontekście ZZL oraz zaprezentowanie metod analizy, które można wykorzystać w tym obszarze. Artykuł rozpoczyna prezentacja technologii Big Data, następnie przedstawiono metody i narzędzia analityki kadrowej oraz na podstawie badań literaturowych i studiów przypadku zestawiono funkcje i zadania ZZL z ofertą technologii Big Data i analityki kadrowej. Poruszono również kwestie zagrożeń, jakie towarzyszą wprowadzeniu tej technologii.
The term Big Data is rapidly spreading in academia as well as in organizations. It is also having an impact on data management in the area of HR, evolving from simple reporting to the application of data in decision–making and advanced employment planning all the way to predicting worker output and talent management. The aim of the article is to characterize Big Data technology in the context of HRM as well as to present data analysis methods that may be used in this area. The article is launched with a presentation of Big Data technology, followed by a presentation of analytical methods and tools for staff analyses. HRM functions and tasks are compiled on the basis of literature research and case studies displaying the range of Big Data technology and staff analytics. Also touched upon are questions of the risks that accompany the introduction of this technology.
Źródło:
Zarządzanie Zasobami Ludzkimi; 2018, 1(120) "Motywacja na różne sposoby, czyli znane problemy w nowych odsłonach" / "Various Approaches to Motivation or a New Look and Old Problems"; 139-154
1641-0874
Pojawia się w:
Zarządzanie Zasobami Ludzkimi
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Apache Hadoop, platforma do gromadzenia, przetwarzania i analizy dużych zbiorów danych
Apache Hadoop, platform for the collection, processing and analysis of large data sets
Autorzy:
Gil, M.
Powiązania:
https://bibliotekanauki.pl/articles/98040.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
Hadoop
big data
analiza danych
analysis of the data
Opis:
W artykule przedstawiono możliwości wykorzystania platformy Hadoop w zarządzaniu wielkimi zbiorami danych. Na podstawie dostępnych źródeł przedstawiono rozwój wydajności aplikacji. Dodatkowo zostały opisane organizacje, które dzięki wdrożeniu tego oprogramowania odniosły sukces w świecie Internetu.
The article presents the possibilities of using Hadoop platform to manage large data sets. The development of application performance has been shown based on available sources. Additionally, the article describes the organizations that have been successful in the Internet thanks to the implemented software.
Źródło:
Journal of Computer Sciences Institute; 2017, 4; 70-75
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Identification of advanced data analysis in marketing: A systematic literature review
Autorzy:
Bąska, Mateusz
Dudycz, Helena
Pondel, Maciej
Powiązania:
https://bibliotekanauki.pl/articles/522286.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Tematy:
Advanced data analysis
Big data analytics
Marketing
Systematic review
Opis:
Aim/purpose – Marketing is an important area of activity for the vast majority of enterprises. Many of them try using marketing data analysis. Both the literature and the practice of many enterprises describe the use of advanced data analysis. However, interpretations of this concept differ. The aim of this paper is to identify the interpretation of advanced data analysis in marketing, in support of decision-making processes applied in the retail trading sector. Design/methodology/approach – The study was conducted using a systematic literature review, suggested by B. Kitchenham (2004), extended by C. Wohlin & R. Prikladniki (2013). This method was modified and expanded through the division of the whole study into two phases. Each phase is intended to facilitate obtaining answers to different important research questions. The first phase constitutes an exploratory study, whose results allow the detailed analysis of the literature in the second phase of the study. Findings – The results of this study of the relevant literature indicate that scholarly publications do not use the phrase ‘advanced data analysis’, and its context is described with the term ‘data analysis’. Another term used broadly within the sphere of data analysis is ‘big data’. The concept of ‘data analysis’ in marketing is focused around the term ‘big data analytics’ and terms linked to the word ‘customer’, such as ‘customer-centric’, ‘customer engagement’, ‘customer experience’, ‘customer targeting service’, and ‘customers classification’. The study of the literature undertaken indicates that marketing employs data analysis in such areas as customer needs identification and market segmentation. Research implications/limitations – The study of the literature review was carried out using selected four databases containing publications, i.e. Web of Science, IEEE, Springer and ACM for the period 2008 to 2018. The research described in the article can be continued in two ways. First, by analysing the literature presented in this paper on advanced data analysis in marketing using the method called snowball sampling. Secondly, the results obtained from the first stage of the study can be used to conduct the study with other databases. Originality/value/contribution – The main contribution of this work is the proposal of modifying the systematic literature review method, which was expanded through the introduction of two phases. This division of two stages is important for conducting studies of literature when there are no clear, established definitions for the concepts being employed. The result of the study is also a set of ordered terms and their meanings that clearly define advanced data analysis in marketing.
Źródło:
Journal of Economics and Management; 2019, 35; 18-39
1732-1948
Pojawia się w:
Journal of Economics and Management
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Advances on Permutation Multivariate Analysis of Variance for big data
Autorzy:
Bonnini, Stefano
Assegie, Getnet Melak
Powiązania:
https://bibliotekanauki.pl/articles/2107160.pdf
Data publikacji:
2022-06-14
Wydawca:
Główny Urząd Statystyczny
Tematy:
big data
MANOVA
permutation test
multivariate analysis
Opis:
In many applications of the multivariate analyses of variance, the classic parametric solutions for testing hypotheses of equality in population means or multisample and multivariate location problems might not be suitable for various reasons. Multivariate multisample location problems lack a comparative study of the power behaviour of the most important combined permutation tests as the number of variables diverges. In particular, it is useful to know under which conditions each of the different tests is preferable in terms of power, how the power of each test increases when the number of variables under the alternative hypothesis diverges, and the power behaviour of each test as the function of the proportion of true alternative hypotheses. The purpose of this paper is to fill the gap in the literature about combined permutation tests, in particular for big data with a large number of variables. A Monte Carlo simulation study was carried out to investigate the power behaviour of the tests, and the application to a real case study was performed to show the utility of the method.
Źródło:
Statistics in Transition new series; 2022, 23, 2; 163-183
1234-7655
Pojawia się w:
Statistics in Transition new series
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Depression in the light of the Transactional Analysis theory – social media Big Data analysis
Depresja w świetle teorii analizy transakcyjnej - analiza mediów społecznościowych przy pomocy Big Data
Autorzy:
Wieczorek, Zbigniew
Powiązania:
https://bibliotekanauki.pl/articles/445825.pdf
Data publikacji:
2019
Wydawca:
Uniwersytet Humanistyczno-Przyrodniczy im. Jana Długosza w Częstochowie. Wydawnictwo Uczelniane
Tematy:
depresja
analiza transakcyjna
Big Data
media społecznościowe
depression
transactional analysis
big data
social media
Opis:
Analiza wyników badań epidemiologicznych pozwala stwierdzić wzrost częstości zachorowań na depresje. Trzeba też mieć świadomość istnienia osób, które znajdują się na pograniczu depresji a także tych, którzy z różnych powodów nie będą nigdy zdiagnozowani a są osobami chorymi. Depresja znacząco obniża jakość życia chorych i ma poważne konsekwencje zdrowotne. Dodatkowo jest to poważny problem społeczny, który wiąże się ze skutkami psychologicznymi dla otoczenia chorego oraz rosnącymi kosztami leczenia depresji. Opis depresji jest złożony, wiąże się z czynnikami psychospołecznymi, pojawia się wiele modeli depresji i sposobów radzenia sobie z chorobą. Wzrost wiedzy na temat depresji może przyczynić się do wcześniejszego diagnozowania a w określonych sytuacjach do zapobiegania chorobie. Model depresji przedstawiony w teorii analizy transakcyjnej jest przydatny w opisie i zrozumieniu problemów depresyjnych. Specyficzny język analiz transakcyjnej przydatny jest w procesie edukacyjnym, pozwala też na analizę zjawiska poprzez rozpoznawanie specyficznych zachowań i wypowiedzi. Język ten można wykorzystać w analizie mediów społecznościowych, które od pewnego czasu są odbiciem problemów realnego życia.
The analysis of epidemiological studies shows an increase in the number of people suffering from depression. One should also take into account those on the brink of depression and those who, for various reasons, will never be diagnosed but are ill. Depression has a detrimental effect on patients’ quality of life and poses a threat to one’s health. Additionally, it is a serious social issue that is linked with psychological consequences for a given patient’s environment and growing costs of depression treatment. The description of depression is complex and regards psycho-social factors. There are many models of depression and ways of dealing with it. The growth of knowledge about depression might contribute to early diagnosing and, in particular situations, it might prevent the illness. The model of depression presented in the theory of transactional analysis is useful in describing and understanding issues concerning depression. The specific language of transactional analysis is useful in the educational process, it also allows for analysing the phenomenon by identifying particular behaviour and utterances. This language can be used for the analysis of social media which have been reflecting real-life problems for some time.
Źródło:
Edukacyjna Analiza Transakcyjna; 2019, 8; 91-115
2299-7466
Pojawia się w:
Edukacyjna Analiza Transakcyjna
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ocena użyteczności współczesnych narzędzi IT w analizie danych Big Data
The assessment of usefulness modern IT tools of data analysis Big Data
Autorzy:
Wasiluk, Rafał
Muryjas, Piotr
Powiązania:
https://bibliotekanauki.pl/articles/98504.pdf
Data publikacji:
2017
Wydawca:
Politechnika Lubelska. Instytut Informatyki
Tematy:
analiza danych Big Data
Tableau
Qlik
Microsoft Power BI
data analysis
Big Data
Tableau Desktop
Qlik Sense
Opis:
W niniejszej publikacji poruszono temat współczesnych narzędzi IT w analizie danych Big Data. Przeprowadzone badania dotyczyły liderów rankingu Gartnera z 2017 roku, czyli Tableau Desktop, Qlik Sense i Microsoft Power BI. Ocena użyteczności tych narzędzi, została przeprowadzona zgodnie z wybranymi kryteriami, m. in. ceną i rodzajem licencji, rodzajami połączeń z bazą czy obsługiwanymi platformami operacyjnymi.
This publication discusses the topic of contemporary IT tools in Big Data data analysis. The research involved the leaders from Gartner 2017, Tableau Desktop, Qlik Sense and Microsoft Power BI programs. The utility rating of these tools has been evaluated according to the selected criteria, among others. The price and type of licenses, types of database connections, and supported operating platforms
Źródło:
Journal of Computer Sciences Institute; 2017, 5; 179-186
2544-0764
Pojawia się w:
Journal of Computer Sciences Institute
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zagadnienia społeczne i prawne w koncepcji big data
Big Data – Social and Legal Issues
Autorzy:
Wieczorkowski, Jędrzej
Powiązania:
https://bibliotekanauki.pl/articles/548041.pdf
Data publikacji:
2015
Wydawca:
Uniwersytet Rzeszowski. Wydawnictwo Uniwersytetu Rzeszowskiego
Tematy:
big data
analiza danych
dane osobowe
prywatność
data analysis
personal data
privacy
Opis:
Popularny w ostatnim czasie termin big data dopiero się kształtuje i na chwilę obecną obejmuje dość szeroki zakres pojęciowy. Autor opierając się na tematyce publikowanych w ostatnim okresie w polskich gazetach artykułów, które wykorzystywały omawiane pojęcie, dokonał próby charakterystyki powszechnego zrozumienia terminu big data. Wyniki tego badania pozwalają na stwierdzenie, że powszechnie pod tym terminem rozumie się w szczególności problematykę prywatności i zagrożenia permanentną inwigilacją, jako konsekwencję możliwości masowego przetwarzania danych. Tak więc, mimo że ogólnie przyjęte wyjaśnienie terminu big data opiera się na aspektach technologicznych metod przetwarzania danych masowych, odbiega ono znacząco od powszechnego jego odbioru. Zagadnienia związane z problemami przetwarzania przede wszystkim różnego typu danych osobowych określone zostały w artykule jako społeczny aspekt big data. Jest on ściśle związany z zagadnieniami prawnymi, gdyż prawo, usiłując nadążyć za postępem technologicznym i potrzebami biznesu, próbuje określić dopuszczalne granice przetwarzania danych. Zagadnienia społeczne i prawne w koncepcji big data są podstawowym tematem artykułu.
The term big data is very popular recently. The concept is new and is shaping up. The author conducted a study into the usage of the term big data in popular media. Generally, the analyzed texts focused mainly on the danger of surveillance and the threats to privacy resulting from the analysis of web content, including social networks, by the private sector. This is a social aspect of big data. The paper proposes a three-faceted explanation of the term, by distinguishing three basic as-pects of big data: technological (including the opportunities offered by IT and modern analytical methods), business (including a variety of applications of the concept) and social (focusing on the consequences of its implementation). Nonetheless the paper is focused on the social aspect – the risks associated with the mass processing of personal data. It is related to an additional legal subaspect. The social aspect with the legal subaspect are dependent in relation to the other aspects: technological and business.
Źródło:
Nierówności Społeczne a Wzrost Gospodarczy; 2015, 44 cz. 2; 341-353
1898-5084
2658-0780
Pojawia się w:
Nierówności Społeczne a Wzrost Gospodarczy
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies