Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "camera vision" wg kryterium: Temat


Wyświetlanie 1-10 z 10
Tytuł:
Badanie kinematyki rusztu ruchomego schronowego zaworu przeciwwybuchowego
Kinematic study of the movable grating of the dust protective hazard valve
Autorzy:
Szcześniak, Z.
Ostrowski, R.
Powiązania:
https://bibliotekanauki.pl/articles/111039.pdf
Data publikacji:
2018
Wydawca:
Centrum Rzeczoznawstwa Budowlanego Sp. z o.o.
Tematy:
kinematyka
kamera wizyjna
schronowy zawór przeciwwybuchowy
kinematics
vision camera
explosion-proof shelter valve
Opis:
W artykule przedstawiono metodę i wyniki badań w zakresie kinematyki rusztu ruchomego schronowego zaworu przeciwwybuchowego. Badano rozwiązanie zaworu typu automatycznego o dużym wydatku. Badanie wykonano za pomocą szybkiej kamery wizyjnej. Uzyskane wyniki stanowią podstawę do określenia sposobu doskonalenia rozwiązania.
The method and experimental results about the kinematics of the move ring of the explosion-proof shelter valve is presented in this paper. The valve solution automatic type with high air delivery was searched. The experiment was executed by fast vision camera. The achievement results are the base to make any perfection manner of the valve solve.
Źródło:
Inżynieria Bezpieczeństwa Obiektów Antropogenicznych; 2018, 1-2; 34-37
2450-1859
2450-8721
Pojawia się w:
Inżynieria Bezpieczeństwa Obiektów Antropogenicznych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zautomatyzowane stanowisko do wyznaczania wartości parametrów i kalibracji obserwacyjnych kamer termowizyjnych
A test stand for evaluation and calibration of thermal camera parameters
Autorzy:
Sosnowski, T.
Madura, H.
Firmanty, K.
Bareła, J.
Bieszczad, G.
Kubicki, J.
Powiązania:
https://bibliotekanauki.pl/articles/152556.pdf
Data publikacji:
2013
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termowizja
kamera termowizyjna
thermal vision
thermal imaging camera
Opis:
Kamery termowizyjne znajdują zastosowanie w coraz większej liczbie dziedzin nauki, techniki i życia. Wynikiem tego jest produkcja względnie niedrogich kamer termowizyjnych, które muszą zostać poddane kalibracji i ocenie zakładanych parametrów. W artykule zostało przedstawione zautomatyzowane stanowisko do pomiaru parametrów i kalibracji kamery termowizyjnej. Zostały opisane wszystkie elementy stanowiska takie jak moduł przemieszczeń liniowych i techniczne ciała doskonale czarne. Opisano również algorytmy i procedury wyznaczania parametrów i współczynników kalibracyjnych kamery termowizyjnej.
Technological development in the field of infrared and thermal imaging has caused that thermal imaging cameras are used in more and more fields of science, technology and life. In the paper there is presented an automatic measurement and calibration stand capable of measuring the fundamental parameters of a thermal imaging camera. All components of the module, such as a linear motion controller and an actuator or a technical perfect black body are described. An algorithm for determining calibration parameters of the thermal imaging camera is presented. In the paper there are discussed the basic parameters of the calibrated infrared camera, the IR Capture device to capture data from the infrared camera via a specialized bus called the VideoBus. The UPCD and VideoBus standards are described. The paper presents the IRDiag software for recording the measurement data and determining the parameters and NUC correction factors used for infrared cameras. The software also allows control of all elements of the measurement stand and automation of most tasks performed by a user during the standard calibration procedure. The measurement stages are described and presented in the form of software window screenshots. The measurement stand was tested with regard to the accurate evaluation of parameters and calibration coefficients.
Źródło:
Pomiary Automatyka Kontrola; 2013, R. 59, nr 9, 9; 962-965
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie algorytmu MSA (Multiple Similar Areas) do wyznaczania map głębi w wielowidokowych systemach widzenia komputerowego
Applications of the MSA algorithm (Multiple Similar Areas) for obtaining depth maps by using multi-view computer vision systems
Autorzy:
Kaczmarek, A. Ł.
Powiązania:
https://bibliotekanauki.pl/articles/267841.pdf
Data publikacji:
2016
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
mapa głębi
widzenie stereoskopowe
system wielokamerowy
łańcuch kamer
depth map
stereoscopic vision
multi-camera system
camera array
Opis:
Artykuł podejmuje temat pozyskiwania map głębi (ang. depth map) na podstawie zdjęć z wielu kamer w wyniku widzenia stereoskopowego. Mapa głębi zawierająca odległości od obiektów będących w zasięgu widzenia kamer pozyskana może zostać na podstawie zdjęć z co najmniej dwóch kamer pełniących funkcję kamery stereoskopowej. W mapach głębi pozyskanych w ten sposób występują jednak błędy. Artykuł dotyczy metod redukcji błędów dzięki zwiększeniu liczby kamer. W artykule przedstawione zostało zastosowanie algorytmu MSA (Multiple Similar Areas) przeznaczonego do układu kamer o nazwie EBMCS (Equal Baseline Multiple Camera Set). Układ taki składa się z kamery środkowej oraz wielu kamer bocznych. Wykonywanie zdjęć trójwymiarowych za pomocą układu wielu kamer jest alternatywą do stosowania innego rodzaju urządzeń takich jak skanery światła strukturalnego oraz skanery laserowe typu LIDAR.
The paper described a method for obtaining depth maps on the basis of images from a set of multiple cameras with the use of stereoscopic vision. Depth maps contain data about distances from objects located in the field of view of camera. A depth map can be acquired from images from a pair of cameras which has a function of a stereo camera. However, depth maps obtained by this method contain errors. This paper proposes a method of reducing errors by increasing the number of cameras. The paper presents the usage of the MSA algorithm (Multiple Similar Areas) designed for a set of cameras arranged in the configuration called EBMCS (Equal Baseline Multiple Camera Set). The configuration consists of a central camera and multiple side cameras. Obtaining 3D images with the use of multi-camera systems is an alternative to using other kind of devices such as structured light scanners and equipment based on LIDAR (Light Detection and Ranging).
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2016, 51; 67-70
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Dobór elementów wizyjnego systemu monitorowania procesu spawania
Selection of components of a vision monitoring system for welding process
Autorzy:
Fidali, M.
Bzymek, A.
Jamrozik, W.
Czupryński, A.
Timofiejczuk, A.
Powiązania:
https://bibliotekanauki.pl/articles/156346.pdf
Data publikacji:
2012
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Tematy:
termografia w podczerwieni
proces spawania
obraz
kamera
infrared thermography
welding process
vision monitoring
image
camera
Opis:
Obserwacje wizyjne stają się coraz bardziej powszechnym sposobem kontroli i nadzorowania procesów produkcyjnych i zjawisk w nich zachodzących. Jedną z możliwości zastosowania systemu wizyjnego jest kontrola procesu spawania i wykonywanych połączeń. W artykule przedstawiono wskazówki i zalecenia dotyczące wyboru i konfiguracji systemu wizyjnego przeznaczonego do kontroli procesu spawania i połączeń spawanych. Informacje zawarte w artykule wynikają z doświadczeń zdobytych przez autorów w trakcie opracowywania systemu wizyjnej kontroli spawania.
Visual observation are becoming more and more common way of control and supervision of industrial processes and phenomena related to them. One of possibilities of vision system application is control of a welding process and welded joints. In the paper there are presented hints and recommendations dealing with selection of a configuration of the vision system for control of a welding process and welded joints. A system for monitoring welding process elaborated by the authors is also described and discussed. The welding process can be observed both in a range of infrared as well as in visual electromagnetic waves. The vision system consists of elements realizing image generation, acquisition, processing, and analysis. In more sophisticated systems the last stage of their operation is image recognition. Recently, the observation of welding processes with use of vision systems is a subject of great interests of numerous companies and research centers. There are commercial and experimental solutions of these systems. During the process usually the size and location of a weld pool, geometry of the welded joint as well as the quality of the joint can be evaluated. An on-line system basing on the analysis results of the above enumerated elements of the welding process makes it possible to control the process parameters. The authors have elaborated a system consisting f a TV and infrared camera. The system allows observing MIG/MAG welding process. The authors' experience shows that a correct configuration of the vision system has fundamental influence on the recorded data.
Źródło:
Pomiary Automatyka Kontrola; 2012, R. 58, nr 1, 1; 63-70
0032-4140
Pojawia się w:
Pomiary Automatyka Kontrola
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Porównywanie zdjęć roślin na podstawie miar podobieństwa różniących się wykładnikiem potęgi
Comparison of images of plants on the basis of similarity metrics with different exponents
Autorzy:
Kaczmarek, Adam L.
Powiązania:
https://bibliotekanauki.pl/articles/266606.pdf
Data publikacji:
2019
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
widzenie stereoskopowe
łańcuch kamer
mapa rozbieżności
mapa głębi
stereo vision
camera array
disparity map
depth map
Opis:
Artykuł przedstawia studium przypadku poświęcone zastosowaniu różnych miar podobieństwa do porównywania zdjęć roślin. Miary te mają zastosowanie w przypadku użycia układu kamer składającej się z pięciu kamer umieszczonych w bliskiej odległości. Badany układ kamer, nazwany EBCA (Equal Baseline Camera Array), składa się z jednej kamery centralnej oraz kamer bocznych. Opisane miary podobieństwa stosuje się w algorytmach widzenia stereoskopowego pozwalających na oszacowanie odległości między kamerami a obiektami widocznymi na zdjęciach. W artykule zaproponowane zostało uogólnienie stosowanych dotychczas miar tj. SAD (Sum of Absolute Differences) i SSD (Sum of Squared Differences). Przeprowadzone eksperymenty świadczą to tym, że zaproponowane miary pozwalają na redukcję błędów oszacowania polegających na otrzymaniu wyników odbiegających od prawidłowych wartości o przyjętą wartość progową.
The paper presents a case study concerned with applying different similarity measures for comparing images of plants. These measures are used for a camera array which consists of five adjacent cameras. The researched array called Equal Baseline Camera Array (EBCA) contains one central camera and four side cameras. The described measures can be used with stereo vision algorithms designed for estimating distances between cameras and objects visible in images taken with the use of these cameras. The paper introduces generalizations of currently used measures such as Sum of Absolute Differences (SAD) and Sum of Squared Differences (SSD). The experiments show that the proposed measures make it possible to reduce estimation errors which occur in results differing from right values more than a selected threshold.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2019, 68; 13-16
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ nadmiarowych danych wejściowych na jakość map rozbieżności pozyskanych za pomocą układu pięciu kamer w konfiguracji EBMCS
Influence of redundant input data on the quality of disparity maps obtained with the use of the five camera set in EBMCS configuration
Autorzy:
Kaczmarek, A. L.
Powiązania:
https://bibliotekanauki.pl/articles/267588.pdf
Data publikacji:
2018
Wydawca:
Politechnika Gdańska. Wydział Elektrotechniki i Automatyki
Tematy:
widzenie stereoskopowe
macierz kamer
mapa rozbieżności
mapa głębi
stereo vision
camera array
disparity map
depth map
Opis:
Artykuł dotyczy zastosowania układu kamer typu EBMCS (Equal Baseline Multiple Camera Set) składającego się z kamery centralnej oraz kamer bocznych. Na podstawie zdjęć wykonanych za pomocą tego układu można otrzymać mapy rozbieżności (ang. disparity map), które pozwalają na określenie odległości od kamer do obiektów znajdujących się w ich polu widzenia. Mapy te są wyższej jakości niż mapy otrzymane za pomocą kamery stereoskopowej. Artykuł przedstawia zastosowanie EBMCS do otrzymywania map głębi dla wybranych fragmentów uzyskanych zdjęć. Artykuł podejmuje temat wpływu rozmiaru otoczenia badanego fragmentu na jakość wyników. Opisane w artykule eksperymenty zostały przeprowadzone na podstawie dwóch zestawów testowych zawierających zdjęcia roślin.
The paper describes the usage of a camera array called Equal Baseline Multiple Camera Set (EBMCS) consisting of a central camera and side cameras. The set is designed for taking images for the purpose of acquiring disparity maps which makes it possible to determine distances between a camera set and obtains located within its field of view. These maps have a higher quality than maps acquired using a stereo camera. The paper presents how EBMCS can be used for making disparity maps for only fragments of available images. The paper shows the influence of including in data processing vicinities of the fragment for which disparity maps is generated. Experiments presented in the paper were based on two test data sent containing images of plants.
Źródło:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej; 2018, 60; 41-44
1425-5766
2353-1290
Pojawia się w:
Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Samolokalizacja bezzałogowego statku powietrznego uwzględniająca zmienną orientację kamery
Self-Localization of the Unmanned Aerial Vehicle Taking Into Account the Variable Orientation of the Camera
Autorzy:
Zielińska, Teresa
Pogorzelski, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2174232.pdf
Data publikacji:
2022
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
lokalizacja wizyjna
orientacja kamery
redundancja GNSS
porównywanie obrazów
vision localization
camera orientation
GNSS redundancy
image comparison
Opis:
W niniejszej publikacji zaproponowano metodę lokalizacji wizyjnej z wykorzystaniem obrazów z symulowanej kamery oraz mapy georeferencyjnej. Model BSP oraz symulacja lotu zostały wykonane w pakiecie MATLAB Simulink, który przesyłał dane dotyczące orientacji BSP do opisywanego programu. Wizualizacja obrazu z kamery została wykonana w czasie rzeczywistym przy pomocy oprogramowania FlightGear, której obraz również był przechwytywany przez program NW. Metoda ta realizowana jest przez dwa procesy w dwu modułach: Global Positioning Component oraz Motion Positioning Component. Pierwszy z nich porównuje obraz z symulowanej kamery z ortofotomapą. Drugi wyznacza pozycję na podstawie oceny przemieszczenia punktów charakterystycznych w obrazie w stosunku do ostatnio znanej lokalizacji. Wynik działania obu modułów ilustrowany jest w oknie graficznym aplikacji NW, co pozwala na wizualne porównanie uzyskanych wyników. W przypadku globalnej metody lokalizacji wymagana jest dodatkowa korekcja orientacji kamery w celu wyznaczenia pozycji w przestrzeni 2D. W tym celu wykorzystano dane dotyczące bieżącej orientacji kamery wyrażone w kwaternionach. Pozwoliło to na wprowadzenie poprawki pozycji, co znacząco poprawiło dokładność wyniku uzyskiwanego w module GPC mimo znacznych przechyleń BSP podczas symulowanego lotu.
This publication proposes a visual localization method using images from a simulated camera and a georeferenced map. The UAV model and flight simulation were made in the MATLAB Simulink package, which sent UAV orientation data to the described program. The visualization of the camera image was performed in real time using the FlightGear software, the image of which was also captured by the NW program. This method is performed by two processes in two modules: Global Positioning Component and Motion Positioning Component. The first one compares the image from the simulated camera with the orthophotomap. The second determines the position based on the assessment of the displacement of characteristic points in the image in relation to the last known location. The result of the operation of both modules is illustrated in the graphic window of the NW application, which allows for a visual comparison of the obtained results. With the global method of location, additional camera orientation correction is required to determine the position in 2D space. For this purpose, data on the current camera orientation expressed in quaternions were used. This allowed for the introduction of a position correction, which significantly improved the accuracy of the result obtained in the GPC module despite significant UAV tilts during the simulated flight.
Źródło:
Pomiary Automatyka Robotyka; 2022, 26, 4; 53--59
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Ramię diagnostyczne inspekcyjnego robota mobilnego w technologii druku 3D
Diagnostic Arm of a Mobile Inspection Robot in 3D Printing Technology
Autorzy:
Krasoń, Patrycja
Dygudaj, Kinga
Kowalik, Tomasz
Gutze, Jakub
Koperska, Nadia
Garstka, Tomasz
Kwapisz, Marcin
Lipiński, Tomasz
Nowacki, Krzysztof
Powiązania:
https://bibliotekanauki.pl/chapters/27671128.pdf
Data publikacji:
2023-12-14
Wydawca:
Politechnika Częstochowska. Wydawnictwo Politechniki Częstochowskiej
Tematy:
druk 3D
robot inspekcyjny
ramię robota
kamera
system wizyjny
3D printing
camera
inspection robot
robot arm
vision system
Opis:
W rozdziale przedstawiono budowę diagnostycznego manipulatora dla mobilnego robota inspekcyjnego własności związanych z jakością kształtowych wyrobów stalowych. Konstrukcja robota rozwijana jest sukcesywnie przez członków Studenckiego Koła Naukowego Mechatroniki Mecatroo. Elementy ramienia zostały wykonane w technice druku 3D, a do jego napędu zastosowano cyfrowe serwomechanizmy. Na obecnym etapie prac ramię diagnostyczne zostało wyposażone w kamerę systemu wizyjnego przekazującą obraz badanego wyrobu, co pozwala na dodatkową analizę stanu powierzchni w miejscu wykrycia wad.
The chapter presents the construction of a diagnostic manipulator for a mobile inspection robot of properties related to the quality of shaped steel products. The construction of the robot is successively developed by members of the Mecatroo Mechatronics Student Scientific Association. The elements of the arm were made in the 3D printing technique, and digital servos were used to drive it. At the current stage of work, the diagnostic arm has been equipped with a vision system camera, transmitting the image of the tested product, which allows for additional analysis of the surface condition in the place of detecting defects.
Źródło:
Potencjał innowacyjny w inżynierii materiałowej i zarządzaniu produkcją; 313-320
9788371939457
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie urządzenia do zdejmowania trajektorii ruchu narzędzi przy obsłudze manualnej
The equipment design for mapping a trajectory of a tools movement in manual use
Autorzy:
Syryczyński, A.
Dunaj, J.
Zabielski, M.
Powiązania:
https://bibliotekanauki.pl/articles/257646.pdf
Data publikacji:
2007
Wydawca:
Sieć Badawcza Łukasiewicz - Instytut Technologii Eksploatacji - Państwowy Instytut Badawczy
Tematy:
trajektoria narzędzia
znacznik
układ współrzędnych
rachunek macierzowy
kamera wizyjna
robot
oprogramowanie
tool's trajectory
marker
co-ordinate system
matrix analysis
camera
vision software
Opis:
W pracy przedstawiono opracowanie metody i urządzenia do zdejmowania trajektorii ruchu narzędzi z udziałem aktywnego znacznika i wielokamerowego systemu wizyjnego. System pracuje w pasmach światła widzialnego i podczerwonego. Ciągi położeń uzyskane z analizy obrazów podlegają transformacjom układów współrzędnych i przetworzeniom numerycznym. Końcową fazą procesu jest automatyczne generowanie programu robota odtwarzającego trajektorię. Aplikacje pozwolą przyspieszyć tworzenie programów robotów, poprawić jakość wytwarzania i warunki pracy.
This paper presents the design of the method and the equipment for mapping a tool's trajectory with use of an active marker and a multi-camera vision system. The system works in the bands of visible light and infrared radiation. The positions sequences obtained from analysis of images have undergone transformations of the co-ordinate systems and numerical conversions. The final phase of process is an automatic generation program of the robot repeating tool's trajectory. The application allows the acceleration of the creation of the robot's program, as well as improving the quality and conditions of work.
Źródło:
Problemy Eksploatacji; 2007, 1; 145-156
1232-9312
Pojawia się w:
Problemy Eksploatacji
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zliczanie szybkich obiektów z wykorzystaniem kamery zdarzeniowej
Fast Object Counting with an Event Camera
Autorzy:
Bialik, Kamil
Kowalczyk, Marcin
Błachut, Krzysztof
Kryjak, Tomasz
Powiązania:
https://bibliotekanauki.pl/articles/2203472.pdf
Data publikacji:
2023
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Tematy:
kamera zdarzeniowa
zliczanie szybkich obiektów
regulacja przepływu
porcjowanie
regulator PID
event camera
dynamic vision sensor
high-speed object counting
item flow regulation
portioning
PID controller
Opis:
W pracy zaproponowano wykorzystanie kamery zdarzeniowej jako komponentu systemu wizyjnego umożliwiającego zliczanie szybko przemieszczających się obiektów - w tym przypadku spadających ziaren kukurydzy. Kamery te przesyłają informacje o zmianach jasności poszczególnych pikseli i charakteryzują się niską latencją, brakiem rozmycia związanego z ruchem, poprawnym działaniem w różnych warunkach oświetleniowych, a także bardzo niskim zużyciem energii. Zaproponowany algorytm zliczający analizuje zdarzenia w czasie rzeczywistym. Działanie rozwiązania zademonstrowano na stanowisku składającym się ze zsypu z podajnikiem wibracyjnym, który umożliwiał regulację liczby spadających ziaren. Celem układu sterowania z regulatorem PID było utrzymanie stałej średniej liczby spadających obiektów. Zaproponowane rozwiązanie poddane zostało szeregowi testów, mających na celu określenie poprawności działania opracowanej metody. Na ich podstawie można potwierdzić słuszność użycia kamery zdarzeniowej do liczenia małych, szybko poruszających się obiektów, i związanego z tym szerokiego spektrum potencjalnych zastosowań przemysłowych.
This paper proposes the use of an event camera as a component of a vision system that enables counting of fast-moving objects - in this case, falling corn grains. These cameras transmit, in an asynchronous manner, information about the change in brightness of individual pixels and are characterised by low latency, no motion blur, and correct operation in different lighting conditions, as well as very low power consumption. The proposed counting algorithm processes events in real time. The operation of the solution was demonstrated on a stand consisting of a chute with a vibrating feeder, which allowed the number of falling grains to be adjusted. The objective of the control system with a PID controller was to maintain a constant average number of falling objects. The proposed solution was subjected to a series of tests to determine the correctness of the developed method operation. On their basis, the validity of using an event camera to count small, fast-moving objects and the associated wide range of potential industrial applications can be confirmed.
Źródło:
Pomiary Automatyka Robotyka; 2023, 27, 1; 79--84
1427-9126
Pojawia się w:
Pomiary Automatyka Robotyka
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-10 z 10

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies