Trwają zapisy do grupy

Elastic Stack - Wykorzystanie do analizy logów i metryk

Podczas tego szkolenia uczestnicy nauczą się wykorzystywać ekosystem Elastic Stack do analizy metryk oraz logów aplikacyjnych

2150 PLN+23% VAT (2644 PLN brutto / 1 os.)

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:ELASTICSTACK/LOGSANDMETRICS

elasticsearchsearchkibana

Dostępne terminy

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

26 września
Trwają zapisy na szkolenie

Trener:

Mariusz Górski

Cena:

2150 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

WarszawaZdalne

Lokalizacja:

WarszawaZdalne

Termin:

21 listopada
Trwają zapisy na szkolenie

Trener:

Mariusz Górski

Cena:

2150 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Dostępne terminy

Interesują Cię inne terminy?

Elastic Stack - Wykorzystanie do analizy logów i metryk

Cele szkolenia

  • Rozszerzenie wiedzy z zakresu Elastic Stack o zagadnienia związane z analizą szeregów czasowych (logi aplikacyjne, metryki)

Dla kogo?

  • Osób posiadających podstawową wiedzę z zakresu Elastic Stack
  • Osób pragnących rozszerzać swoją wiedzę na temat Elastic Stack pod kątem budowania wydajnych systemów analizy szeregów czasowych (logi, metryki)
  • Specjalistów DevOps
  • Specjalistów SRE
  • Administratorów

Zalety

  • Warsztatowy charakter zajęć
  • Poznanie najważniejszych aspektów i komponentów Elastic Stack
  • Zdobycie umiejętności pozwalających na wdrażanie rozwiązań wprowadzających/rozszerzających możliwości monitorowania i rozwiązywania problemów w Twoich aplikacjach i infrastrukturze
  • Poznanie dobrych i złych praktyk implementacji systemu agregacji metryk i logów oraz sposobów radzenia sobie z jego zarządzaniem i ciągłą poprawą
  • Otrzymanie gotowych, działających przykładów, umożliwiających odtworzenie wszystkich fragmentów szkolenia we własnym tempie

Wymagania

  • Udział w szkoleniu "Elastic Stack - Wprowadzenie do ekosystemu" lub podstawowa wiedza z zakresu Elasticsearch
  • Znajomość zapytań REST i formatu JSON
  • Umiejętność poruszania się w linii poleceń systemu Linux

W cenie otrzymasz:

  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia
  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program

Pobierz program w PDF

Architektura klastra Elasticsearch

  • Role węzłów
  • Budowa klastra
  • Dodawanie węzłów
  • Apache Lucene
  • Replikacja danych
  • Architektura Hot-Warm-Cold

Indeksowanie danych

  • Architektura indeksu
  • Modelowanie danych
  • Struktura dokumentu
  • Typy pól
  • Mapping API
  • Dynamiczny vs statyczny mapping
  • Replikacja
  • Routing
  • Indeksowanie przy dużym obciążeniu
  • Transformacja danych za pomocą Ingestion Pipelines
  • Indeksowanie danych za pomocą narzędzia Filebeat (Pliki -> Elasticsearch)
  • Indekowanie danych za pomocą narzędzia Logstash (Kafka -> Elasticsearch)
  • Indeksowanie danych za pomocą narzędzia Metricbeat (Metricbeat -> Kafka -> Elasticsearch)

Wyszukiwanie danych

  • Architektura indeksu
  • Query DSL
  • Zapytania typu term
  • Wyszukiwanie pełnotekstowe (full-text)
  • Caching zapytań (sekcja filter)
  • Agregacje
  • Wyszukiwanie przy dużym obciążeniu
  • Routing

Zarządzanie dużymi zbiorami danych (szeregi czasowe)

  • Index Templates
  • Index Aliases
  • ILM - Index Lifecycle Management

Analiza danych w Kibanie

  • Przeglądanie danych (zakładka Discover)
  • Wizualizacje (zakładka Visualize)
  • Dashboardy (zakładka Dashboards)

Podsumowanie

Szkolenie poprowadzi Mariusz Górski

Inżynier danych, entuzjasta technologii Open Source (darmowe, jego ulubione) oraz chmury publicznej. Fan dzielenia się wiedzą. Lubi eksperymentować, psuć i naprawiać (niekoniecznie w takiej kolejności). Zawodowo (ale i prywatnie) pracuje z technologiami klasy Big Data od trzech lat (stan na grudzień 2019 r.), wdrażając je zarówno od strony infrastrukturalnej jak i aplikacyjnej. Ma na koncie projekty z wykorzystaniem narzędzi Apache (Airflow, Kafka, Spark), Elastic Stack, Amazon Web Services oraz…