Trwają zapisy do grupy

Zaawansowane przetwarzanie strumieni danych w Apache Flink

Szkolenie obejmuje praktyczne wykorzystanie platformy Apache Flink do zaawansowanego przetwarzania strumieni danych w środowiskach Big Data z wykorzystaniem języków Java, Scala i SQL, a także platformy Google Cloud Platform (GCP).

2550 PLN+23% VAT (3136 PLN brutto / 1 os.)

Czas trwania szkolenia:3 dni (24h)

Poziom zaawansowania:

Kod kursu:BIGDATA/FLINK

javabig-datasqlgcp

Dostępne terminy

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

12 sierpnia
Termin gwarantowanyTrwają zapisy na szkolenie

Trener:

Krzysztof Jankiewicz

Cena:

2550 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

14 października
Trwają zapisy na szkolenie

Trener:

Krzysztof Jankiewicz

Cena:

2550 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Dostępne terminy

Interesują Cię inne terminy?

Zaawansowane przetwarzanie strumieni danych w Apache Flink

Cele szkolenia

  • Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danych
  • Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink

Dla kogo?

  • Analityków i programistów, którzy znają podstawy Big Data oraz przetwarzania strumieni danych i chcą zapoznać się z platformą Apache Flink oferującą w tym zakresie największe możliwości w porównaniu do alternatywnych rozwiązań

Zalety

  • Kompleksowe wprowadzenie do platformy Apache Flink
  • Przedstawienie praktycznych przykładów oraz praktyk związanych z analizą strumieni danych w środowiskach Big Data
  • Szczegółowe zapoznanie się z kluczowymi rodzajami API dostarczanymi przez Apache Flink
  • Uporządkowanie i usystematyzowanie wiedzy na temat przetwarzania strumieni danych
  • Jest to unikalne szkolenie na rynku, które zagłębia się w zaawansowane aspekty przetwarzania strumieniowego w Apache Flink. Dostarcza wiedzy, która wychodzi poza podstawy, umożliwiając uczestnikom pełne zrozumienie technologii

Wymagania

  • Dobra znajomość: języka SQL, relacyjnego modelu danych
  • Podstawowa znajomość obiektowych języków programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python
  • Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi
  • Rekomendujemy wcześniejszy udział w szkoleniach: "Big Data i platforma Hadoop - wprowadzenie (BIGDATA/BASE)", "Przetwarzanie strumieni danych w środowiskach Big Data (BIGDATA/STREAM)"

W cenie otrzymasz:

  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia
  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program

Pobierz program w PDF

Wprowadzenie do systemów przetwarzania strumieni danych (SP)

  • Wprowadzenie do świata systemów SP
  • Podstawy SP
  • Obsługa czasu w SP
  • Dualizm strumieni i tabel, SQL
  • Punkty kontrolne i punkty zachowania
  • Complex Event Processing (CEP)

Flink - wprowadzenie

  • Flink - historia, cechy, architektura
  • Podstawy implementacji aplikacji
  • Typy źródeł i tryby przetwarzania
  • Warsztat

DataStream API - podstawy

  • Typy danych
  • Typy strumieni
  • Postać programu
  • Podstawy przetwarzania strumieni danych
  • Transformacje
  • Złożone interfejsy operatorów
  • Warsztat

DataStream API - elementy zaawansowane - część 1

  • Wprowadzenie - okna, obsługa czasu
  • Etykiety czasowe i ich przypisywanie do zdarzeń
  • Okna i operacje z nimi związane
  • Łączenie strumieni
  • Warsztat

DataStream API - elementy zaawansowane - część 2

  • Wyzwalacze - wprowadzenie
  • Wyzwalacze wbudowane
  • Obsługa zdarzeń nieuporządkowanych
  • Obsługa zdarzeń spóźnionych
  • Zaawansowana obsługa okien
  • Warsztat

DataStream API - obsługa stanu przetwarzania

  • Wprowadzenie
  • Punkty kontrolne - wprowadzenie
  • Własne operatory i ich stan
  • Warsztat

SQL i Table API - podstawy

  • Wprowadzenie
  • Struktura programu
  • Narzędzia do prototypowania
  • Katalogi, bazy danych, tabele i ich typy
  • Semantyka Table API
  • Obsługa znaczników czasu i watermark
  • Table API - przegląd metod
  • Integracja SQL i Table API
  • Warsztat

Complex Event Processing (CEP)

  • Wprowadzenie
  • CEP w DataStream API
  • SQL API - wyrażenie MATCH_RECOGNIZE
  • Warsztat

Przetwarzanie danych wsadowych

  • Strumienie skończone i nieskończone
  • Statyczne zbiory danych
  • Warsztat

Autorem szkolenia jest Krzysztof Jankiewicz

Konsultant IT i wykładowca akademicki. Specjalista w zakresie ogólnie rozumianego przetwarzania danych. Począwszy od relacyjnych systemów baz danych, poprzez architekturę, utrzymanie i wykorzystywanie hurtowni danych, bazy danych NoSQL, systemy danych przestrzennych, po narzędzia i platformy Big Data. Od samego początku pracy zawodowej stara się jako konsultant znajdować czas na kontakty przemysłem, gdzie swoją wiedzę może konfrontować i rozwijać w oparciu o rzeczywiste przypadki. Począwszy od…