Szkolenie: Zaawansowane przetwarzanie strumieni danych w Apache Flink
Szkolenie obejmuje praktyczne wykorzystanie platformy Apache Flink do zaawansowanego przetwarzania strumieni danych w środowiskach Big Data z wykorzystaniem języków Java, Scala i SQL, a także platformy Google Cloud Platform (GCP).
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:3 dni (24h)
Kod kursu:BIGDATA/FLINK
Zaawansowane przetwarzanie strumieni danych w Apache Flink
Cele szkolenia
Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danych
Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink
Dla kogo?
Analityków i programistów, którzy znają podstawy Big Data oraz przetwarzania strumieni danych i chcą zapoznać się z platformą Apache Flink oferującą w tym zakresie największe możliwości w porównaniu do alternatywnych rozwiązań
Zalety
Kompleksowe wprowadzenie do platformy Apache Flink
Przedstawienie praktycznych przykładów oraz praktyk związanych z analizą strumieni danych w środowiskach Big Data
Szczegółowe zapoznanie się z kluczowymi rodzajami API dostarczanymi przez Apache Flink
Uporządkowanie i usystematyzowanie wiedzy na temat przetwarzania strumieni danych
Jest to unikalne szkolenie na rynku, które zagłębia się w zaawansowane aspekty przetwarzania strumieniowego w Apache Flink. Dostarcza wiedzy, która wychodzi poza podstawy, umożliwiając uczestnikom pełne zrozumienie technologii
Wymagania
Dobra znajomość: języka SQL, relacyjnego modelu danych
Podstawowa znajomość obiektowych języków programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python
Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi
Rekomendujemy wcześniejszy udział w szkoleniach: "Big Data i platforma Hadoop - wprowadzenie (BIGDATA/BASE)", "Przetwarzanie strumieni danych w środowiskach Big Data (BIGDATA/STREAM)"
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do systemów przetwarzania strumieni danych (SP)
Wprowadzenie do świata systemów SP
Podstawy SP
Obsługa czasu w SP
Dualizm strumieni i tabel, SQL
Punkty kontrolne i punkty zachowania
Complex Event Processing (CEP)
Flink - wprowadzenie
Flink - historia, cechy, architektura
Podstawy implementacji aplikacji
Typy źródeł i tryby przetwarzania
Warsztat
DataStream API - podstawy
Typy danych
Typy strumieni
Postać programu
Podstawy przetwarzania strumieni danych
Transformacje
Złożone interfejsy operatorów
Warsztat
DataStream API - elementy zaawansowane - część 1
Wprowadzenie - okna, obsługa czasu
Etykiety czasowe i ich przypisywanie do zdarzeń
Okna i operacje z nimi związane
Łączenie strumieni
Warsztat
DataStream API - elementy zaawansowane - część 2
Wyzwalacze - wprowadzenie
Wyzwalacze wbudowane
Obsługa zdarzeń nieuporządkowanych
Obsługa zdarzeń spóźnionych
Zaawansowana obsługa okien
Warsztat
DataStream API - obsługa stanu przetwarzania
Wprowadzenie
Punkty kontrolne - wprowadzenie
Własne operatory i ich stan
Warsztat
SQL i Table API - podstawy
Wprowadzenie
Struktura programu
Narzędzia do prototypowania
Katalogi, bazy danych, tabele i ich typy
Semantyka Table API
Obsługa znaczników czasu i watermark
Table API - przegląd metod
Integracja SQL i Table API
Warsztat
Complex Event Processing (CEP)
Wprowadzenie
CEP w DataStream API
SQL API - wyrażenie MATCH_RECOGNIZE
Warsztat
Przetwarzanie danych wsadowych
Strumienie skończone i nieskończone
Statyczne zbiory danych
Warsztat