Szkolenie: Nienadzorowana reprezentacja, autoenkodery i modele generatywne
Jednym z ważniejszych zadań Deep Learningu jest budowa reprezentacji danych. Ponieważ często mamy do dyspozycji dużą liczbę niepoetykietowanych danych (wysokie koszty), w ostatnim czasie widzimy coraz większe zainteresowanie konstrukcją nienadzorowanych reprezentacji za pomocą metod kontrastywnych (contrastive learning). Drugim istotnym narzędziem do konstrukcji reprezentacji są modele bazujące na strukturze AutoEnkodera. Pozwalają one w szczególności uzupełniać brakujące części zdjęć (missing imputation), kompresować dane, usuwać szum (denoising AutoEncoder) lub też wyszukiwać odstające obserwacje (outliers). Rozszerzenie AutoEnkodera do modeli generatywnych jak VAE (variational AutoEncoder) pozwala nam na generowanie danych, interpolację między danymi czy ich manipulację. Inne ważne modele generatywne to GANy, które pozwalają na generowanie fotorealistycznych zdjęć czy ich modyfikowanie (text-to-speech, image impainting, etc) czy modele pozwalające na estymację gęstości (modele flowowe). W ramach szkolenia omówiona zostanie tematyka budowy nienadzorowanych reprezentacji danych oraz modele generatywne, przechodząc od tych posiadających strukturę AutoEnkodera, po GANy oraz modele gęstościowe.
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:3 dni (24h)
Kod kursu:DL/NRAMG
Nienadzorowana reprezentacja, autoenkodery i modele generatywne
Cele szkolenia
Poznanie najnowocześniejszych algorytmów tworzenia reprezentacji korzystających z danych bez etykiet
Zapoznanie się z architekturami dedykowanymi do uczenia bez nadzoru lub z częściowym nadzorem, takimi jak AutoEnkoder, GAN lub modele gęstościowe
Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów
Dla kogo?
Szkolenie adresowane jest do osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
W szczególności szkolenie przeznaczone jest dla osób zajmujących się modelami generatywnymi lub uczeniem nienadzorowanym
Zalety
Zajęcia prowadzone przez specjalistów, którzy na co dzień zajmują się tematyką reprezentacji w sieciach neuronowych oraz modelami generatywnymi
Możliwość zapoznania się z zagadnieniami związanymi z uczeniem bez nadzoru, takimi jak uczenie kontrastowe, AutoEnkodery czy modele generatywne
Praktyczne zadania pozwalające dokładnie zrozumieć przekazywan ą teorię
Wymagania
Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wstęp do reprezentacji danych w modelach uczenia maszynowego
Reprezentacje nadzorowane
Reprezentacje nienadzorowane oraz ich zalety
Metody budowania reprezentacji nienadzorowanych
Metody kontrastywne (contrastive learning)
Budowanie reprezentacji za pomocą AutoEnkoderów
Różne warianty AutoEnkodera oraz ich zastosowania
Denoising AutoEncoder i usuwanie szumu w danych
Imputacja oraz kompresja danych z wykorzystaniem AutoEnkoderów
Detekcja odstających obserwacji
Wasserstein AutoEncoder
Rozszerzenie AutoEnkodera do modeli generatywnych (VAE)
Generowanie danych, interpolacja między danymi i manipulacja danymi z wykorzystaniem AutoEnkoderów
Modele typu GAN
Uczenie przeciwstawne
Generowanie fotorealistycznych zdjęć z użyciem GANów
Modyfikowanie danych: text-to-speech oraz image impainting
Modele gęstościowe
Podstawy działania modeli gęstościowych
GLOW
FFJORD