Trwają zapisy do grupy
Zwiększanie wydajności sieci neuronowych
Sztuczne sieci neuronowe do osiągnięcia oczekiwanych rezultatów często wymagają znaczących nakładów obliczeniowych, a co za tym idzie również nakładów kapitałowych. Waga tego problemu rośnie w czasie, wraz ze zwiększającą się ilością przetwarzanych przez modele danych, oraz ich penetracją rynku i wszelakich aplikacji. Szkolenie pokrywa szereg zagadnień związanych ze zwiększeniem wydajności sztucznych sieci neuronowych, w szczególności zagadnienia, którymi zajmujemy się w ramach prowadzonego projektu BioNN.
2950 PLN+23% VAT (3628 PLN brutto / 1 os.)Czas trwania szkolenia:3 dni (24h)
Poziom zaawansowania:
Kod kursu:DL/ZWS
Zwiększanie wydajności sieci neuronowych
Cele szkolenia
- Poznanie algorytmów umożliwiających zwiększenie wydajności sieci neuronowych
- Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów
Dla kogo?
- Szkolenie adresowane jest do osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
- W szczególności szkolenie przeznaczone jest dla programistów implementujących sieci neuronowe w środowiskach z ograniczonymi zasobami obliczeniowymi, takimi jak mikrokontrolery albo urządzenia mobilne
Zalety
- Zajęcia prowadzone przez specjalistów zajmujących się na co dzień badaniami nad efektywnością sieci neuronowych
- Możliwość poznania najnowszych trendów w uczeniu maszynowym
- Praktyczne zadania pozwalające dokładnie zrozumieć przekazywaną teorię
Wymagania
- Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)
W cenie otrzymasz:
- Materiały szkoleniowe
- Certyfikat ukończenia szkolenia
- W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program
Wprowadzenie do zagadnienia efektywnych obliczeń w sieciach neuronowych
Podstawowe metody optymalizacji działania sieci neuronowych
- Kwantyzacja wag
- Pruning
Bezstratne uczenie maszynowe
- Mechanizmy early-exit
- Obliczenia warunkowe w sieciach neuronowych
Uczenie ciągłe
- Problem katastroficznego zapominania
- Scenariusze uczenia ciągłego: task-incremental, domain-incremental, class-incremental
- Metody regularyzacyjne
- Metody wykorzystujące powtarzanie danych (replay)
Uczenie na podstawie niepełnych danych
- Działanie sieci neuronowych przy braku/niepełnych danych
- Few-shot learning