Szkolenie: Zwiększanie wydajności sieci neuronowych
Sztuczne sieci neuronowe do osiągnięcia oczekiwanych rezultatów często wymagają znaczących nakładów obliczeniowych, a co za tym idzie również nakładów kapitałowych. Waga tego problemu rośnie w czasie, wraz ze zwiększającą się ilością przetwarzanych przez modele danych, oraz ich penetracją rynku i wszelakich aplikacji. Szkolenie pokrywa szereg zagadnień związanych ze zwiększeniem wydajności sztucznych sieci neuronowych, w szczególności zagadnienia, którymi zajmujemy się w ramach prowadzonego projektu BioNN.
2950 PLN+23% VAT (3628 PLN brutto / 1 os.)Czas trwania szkolenia:3 dni (24h)
Kod kursu:DL/ZWS
Zwiększanie wydajności sieci neuronowych
Cele szkolenia
Poznanie algorytmów umożliwiających zwiększenie wydajności sieci neuronowych
Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów
Dla kogo?
Szkolenie adresowane jest do osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
W szczególności szkolenie przeznaczone jest dla programistów implementujących sieci neuronowe w środowiskach z ograniczonymi zasobami obliczeniowymi, takimi jak mikrokontrolery albo urządzenia mobilne
Zalety
Zajęcia prowadzone przez specjalistów zajmujących się na co dzień badaniami nad efektywnością sieci neuronowych
Możliwość poznania najnowszych trendów w uczeniu maszynowym
Praktyczne zadania pozwalające dokładnie zrozumieć przekazywaną teorię
Wymagania
Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do zagadnienia efektywnych obliczeń w sieciach neuronowych
Podstawowe metody optymalizacji działania sieci neuronowych
Kwantyzacja wag
Pruning
Bezstratne uczenie maszynowe
Mechanizmy early-exit
Obliczenia warunkowe w sieciach neuronowych
Uczenie ciągłe
Problem katastroficznego zapominania
Scenariusze uczenia ciągłego: task-incremental, domain-incremental, class-incremental
Metody regularyzacyjne
Metody wykorzystujące powtarzanie danych (replay)
Uczenie na podstawie niepełnych danych
Działanie sieci neuronowych przy braku/niepełnych danych
Few-shot learning