Trwają zapisy do grupy

Szkolenie: Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji

Szkolenie "Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji" koncentruje się na optymalizacji modeli głębokiego uczenia zarówno w fazie treningu, jak i inferencji. Uczestnicy szkolenia zapoznają się z technikami optymalizacji, takimi jak kwantyzacja, pruning, mixed-precision training oraz narzędziami do kompresji modeli i wdrażania na urządzeniach brzegowych. Szczególną uwagę poświęcono optymalizacji dużych modeli językowych (LLMs) oraz modeli wizji komputerowej, z wykorzystaniem technologii ONNX, TensorRT, Triton oraz narzędzi do optymalizacji potoków danych.

2450 PLN+23% VAT (3013 PLN brutto / 1 os.)

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:DL/OPT

deep-learningai

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

19 grudnia
Trwają zapisy na szkolenie

Trener:

Trener Sages

Cena:

2450 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

17 kwietnia
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2450 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji

Cele szkolenia

  • Zrozumienie potrzeby optymalizacji modeli głębokiego uczenia w różnych środowiskach

  • Nabycie umiejętności stosowania technik takich jak kwantyzacja, pruning oraz mixed-precision training

  • Poznanie technologii optymalizacyjnych, takich jak ONNX, TensorRT i Triton do przyspieszania inferencji

  • Zastosowanie metod optymalizacji do dużych modeli językowych (LLMs) oraz modeli wizji komputerowej

  • Optymalizacja modeli do wdrażania na urządzeniach brzegowych z ograniczonymi zasobami obliczeniowymi


Dla kogo?

  • Doświadczonych data scientistów i inżynierów uczenia maszynowego, którzy chcieliby poznać metody optymalizacji modeli

  • Osób pracujących z modelami uczenia głębokiego, którzy chcą poprawić wydajność swoich modeli

  • Specjalistów, którzy zajmują się wdrażaniem modeli głębokiego uczenia w środowiskach o ograniczonych zasobach


Zalety

  • Szkolenie "Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji" oferuje praktyczne podejście do optymalizacji modeli w Pythonie z użyciem narzędzi i frameworków, takich jak PyTorch, TensorFlow, ONNX, TensorRT i Triton

  • Uczestnicy szkolenia nauczą się optymalizować modele pod kątem redukcji kosztów, jak również wdrożeń na urządzeniach brzegowych

  • Specjalny moduł poświęcony jest optymalizacji szeroko stosowanych dużych modeli językowych (LLMs) oraz modeli wizji komputerowej


Wymagania

  • Dobra znajomość języka Python, a w szczególności umiejętność korzystania z zewnętrznych bibliotek

  • Znajomość podstaw uczenia maszynowego i głębokiego

  • Doświadczenie w pracy z Pythonem i bibliotekami do głębokiego uczenia (PyTorch, TensorFlow)

  • Wiedza na temat działania sieci neuronowych oraz procesów treningu modeli


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Wprowadzenie do optymalizacji modeli

  • Przegląd potrzeb optymalizacyjnych

  • Optymalizacja w różnych środowiskach

Optymalizacja potoków danych

  • Optymalizacja wczytywania danych i augmentacji

  • Metodologia i narzędzia do optymalizacji potoków

Techniki optymalizacji procesu treningowego

  • Trening z mieszanymi precyzjami

  • Akumulacja gradientów

  • Trening rozproszony

  • Metody optymalizacji w bibliotece PyTorch

Technologie optymalizujące inferencję modeli

  • ONNX

  • NVIDIA TensorRT

  • NVIDIA Triton

Kompresja modeli po procesie treningowym

  • Kwantyzacja

  • Pruning

  • Formaty modeli

Optymalizacja dużych modeli językowych (LLMs)

  • Wprowadzenie do optymalizacji LLM

  • Kwantyzacja

  • Przycinanie (pruning)

  • Efektywne dostrajanie parametrów

  • Nowoczesne techniki wdrażania LLM

Optymalizacja modeli wizji komputerowej

  • Przykładowe biblioteki w Python

  • Przyspieszanie procesu inferencji na przykładzie modeli detekcji

Optymalizacja modeli dla urządzeń brzegowych (edge devices)

  • Problem optymalizacji na urządzeniach edge

  • Technologie do wdrażania modeli na urządzeniach brzegowych