Szkolenie: Interpretowalne uczenie maszynowe
Współczesne metody uczenia maszynowego stają się kluczowymi elementami wielu aplikacji, na przykład w przemyśle, medycynie czy sektorze finansowym. Niestety, metody te działają zazwyczaj na zasadzie czarnych skrzynek, które zwracają predykcje bez wyjaśnienia podejmowanych decyzji. Jest to problematyczne, bo uczenie maszynowe coraz częściej wkracza w różne aspekty życia społecznego. Dlatego organy regulacyjne coraz częściej wymagają tłumaczenia procesów decyzyjnych w celu zapewnienia zaufania i przejrzystości. W ramach szkolenia przedstawimy podstawowe metody wyjaśniania decyzji modeli uczenia maszynowego oraz ich praktyczne zastosowania.
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:2 dni (16h)
Kod kursu:DL/MI
Interpretowalne uczenie maszynowe
Cele szkolenia
Poznanie algorytmów wizualizacji oraz interpretacji decyzji podejmowanych przez modele uczenia maszynowego
Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów
Dla kogo?
Osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
Osób wdrażających sztuczną inteligencję w zastosowaniach wymagających wyjaśnialności wprowadzanych rozwiązań, na przykład w medycynie lub w sektorach zaufania publicznego
Zalety
Zajęcia prowadzone przez specjalistów, którzy na co dzień pracują nad zagadnieniami związanymi z interpretowanymi modelami uczenia maszynowego
Możliwość poznania najnowszych trendów w uczeniu maszynowym, w szczególności w tematyce Explainable AI
Praktyczne zadania pozwalające dokładnie zrozumieć przekazywaną teorię
Wymagania
Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do metod interpretacji modeli uczenia maszynowego
Dlaczego interpretowalność jest ważna
Praktyczne zastosowania metod wyjaśniających działanie modeli uczenia maszynowego
Mapy istotności (saliency maps)
Wyjaśnianie predykcji za pomocą zrozumiałych dla człowieka konceptów
Metoda TCAV