Trwają zapisy do grupy

Szkolenie: Deep learning w przetwarzaniu języka naturalnego

Zastosowanie zaawansowanych sieci neuronowych (metod deep learning) do rozwiązywania różnorodnych problemów związanych z przetwarzaniem języka naturalnego (NLP)

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:5 dni (40h)

Poziom zaawansowania:

Kod kursu:DL/NLP

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

7 kwietnia
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

4345 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Deep learning w przetwarzaniu języka naturalnego

Cele szkolenia

  • Zdobycie spejalistyczniej wiedzy o sieciach neuronowych stosowanych w przetwarzaniu języka naturalnego (NLP)

  • Zdobycie umiejętności implementacji omawianych algorytmów z wykorzystaniem biblioteki PyTorch w języku Python


Dla kogo?

  • Osób, które mają co najmniej podstawową wiedzę z obszaru uczenia maszynowego

  • Osób pracujących na stanowisku data scientist


Zalety

  • Poznanie zaawansowanych metod, które zrewolucjonizowały wiele obszarów biznesowych

  • Dokładne zrozumienie algorytmów pozwalające na samodzielne wykorzystanie ich w przyszłości

  • Poznanie wiodącej w tej dziedzinie biblioteki PyTorch

  • Duża dawka praktycznej wiedzy i umiejętności, przydatnej podczas rozwiązywania rzeczywistych problemów

  • Zdobycie wiedzy, umożliwiającej wejście na wysoki poziom kompetencji w obszarze deep learning w przetwarzaniu języka naturalnego (NLP)


Wymagania

  • Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python

  • Ogólna wiedza z klasycznego uczenia maszynowego (problemy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego)

  • Podstawowa wiedza o sieciach neuronowych (strukura i mechanizm działania perceptronu wielowarstwowego, mechanizm uczenia sieci).


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Wprowadzenie do biblioteki PyTorch

  • Implementacja perceptronu wielowarstwowego

  • Implementacja procesu uczenia sieci neuronowej

Zanurzenia słów - word embeddings

  • Model word2vec

  • GLOVE

  • FastText

Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)

  • Sieć rekurencyjna prosta

  • Sieć LSTM

  • Sieć GRU

  • Klasyfikacja tekstu przy użyciu sieci rekurencyjnych

  • Wykrywanie nazw własnych (NER) przy użyciu sieci rekurencyjnych

  • Złożone struktury sieci rekurencyjnych w zadaniach NLP: wielowarstwowość, dwukierunkowość

Generowanie tekstu przy użyciu sieci neuronowych

  • Model językowy

  • Mechanizmy generowania tekstu w oparciu o model językowy: generowanie proste, generowanie z randomizacją, beam search

Zadania NLP związane z generowaniem tekstu

  • Typowe problemy "sequence to sequence": tłumaczenie maszynowe, podsumowywanie tekstu, odpowiadanie na pytania

  • Struktura encoder-decoder

  • Generowanie tekstu dotyczącego obiektów wejściowych (np. opisów obrazów)

Sieć neuronowa Transformer - state of the art współczesnego NLP

  • Mechanizm uwagi vs mechanizm rekurencji

  • Mechanizm Multihead Attention

  • Mechanizm Positional Encoding

  • Architektura sieci Transformer

  • Praktyczne zalety i wady sieci Transformer

Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP

  • Transfer wiedzy - schemat działania

  • Model BERT - sieć kodująca tekst do generalnego użytku

  • Dostępne przetrenowane sieci BERT- biblioteka HuggingFace

  • Zastosowanie transferu wiedzy w analizie podobieństwa tekstów

  • Zastosowanie sieci BERT jako model bazowy w klasycznych zadaniach: klasyfikcja tekstu, generowanie tekstu

  • Fine tuning - dotrenowywanie dostępnych modeli

LLMs - Large Language Models

  • Duże modele językowe - wprowadzenie

  • Możliwości i ograniczenia dużych modeli językowych

  • LLM w wykonywaniu zadań NLP

  • Problem inżynierii promptów, prompt jako hiperparametr

  • Kiedy używać LLM'ów, a kiedy trenować własne sieci

Autorem szkolenia jest Norbert Ryciak

Data Scientist w SigDelta. Od lat zajmuje się uczeniem maszynowym, a specjalizuje się w obszarze przetwarzania języka naturalnego i sztucznych sieciach neuronowych (deep learning. W 2015 roku ukończył z wyróżnieniem matematykę na Politechnice Warszawskiej o specjalizacji Statystyka Matematyczna i Analiza Danych. Kontynuował rozwój na doktoracie, w ramach którego prowadził badania nad metodami głębokiego uczenia w zastosowaniach związanych z przetwarzaniem tekstów - rozpoznawaniem wydźwięku i analizą…

Podobne szkolenia