Trwają zapisy do grupy

Deep learning w przetwarzaniu języka naturalnego

Zastosowanie zaawansowanych sieci neuronowych (metod deep learning) do rozwiązywania różnorodnych problemów związanych z przetwarzaniem języka naturalnego (NLP)

3750 PLN+23% VAT (4612 PLN brutto / 1 os.)

Czas trwania szkolenia:4 dni (32h)

Poziom zaawansowania:

Kod kursu:DL/NLP

Dostępne terminy

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

26 listopada
Trwają zapisy na szkolenie

Trener:

Norbert Ryciak

Cena:

3750 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Dostępne terminy

Interesują Cię inne terminy?

Deep learning w przetwarzaniu języka naturalnego

Cele szkolenia

  • Zdobycie spejalistyczniej wiedzy o sieciach neuronowych stosowanych w przetwarzaniu języka naturalnego (NLP)
  • Zdobycie umiejętności implementacji omawianych algorytmów z wykorzystaniem biblioteki PyTorch w języku Python

Dla kogo?

  • Osób, które mają co najmniej podstawową wiedzę z obszaru uczenia maszynowego
  • programistów
  • osób pracujących na stanowisku data scientist

Zalety

  • Poznanie zaawansowanych metod, które zrewolucjonizowały wiele obszarów biznesowych
  • Dokładne zrozumienie algorytmów pozwalające na samodzielne wykorzystanie ich w przyszłości
  • Poznanie wiodącej w tej dziedzinie biblioteki PyTorch
  • Duża dawka praktycznej wiedzy i umiejętności, przydatnej podczas rozwiązywania rzeczywistych problemów
  • Zdobycie wiedzy, umożliwiającej wejście na wysoki poziom kompetencji obszarze deep learning w przetwarzaniu języka naturalnego (NLP)

Wymagania

  • Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python
  • Ogólna wiedza z klasycznego uczenia maszynowego (problemy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego)
  • Podstawowa wiedza o sieciach neuronowych (strukura i mechanizm działania perceptronu wielowarstwowego, mechanizm uczenia sieci).

W cenie otrzymasz:

  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia
  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program

Pobierz program w PDF

Wprowadzenie do biblioteki PyTroch

  • Implementacja perceptronu wielowarstwowego
  • Implementacja procesu uczenia sieci neuronowej

Zanurzenia słów - word embeddings

  • Model word2vec
  • GLOVE
  • FastText

Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)

  • Sieć rekurencyjna prosta
  • Sieć LSTM
  • Sieć GRU
  • Klasyfikacja tekstu przy użyciu sieci rekurencyjnych
  • Wykrywanie nazw własnych (NER) przy użyciu sieci rekurencyjnych
  • Złożone struktury sieci rekurencyjnych w zadaniach NLP: wielowarstwowość, dwukierunkowość

Generowanie tekstu przy użyciu sieci neuronowych

  • Model językowy
  • Mechanizmy generowania tekstu w oparciu o model językowy: generowanie proste, beam search, generowanie z randomizacją

Zadania NLP związane z generowaniem tekstu

  • Typowe problemy "sequence to sequence": tłumaczenie maszynowe, podsumowywanie tekstu, odpowiadanie na pytania
  • Model seq2seq, struktura encoder-decoder
  • Generowanie tekstu dotyczącego obiektów wejściowych (np. opisów obrazów)

Sieć neuronowa Transformer - state of the art współczesnego NLP

  • Mechnizm uwagi vs mechanizm rekurencji, rola uwagi w generowaniu tekstu
  • Mechanizm Multihead Attention
  • Mechanizm Positional Encoding
  • Architektura sieci Transformer
  • Praktyczne wady i zalety sieci Transformer

Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP

  • Transfer wiedzy - schemat działania
  • Model BERT - sieć kodująca tekst do generalnego użytku
  • Dostępne przetrenowane sieci BERT- biblioteka HuggingFace
  • Zastosowanie transferu wiedzy w analizie podobieństwa tekstów
  • Zastosowanie sieci BERT jako model bazowy w klasycznych zadaniach: klasyfikcja tekstu, generowanie tekstu
  • Fine tuning - dotrenowywanie dostępnych modeli
  • Dostępne gotowe modele w bibliotece Spacy

LLMs - Large Language Models

  • Duże modele językowe - wprowadzenie
  • Możliwości i ograniczenia dużych modeli językowych
  • LLM w wykonywaniu zadań NLP
  • Problem inżynierii promptów, prompt jako hiperparametr
  • Kiedy używać LLM'ów, a kiedy trenować własne sieci

Autorem szkolenia jest Norbert Ryciak

Data Scientist w SigDelta. Od lat zajmuje się uczeniem maszynowym, a specjalizuje się w obszarze przetwarzania języka naturalnego i sztucznych sieciach neuronowych (deep learning. W 2015 roku ukończył z wyróżnieniem matematykę na Politechnice Warszawskiej o specjalizacji Statystyka Matematyczna i Analiza Danych. Kontynuował rozwój na doktoracie, w ramach którego prowadził badania nad metodami głębokiego uczenia w zastosowaniach związanych z przetwarzaniem tekstów - rozpoznawaniem wydźwięku i analizą…