Trwają zapisy do grupy

Szkolenie: Bezpieczeństwo systemów AI

Szkolenie "Bezpieczeństwo systemów AI" obejmuje zagadnienia bezpieczeństwa systemów sztucznej inteligencji, od podstaw działania AI i uczenia maszynowego, przez identyfikację wektorów ataku, po praktyczne techniki zabezpieczania systemów. Uczestnicy zdobędą wiedzę teoretyczną oraz praktyczne umiejętności z zakresu audytu, testowania i zabezpieczania systemów AI, ze szczególnym uwzględnieniem modeli LLM.

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:SEC/AI

securitymachine-learningbezpieczenstwoai

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

27 maja
Trwają zapisy na szkolenie

Trener:

Adrian Sroka

Cena:

2450 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Bezpieczeństwo systemów AI

Cele szkolenia

  • Zrozumienie fundamentalnych zasad działania systemów AI i uczenia maszynowego

  • Identyfikacja specyficznych zagrożeń bezpieczeństwa związanych z systemami AI

  • Nabycie umiejętności wykrywania i przeciwdziałania atakom na systemy AI

  • Poznanie metod zabezpieczania danych, modeli i infrastruktury AI

  • Zdobycie praktycznych umiejętności audytu i testowania bezpieczeństwa systemów AI

  • Zapoznanie się z aktualnymi regulacjami i standardami dotyczącymi bezpieczeństwa AI


Dla kogo?

  • Specjalistów ds. bezpieczeństwa IT

  • Inżynierów i deweloperów AI

  • Architektów rozwiązań AI

  • Audytorów systemów IT

  • Menedżerów projektów AI


Zalety

  • Kompleksowe podejście obejmujące zarówno podstawy teoretyczne, jak i praktyczne aspekty bezpieczeństwa AI

  • Najnowsza wiedza uwzględniająca aktualny stan technologii i zagrożeń

  • Prezentacja rzeczywistych ataków i incydentów bezpieczeństwa


Wymagania

  • Podstawowe zrozumienie koncepcji uczenia maszynowego

  • Podstawowa znajomość zagadnień z zakresu bezpieczeństwa IT


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Zasada działania systemów AI

  • Podstawowe koncepcje i architektura systemów AI

  • Kluczowe algorytmy i modele w uczeniu maszynowym

  • Proces uczenia modeli: od danych treningowych do wdrożenia

Zastosowanie systemów AI

  • Obszary, w których AI znajduje zastosowanie

  • Ryzyka i korzyści wynikające z implementacji AI

  • Przegląd typowych przypadków użycia

Wprowadzenie do bezpieczeństwa systemów AI

  • Dlaczego bezpieczeństwo systemów AI jest kluczowe?

  • Definicje i obszary bezpieczeństwa sztucznej inteligencji

  • Specyficzne wyzwania bezpieczeństwa w systemach AI

  • Różnice między tradycyjnym bezpieczeństwem IT a bezpieczeństwem AI

Ataki na systemy AI

  • Rodzaje ataków na modele uczenia maszynowego (np. evasion, poisoning, inference)

  • Analiza wektorów ataku i ich wpływ na integralność modeli

  • Studium przypadków rzeczywistych ataków na systemy AI

Bezpieczeństwo danych w systemach AI

  • Data Poisoning – zatruwanie danych treningowych

  • Membership Inference – ataki na obecność danych w zbiorze treningowym

  • Sensitive Information Disclosure – ujawnianie wrażliwych informacji

  • Prompt Leakage – ujawnienie treści promptów w systemach AI

  • Modelowanie zagrożeń dla danych

Ataki na integralność i poufność modeli AI (kradzież, odwracanie i manipulacja)

  • Transfer Learning – wykorzystanie wcześniej wytrenowanego modelu do nieautoryzowanych celów

  • Input Manipulation – ataki na dane wejściowe prowadzące do błędnych predykcji

  • Prompt Injection – wstrzykiwanie złośliwych promptów do modeli LLM

  • Modelowanie zagrożeń dla poufności modelu

Ataki na prywatność

  • Training Data Extraction – odzyskiwanie oryginalnych danych treningowych

  • Membership Inference – sprawdzanie, czy dane należą do zbioru treningowego

  • Model Theft – kradzież modelu poprzez API lub analizę parametrów

  • Model Inversion – odzyskiwanie oryginalnych danych treningowych

  • Modelowanie zagrożeń dla prywatności

Ataki na dostępność i poprawność działania systemu AI (sabotaż i degradacja)

  • Model Skewing – manipulowanie danymi wejściowymi, aby stopniowo zmieniać działanie modelu

  • Model Denial of Service (DoS) – przeciążenie modelu w celu uniemożliwienia jego działania

  • Supply Chain Attacks – ataki na łańcuch dostaw, np. złośliwe dane treningowe lub naruszenie kodu biblioteki

  • Modelowanie zagrożeń wynikajacych z łańcucha dostaw

Ataki na integrację

  • Output Integrity / Insecure Output Handling – manipulowanie wynikami generowanymi przez AI

  • Overreliance – nadmierne poleganie na wynikach AI bez ich weryfikacji

  • Modelowanie zagrożeń wynikajacych z intergacji z innymi systemami

Bezpieczne wdrażanie i utrzymanie infrastruktury AI

  • Zagrożenia związane z Unbounded Consumption – niekontrolowany dostęp i wykorzystywanie zasobów

  • Bezpieczna konfiguracja środowiska AI

  • Zarządzanie dostępem i kontrola uprawnień

Modele LLM

  • Specyfika modeli LLM i ich unikalne zagrożenia

  • Halucynacje – generowanie fałszywych informacji przez modele AI

  • Warsztat z próby obejścia zabezpieczen modeli LLM

  • Warsztat z metod weryfikacji treści w LLM

  • Metody zabezpieczania modeli LLM

  • Techniki walidacji i sanityzacji promptów

  • Monitorowanie i filtrowanie wyjść modelu

Audyt i testowanie systemów AI

  • Narzędzia i techniki testowania bezpieczeństwa modeli AI

  • Audyt modeli AI

  • Warsztat z przykładowego samodzielnego audytu systemu AI

Standardy, regulacje i etyka w systemach AI

  • Przegląd standardów i regulacji (np. EU AI Act, NIST, ISO)

  • Znaczenie etyki i odpowiedzialności przy wdrażaniu AI

  • Implementacja zgodności z regulacjami w organizacjach

  • Warsztat z analizy systemu pod kątem regulacji AI Act

Autorem szkolenia jest Adrian Sroka

Architekt bezpieczeństwa i konsultant IT. Moim celem jest uczynienie świata bezpieczniejszym poprzez tworzenie lepiej zabezpieczonych aplikacji i systemów IT. Wierzę, że skuteczne podejście do bezpieczeństwa zaczyna się od dobrze zaprojektowanego procesu developmentu. Specjalizuję się w integracji bezpieczeństwa z procesem tworzenia oprogramowania. Dzięki bogatemu doświadczeniu w budowie systemów IT skutecznie wdrażam praktyki i rozwijam społeczności związane z bezpieczeństwem w firmach.

Wybrane opinie

Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

4.8
Ikona podpowiedziŚrednia ocen Sages w serwisie Google Ocena pochodzi ze średniej ocen Sages w serwisie Google i nie jest weryfikowana

20.03.2025

Nawiązywało do przypadków bliskich naszemu biznesowi

Uczestnik szkoleniaProjektowanie modeli domen z wykorzystaniem Domain-Driven Design i Event StormingWojciech Pyszko

Więcej opinii

Podobne szkolenia