Szkolenie: Bezpieczeństwo systemów AI
Szkolenie "Bezpieczeństwo systemów AI" obejmuje zagadnienia bezpieczeństwa systemów sztucznej inteligencji, od podstaw działania AI i uczenia maszynowego, przez identyfikację wektorów ataku, po praktyczne techniki zabezpieczania systemów. Uczestnicy zdobędą wiedzę teoretyczną oraz praktyczne umiejętności z zakresu audytu, testowania i zabezpieczania systemów AI, ze szczególnym uwzględnieniem modeli LLM.
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:2 dni (16h)
Kod kursu:SEC/AI
Bezpieczeństwo systemów AI
Cele szkolenia
Zrozumienie fundamentalnych zasad działania systemów AI i uczenia maszynowego
Identyfikacja specyficznych zagrożeń bezpieczeństwa związanych z systemami AI
Nabycie umiejętności wykrywania i przeciwdziałania atakom na systemy AI
Poznanie metod zabezpieczania danych, modeli i infrastruktury AI
Zdobycie praktycznych umiejętności audytu i testowania bezpieczeństwa systemów AI
Zapoznanie się z aktualnymi regulacjami i standardami dotyczącymi bezpieczeństwa AI
Dla kogo?
Specjalistów ds. bezpieczeństwa IT
Inżynierów i deweloperów AI
Architektów rozwiązań AI
Audytorów systemów IT
Menedżerów projektów AI
Zalety
Kompleksowe podejście obejmujące zarówno podstawy teoretyczne, jak i praktyczne aspekty bezpieczeństwa AI
Najnowsza wiedza uwzględniająca aktualny stan technologii i zagrożeń
Prezentacja rzeczywistych ataków i incydentów bezpieczeństwa
Wymagania
Podstawowe zrozumienie koncepcji uczenia maszynowego
Podstawowa znajomość zagadnień z zakresu bezpieczeństwa IT
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Zasada działania systemów AI
Podstawowe koncepcje i architektura systemów AI
Kluczowe algorytmy i modele w uczeniu maszynowym
Proces uczenia modeli: od danych treningowych do wdrożenia
Zastosowanie systemów AI
Obszary, w których AI znajduje zastosowanie
Ryzyka i korzyści wynikające z implementacji AI
Przegląd typowych przypadków użycia
Wprowadzenie do bezpieczeństwa systemów AI
Dlaczego bezpieczeństwo systemów AI jest kluczowe?
Definicje i obszary bezpieczeństwa sztucznej inteligencji
Specyficzne wyzwania bezpieczeństwa w systemach AI
Różnice między tradycyjnym bezpieczeństwem IT a bezpieczeństwem AI
Ataki na systemy AI
Rodzaje ataków na modele uczenia maszynowego (np. evasion, poisoning, inference)
Analiza wektorów ataku i ich wpływ na integralność modeli
Studium przypadków rzeczywistych ataków na systemy AI
Bezpieczeństwo danych w systemach AI
Data Poisoning – zatruwanie danych treningowych
Membership Inference – ataki na obecność danych w zbiorze treningowym
Sensitive Information Disclosure – ujawnianie wrażliwych informacji
Prompt Leakage – ujawnienie treści promptów w systemach AI
Modelowanie zagrożeń dla danych
Ataki na integralność i poufność modeli AI (kradzież, odwracanie i manipulacja)
Transfer Learning – wykorzystanie wcześniej wytrenowanego modelu do nieautoryzowanych celów
Input Manipulation – ataki na dane wejściowe prowadzące do błędnych predykcji
Prompt Injection – wstrzykiwanie złośliwych promptów do modeli LLM
Modelowanie zagrożeń dla poufności modelu
Ataki na prywatność
Training Data Extraction – odzyskiwanie oryginalnych danych treningowych
Membership Inference – sprawdzanie, czy dane należą do zbioru treningowego
Model Theft – kradzież modelu poprzez API lub analizę parametrów
Model Inversion – odzyskiwanie oryginalnych danych treningowych
Modelowanie zagrożeń dla prywatności
Ataki na dostępność i poprawność działania systemu AI (sabotaż i degradacja)
Model Skewing – manipulowanie danymi wejściowymi, aby stopniowo zmieniać działanie modelu
Model Denial of Service (DoS) – przeciążenie modelu w celu uniemożliwienia jego działania
Supply Chain Attacks – ataki na łańcuch dostaw, np. złośliwe dane treningowe lub naruszenie kodu biblioteki
Modelowanie zagrożeń wynikajacych z łańcucha dostaw
Ataki na integrację
Output Integrity / Insecure Output Handling – manipulowanie wynikami generowanymi przez AI
Overreliance – nadmierne poleganie na wynikach AI bez ich weryfikacji
Modelowanie zagrożeń wynikajacych z intergacji z innymi systemami
Bezpieczne wdrażanie i utrzymanie infrastruktury AI
Zagrożenia związane z Unbounded Consumption – niekontrolowany dostęp i wykorzystywanie zasobów
Bezpieczna konfiguracja środowiska AI
Zarządzanie dostępem i kontrola uprawnień
Modele LLM
Specyfika modeli LLM i ich unikalne zagrożenia
Halucynacje – generowanie fałszywych informacji przez modele AI
Warsztat z próby obejścia zabezpieczen modeli LLM
Warsztat z metod weryfikacji treści w LLM
Metody zabezpieczania modeli LLM
Techniki walidacji i sanityzacji promptów
Monitorowanie i filtrowanie wyjść modelu
Audyt i testowanie systemów AI
Narzędzia i techniki testowania bezpieczeństwa modeli AI
Audyt modeli AI
Warsztat z przykładowego samodzielnego audytu systemu AI
Standardy, regulacje i etyka w systemach AI
Przegląd standardów i regulacji (np. EU AI Act, NIST, ISO)
Znaczenie etyki i odpowiedzialności przy wdrażaniu AI
Implementacja zgodności z regulacjami w organizacjach
Warsztat z analizy systemu pod kątem regulacji AI Act
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi