Trwają zapisy do grupy

Szkolenie: Narzędzia AI w bezpieczeństwie aplikacji

W trakcie szkolenia "Narzędzia AI w bezpieczeństwie aplikacji" poznamy sposoby wykorzystania AI w różnych aspektach bezpieczeństwa, takich jak analiza kodu, testowanie, modelowanie zagrożeń, ocena zależności, zarządzanie dostawcami oraz reagowanie na incydenty. Celem kursu jest praktyczne wdrożenie AI w proces wytwarzania oprogramowania, co pozwoli na skuteczniejszą ochronę aplikacji oraz szybsze wykrywanie i eliminowanie zagrożeń.

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:AI/SECURITY

securitymachine-learningai

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

27 maja
Trwają zapisy na szkolenie

Trener:

Adrian Sroka

Cena:

2450 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Narzędzia AI w bezpieczeństwie aplikacji

Cele szkolenia

  • Zrozumienie roli AI w procesach DevSecOps i bezpieczeństwie aplikacji

  • Umiejętność modelowania zagrożeń i oceny ryzyka z pomocą AI

  • Wykorzystanie AI do analizy kodu źródłowego i wykrywania podatności

  • Automatyzacja testów bezpieczeństwa

  • Ocena bezpieczeństwa infrastruktury oraz dostawców z wykorzystaniem AI

  • Wdrożenie AI do reagowania na incydenty

  • Budowa osobistego asystenta bezpieczeństwa aplikacji


Dla kogo?

  • Architektów

  • Specjalistów bezpieczeństwa aplikacji

  • Specjalistów DevSecOps

  • Programistów

  • Administratorów systemów i specjalistów ds. infrastruktury.

  • Specjalistów ds. zgodności (GRC)


Zalety

  • Praktyczne zastosowanie AI w różnych aspektach bezpieczeństwa

  • Warsztaty pozwalające na wykorzystanie świeżo zdobytej wiedzy

  • Przegląd najlepszych praktyk w DevSecOps

  • Pokaz szerokich możliwości wykorzystania AI do zwiększenia bezpieczeństwa systemów


Wymagania

  • Doświadczenie w analizie bezpieczeństwa aplikacji

  • Znajomość podstaw działania AI i ML (nie jest wymagana zaawansowana wiedza)


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Klasyczny model bezpieczenstwa aplikacji

  • Secure Software Development Life Cycle

  • DevOps cycle

  • DevSecOps

Model działania współczesnych metod AI

  • Rodzaje modeli AI

  • Charakterystyka działania modeli LLM

  • Rozwiązania chmurowe i on-premise

  • Bezpieczne korzystanie z modeli AI

Modelowanie zagrożeń

  • Dobre zasady modelowania zagrożeń systemu

  • Modele myślenia o zagrożeniach

  • System wspomagający modelowanie zagrożeń

  • Ocena ryzyka i predykcja konsekwencji

  • Warsztat z modelowania zagrożeń różnymi metodami z pomocą AI

Bezpieczeństwo kodu źródłowego

  • Metody ataku na repozytoria kodu

  • Zasady zabezpieczania systemów kontroli kodu

  • Wsparcie AI w analizie kodu źródłowego

  • Warsztaty w wykrywaniu luk bezpieczeństwa z pomocą AI

Analiza zależności i zarządzanie komponentami

  • Zagrożenia wynikające z zależności w kodzie

  • Weryfikacja dojrzałosci zależności

  • Defensywne korzystnie z zależności

  • Wsparcie AI w ocenie zależności

  • Warsztat analiza przypadków podatnosci przez zależności z użyciem AI

Testowanie bezpieczeństwa

  • Modele testów bezpieczeństwa

  • Wygląd systemu z perspektywy testów bezpieczeństwa

  • Analiza interfejsów systemowych z uzyciem AI

  • Budowa kontekstu testów

  • Generowanie przypadków testowych z użyciem AI

  • Analiza faktycznych problemów bezpieczeństwa w zapytaniach API

  • Warsztat z testowania systemu z pomocą AI

Bezpieczeństwo infrastruktury

  • Infrastructure as a Code

  • Elementy infrastruktury i jej konfiguracji

  • Metody analizy bezpieczenstwa elementów infrastruktury

  • Warsztat z analizy podatnosci bezpieczeństwa infrastruktury z pomocą AI

Bezpieczeństwo dostawców

  • Weryfikacja dojrzałości dostawców

  • Metody dodatkowej ochrony przed zagrożeniami ze strony dostawców

  • Analiza dojrzałości i bezpieczenstwa dostawców z uzyciem AI

  • Analiza bezpieczeństwa interfejsów integracyjnych z użyciem AI

  • Warsztaty z oceny bezpieczeństwa dostawców z uzyciem AI

Reagowanie na incydenty

  • Automatyczne klasyfikowanie i korelowanie incydentów

  • AI w automatycznym tworzeniu raportów i rekomendacji naprawczych

Compliance w bezpieczeństwie

  • Automatyzacja audytów pod kątem GDPR, PCI-DSS, ISO 27001

  • Monitorowanie zgodności ze standardami z uzyciem AI

Budowa osobistego asystenta bezpieczeństwa aplikacji

  • Zebranie reguł analizy

  • Mapowanie reguł analizy na proces SDLC

  • Mechanizmy wspierające reguły analizy

  • Podsumowanie działania osobistego asystenta

Autorem szkolenia jest Adrian Sroka

Architekt bezpieczeństwa i konsultant IT. Moim celem jest uczynienie świata bezpieczniejszym poprzez tworzenie lepiej zabezpieczonych aplikacji i systemów IT. Wierzę, że skuteczne podejście do bezpieczeństwa zaczyna się od dobrze zaprojektowanego procesu developmentu. Specjalizuję się w integracji bezpieczeństwa z procesem tworzenia oprogramowania. Dzięki bogatemu doświadczeniu w budowie systemów IT skutecznie wdrażam praktyki i rozwijam społeczności związane z bezpieczeństwem w firmach.

Wybrane opinie

Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

4.8
Ikona podpowiedziŚrednia ocen Sages w serwisie Google Ocena pochodzi ze średniej ocen Sages w serwisie Google i nie jest weryfikowana

20.03.2025

Nawiązywało do przypadków bliskich naszemu biznesowi

Uczestnik szkoleniaProjektowanie modeli domen z wykorzystaniem Domain-Driven Design i Event StormingWojciech Pyszko

Więcej opinii