Course Code: secaimod
Duration: 14 hours
Prerequisites:
  • Rozumienie przepływów pracy z uczeniem maszynowym i szkoleniem modeli
  • Doświadczenie z Python i popularnymi ramami uczenia maszynowego, takimi jak PyTorch lub TensorFlow
  • Zapoznanie z podstawowymi koncepcjami bezpieczeństwa lub modelowania zagrożeń jest pomocne

Grupa docelowa

  • Inżynierowie uczenia maszynowego
  • Analitycy bezpieczeństwa
  • Badacze sztucznej inteligencji i zespoły weryfikacji modeli
Overview:

Zabezpieczanie modeli AI jest dyscypliną obronną systemów uczenia maszynowego przed zagrożeniami specyficznymi dla modeli, takimi jak szkodliwe wejścia, zatruwanie danych, ataki inwersyjne i wyciek prywatności.

To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest przeznaczone dla profesjonalistów z dziedziny uczenia maszynowego i cyberbezpieczeństwa na poziomie średniozaawansowanym, którzy chcą zrozumieć i zminimalizować pojawiające się zagrożenia dla modeli AI, wykorzystując zarówno koncepcyjne ramy, jak i praktyczne obronne techniki takie jak trwałe szkolenie i różnicowanie prywatności.

Na zakończenie tego szkolenia uczestnicy będą w stanie:

  • Wykrywać i klasyfikować zagrożenia specyficzne dla AI, takie jak ataki szkodliwe, inwersja i zatruwanie.
  • Używać narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulowania ataków i testowania modeli.
  • Zastosować praktyczne techniki obronne, w tym szkolenie szkodliwe, wstrzykiwanie szumu i techniki zachowujące prywatność.
  • Projektować strategie oceny modeli świadomych zagrożeń w środowiskach produkcyjnych.

Format kursu

  • Interaktywne wykłady i dyskusje.
  • Dużo ćwiczeń i praktyki.
  • Praktyczna implementacja w żywym środowisku laboratoryjnym.

Opcje dostosowywania kursu

  • Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Course Outline:

Wprowadzenie do modelowania zagrożeń w AI

  • Co czyni systemy AI podatnymi na ataki?
  • Powierzchnia ataku w AI vs tradycyjnych systemach
  • Kluczowe wektory ataku: warstwy danych, modelu, wyjścia i interfejsu

Złośliwe ataki na modele AI

  • Zrozumienie przykładów złośliwych i technik perturbacji
  • Ataki typu białe-książki vs czarne-książki
  • Metody FGSM, PGD i DeepFool
  • Wizualizacja i tworzenie złośliwych próbek

Inwersja modelu i wyciek prywatności

  • Wnioskowanie danych treningowych na podstawie wyjścia modelu
  • Ataki typu wnioskowanie o przynależności
  • Ryzyko prywatności w modelach klasyfikacyjnych i generacyjnych

Zatruwanie danych i wstrzykiwanie backdoorów

  • Jak zatruwanie danych wpływa na zachowanie modelu
  • Backdoory oparte na triggerach i ataki Trojan
  • Strategie wykrywania i oczyszczania

Odporność i techniki obronne

  • Trening złośliwy i uzupełnianie danych
  • Maskowanie gradientów i przetwarzanie wejść
  • Gładzenie modelu i techniki regularizacji

Techniki obronne z zachowaniem prywatności w AI

  • Wprowadzenie do różnicowej prywatności
  • Wstrzykiwanie szumu i budżety prywatności
  • Uczenie federowane i bezpieczne agregacja

AI Security w praktyce

  • Ocena i wdrażanie modelu z uwzględnieniem zagrożeń
  • Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
  • Przypadki studyjne z branży: napady i ich zapobieganie w świecie rzeczywistym

Podsumowanie i następne kroki

Sites Published:

United Arab Emirates - Securing AI Models: Threats, Attacks, and Defenses

Qatar - Securing AI Models: Threats, Attacks, and Defenses

Egypt - Securing AI Models: Threats, Attacks, and Defenses

Saudi Arabia - Securing AI Models: Threats, Attacks, and Defenses

South Africa - Securing AI Models: Threats, Attacks, and Defenses

Brasil - Securing AI Models: Threats, Attacks, and Defenses

Canada - Securing AI Models: Threats, Attacks, and Defenses

中国 - Securing AI Models: Threats, Attacks, and Defenses

香港 - Securing AI Models: Threats, Attacks, and Defenses

澳門 - Securing AI Models: Threats, Attacks, and Defenses

台灣 - Securing AI Models: Threats, Attacks, and Defenses

USA - Securing AI Models: Threats, Attacks, and Defenses

Österreich - Securing AI Models: Threats, Attacks, and Defenses

Schweiz - Securing AI Models: Threats, Attacks, and Defenses

Deutschland - Securing AI Models: Threats, Attacks, and Defenses

Czech Republic - Securing AI Models: Threats, Attacks, and Defenses

Denmark - Securing AI Models: Threats, Attacks, and Defenses

Estonia - Securing AI Models: Threats, Attacks, and Defenses

Finland - Securing AI Models: Threats, Attacks, and Defenses

Greece - Securing AI Models: Threats, Attacks, and Defenses

Magyarország - Securing AI Models: Threats, Attacks, and Defenses

Ireland - Securing AI Models: Threats, Attacks, and Defenses

Luxembourg - Securing AI Models: Threats, Attacks, and Defenses

Latvia - Securing AI Models: Threats, Attacks, and Defenses

España - Securing AI Models: Threats, Attacks, and Defenses

Italia - Securing AI Models: Threats, Attacks, and Defenses

Lithuania - Securing AI Models: Threats, Attacks, and Defenses

Nederland - Securing AI Models: Threats, Attacks, and Defenses

Norway - Securing AI Models: Threats, Attacks, and Defenses

Portugal - Securing AI Models: Threats, Attacks, and Defenses

România - Securing AI Models: Threats, Attacks, and Defenses

Sverige - Securing AI Models: Threats, Attacks, and Defenses

Türkiye - Securing AI Models: Threats, Attacks, and Defenses

Malta - Securing AI Models: Threats, Attacks, and Defenses

Belgique - Securing AI Models: Threats, Attacks, and Defenses

France - Securing AI Models: Threats, Attacks, and Defenses

日本 - Securing AI Models: Threats, Attacks, and Defenses

Australia - Securing AI Models: Threats, Attacks, and Defenses

Malaysia - Securing AI Models: Threats, Attacks, and Defenses

New Zealand - Securing AI Models: Threats, Attacks, and Defenses

Philippines - Securing AI Models: Threats, Attacks, and Defenses

Singapore - Securing AI Models: Threats, Attacks, and Defenses

Thailand - Securing AI Models: Threats, Attacks, and Defenses

Vietnam - Securing AI Models: Threats, Attacks, and Defenses

India - Securing AI Models: Threats, Attacks, and Defenses

Argentina - Securing AI Models: Threats, Attacks, and Defenses

Chile - Securing AI Models: Threats, Attacks, and Defenses

Costa Rica - Securing AI Models: Threats, Attacks, and Defenses

Ecuador - Securing AI Models: Threats, Attacks, and Defenses

Guatemala - Securing AI Models: Threats, Attacks, and Defenses

Colombia - Securing AI Models: Threats, Attacks, and Defenses

México - Securing AI Models: Threats, Attacks, and Defenses

Panama - Securing AI Models: Threats, Attacks, and Defenses

Peru - Securing AI Models: Threats, Attacks, and Defenses

Uruguay - Securing AI Models: Threats, Attacks, and Defenses

Venezuela - Securing AI Models: Threats, Attacks, and Defenses

Polska - Securing AI Models: Threats, Attacks, and Defenses

United Kingdom - Securing AI Models: Threats, Attacks, and Defenses

South Korea - Securing AI Models: Threats, Attacks, and Defenses

Pakistan - Securing AI Models: Threats, Attacks, and Defenses

Sri Lanka - Securing AI Models: Threats, Attacks, and Defenses

Bulgaria - Securing AI Models: Threats, Attacks, and Defenses

Bolivia - Securing AI Models: Threats, Attacks, and Defenses

Indonesia - Securing AI Models: Threats, Attacks, and Defenses

Kazakhstan - Securing AI Models: Threats, Attacks, and Defenses

Moldova - Securing AI Models: Threats, Attacks, and Defenses

Morocco - Securing AI Models: Threats, Attacks, and Defenses

Tunisia - Securing AI Models: Threats, Attacks, and Defenses

Kuwait - Securing AI Models: Threats, Attacks, and Defenses

Oman - Securing AI Models: Threats, Attacks, and Defenses

Slovakia - Securing AI Models: Threats, Attacks, and Defenses

Kenya - Securing AI Models: Threats, Attacks, and Defenses

Nigeria - Securing AI Models: Threats, Attacks, and Defenses

Botswana - Securing AI Models: Threats, Attacks, and Defenses

Slovenia - Securing AI Models: Threats, Attacks, and Defenses

Croatia - Securing AI Models: Threats, Attacks, and Defenses

Serbia - Securing AI Models: Threats, Attacks, and Defenses

Bhutan - Securing AI Models: Threats, Attacks, and Defenses

Nepal - Securing AI Models: Threats, Attacks, and Defenses

Uzbekistan - Securing AI Models: Threats, Attacks, and Defenses