- Rozumienie przepływów pracy z uczeniem maszynowym i szkoleniem modeli
- Doświadczenie z Python i popularnymi ramami uczenia maszynowego, takimi jak PyTorch lub TensorFlow
- Zapoznanie z podstawowymi koncepcjami bezpieczeństwa lub modelowania zagrożeń jest pomocne
Grupa docelowa
- Inżynierowie uczenia maszynowego
- Analitycy bezpieczeństwa
- Badacze sztucznej inteligencji i zespoły weryfikacji modeli
Zabezpieczanie modeli AI jest dyscypliną obronną systemów uczenia maszynowego przed zagrożeniami specyficznymi dla modeli, takimi jak szkodliwe wejścia, zatruwanie danych, ataki inwersyjne i wyciek prywatności.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest przeznaczone dla profesjonalistów z dziedziny uczenia maszynowego i cyberbezpieczeństwa na poziomie średniozaawansowanym, którzy chcą zrozumieć i zminimalizować pojawiające się zagrożenia dla modeli AI, wykorzystując zarówno koncepcyjne ramy, jak i praktyczne obronne techniki takie jak trwałe szkolenie i różnicowanie prywatności.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Wykrywać i klasyfikować zagrożenia specyficzne dla AI, takie jak ataki szkodliwe, inwersja i zatruwanie.
- Używać narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulowania ataków i testowania modeli.
- Zastosować praktyczne techniki obronne, w tym szkolenie szkodliwe, wstrzykiwanie szumu i techniki zachowujące prywatność.
- Projektować strategie oceny modeli świadomych zagrożeń w środowiskach produkcyjnych.
Format kursu
- Interaktywne wykłady i dyskusje.
- Dużo ćwiczeń i praktyki.
- Praktyczna implementacja w żywym środowisku laboratoryjnym.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do modelowania zagrożeń w AI
- Co czyni systemy AI podatnymi na ataki?
- Powierzchnia ataku w AI vs tradycyjnych systemach
- Kluczowe wektory ataku: warstwy danych, modelu, wyjścia i interfejsu
Złośliwe ataki na modele AI
- Zrozumienie przykładów złośliwych i technik perturbacji
- Ataki typu białe-książki vs czarne-książki
- Metody FGSM, PGD i DeepFool
- Wizualizacja i tworzenie złośliwych próbek
Inwersja modelu i wyciek prywatności
- Wnioskowanie danych treningowych na podstawie wyjścia modelu
- Ataki typu wnioskowanie o przynależności
- Ryzyko prywatności w modelach klasyfikacyjnych i generacyjnych
Zatruwanie danych i wstrzykiwanie backdoorów
- Jak zatruwanie danych wpływa na zachowanie modelu
- Backdoory oparte na triggerach i ataki Trojan
- Strategie wykrywania i oczyszczania
Odporność i techniki obronne
- Trening złośliwy i uzupełnianie danych
- Maskowanie gradientów i przetwarzanie wejść
- Gładzenie modelu i techniki regularizacji
Techniki obronne z zachowaniem prywatności w AI
- Wprowadzenie do różnicowej prywatności
- Wstrzykiwanie szumu i budżety prywatności
- Uczenie federowane i bezpieczne agregacja
AI Security w praktyce
- Ocena i wdrażanie modelu z uwzględnieniem zagrożeń
- Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
- Przypadki studyjne z branży: napady i ich zapobieganie w świecie rzeczywistym
Podsumowanie i następne kroki
United Arab Emirates - Securing AI Models: Threats, Attacks, and Defenses
Qatar - Securing AI Models: Threats, Attacks, and Defenses
Egypt - Securing AI Models: Threats, Attacks, and Defenses
Saudi Arabia - Securing AI Models: Threats, Attacks, and Defenses
South Africa - Securing AI Models: Threats, Attacks, and Defenses
Brasil - Securing AI Models: Threats, Attacks, and Defenses
Canada - Securing AI Models: Threats, Attacks, and Defenses
中国 - Securing AI Models: Threats, Attacks, and Defenses
香港 - Securing AI Models: Threats, Attacks, and Defenses
澳門 - Securing AI Models: Threats, Attacks, and Defenses
台灣 - Securing AI Models: Threats, Attacks, and Defenses
USA - Securing AI Models: Threats, Attacks, and Defenses
Österreich - Securing AI Models: Threats, Attacks, and Defenses
Schweiz - Securing AI Models: Threats, Attacks, and Defenses
Deutschland - Securing AI Models: Threats, Attacks, and Defenses
Czech Republic - Securing AI Models: Threats, Attacks, and Defenses
Denmark - Securing AI Models: Threats, Attacks, and Defenses
Estonia - Securing AI Models: Threats, Attacks, and Defenses
Finland - Securing AI Models: Threats, Attacks, and Defenses
Greece - Securing AI Models: Threats, Attacks, and Defenses
Magyarország - Securing AI Models: Threats, Attacks, and Defenses
Ireland - Securing AI Models: Threats, Attacks, and Defenses
Luxembourg - Securing AI Models: Threats, Attacks, and Defenses
Latvia - Securing AI Models: Threats, Attacks, and Defenses
España - Securing AI Models: Threats, Attacks, and Defenses
Italia - Securing AI Models: Threats, Attacks, and Defenses
Lithuania - Securing AI Models: Threats, Attacks, and Defenses
Nederland - Securing AI Models: Threats, Attacks, and Defenses
Norway - Securing AI Models: Threats, Attacks, and Defenses
Portugal - Securing AI Models: Threats, Attacks, and Defenses
România - Securing AI Models: Threats, Attacks, and Defenses
Sverige - Securing AI Models: Threats, Attacks, and Defenses
Türkiye - Securing AI Models: Threats, Attacks, and Defenses
Malta - Securing AI Models: Threats, Attacks, and Defenses
Belgique - Securing AI Models: Threats, Attacks, and Defenses
France - Securing AI Models: Threats, Attacks, and Defenses
日本 - Securing AI Models: Threats, Attacks, and Defenses
Australia - Securing AI Models: Threats, Attacks, and Defenses
Malaysia - Securing AI Models: Threats, Attacks, and Defenses
New Zealand - Securing AI Models: Threats, Attacks, and Defenses
Philippines - Securing AI Models: Threats, Attacks, and Defenses
Singapore - Securing AI Models: Threats, Attacks, and Defenses
Thailand - Securing AI Models: Threats, Attacks, and Defenses
Vietnam - Securing AI Models: Threats, Attacks, and Defenses
India - Securing AI Models: Threats, Attacks, and Defenses
Argentina - Securing AI Models: Threats, Attacks, and Defenses
Chile - Securing AI Models: Threats, Attacks, and Defenses
Costa Rica - Securing AI Models: Threats, Attacks, and Defenses
Ecuador - Securing AI Models: Threats, Attacks, and Defenses
Guatemala - Securing AI Models: Threats, Attacks, and Defenses
Colombia - Securing AI Models: Threats, Attacks, and Defenses
México - Securing AI Models: Threats, Attacks, and Defenses
Panama - Securing AI Models: Threats, Attacks, and Defenses
Peru - Securing AI Models: Threats, Attacks, and Defenses
Uruguay - Securing AI Models: Threats, Attacks, and Defenses
Venezuela - Securing AI Models: Threats, Attacks, and Defenses
Polska - Securing AI Models: Threats, Attacks, and Defenses
United Kingdom - Securing AI Models: Threats, Attacks, and Defenses
South Korea - Securing AI Models: Threats, Attacks, and Defenses
Pakistan - Securing AI Models: Threats, Attacks, and Defenses
Sri Lanka - Securing AI Models: Threats, Attacks, and Defenses
Bulgaria - Securing AI Models: Threats, Attacks, and Defenses
Bolivia - Securing AI Models: Threats, Attacks, and Defenses
Indonesia - Securing AI Models: Threats, Attacks, and Defenses
Kazakhstan - Securing AI Models: Threats, Attacks, and Defenses
Moldova - Securing AI Models: Threats, Attacks, and Defenses
Morocco - Securing AI Models: Threats, Attacks, and Defenses
Tunisia - Securing AI Models: Threats, Attacks, and Defenses
Kuwait - Securing AI Models: Threats, Attacks, and Defenses
Oman - Securing AI Models: Threats, Attacks, and Defenses
Slovakia - Securing AI Models: Threats, Attacks, and Defenses
Kenya - Securing AI Models: Threats, Attacks, and Defenses
Nigeria - Securing AI Models: Threats, Attacks, and Defenses
Botswana - Securing AI Models: Threats, Attacks, and Defenses
Slovenia - Securing AI Models: Threats, Attacks, and Defenses
Croatia - Securing AI Models: Threats, Attacks, and Defenses
Serbia - Securing AI Models: Threats, Attacks, and Defenses
Bhutan - Securing AI Models: Threats, Attacks, and Defenses
Nepal - Securing AI Models: Threats, Attacks, and Defenses
Uzbekistan - Securing AI Models: Threats, Attacks, and Defenses