Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione al Modellazione delle Minacce per AI
- Cosa rende vulnerabili i sistemi AI?
- Superficie di attacco dell'AI vs sistemi tradizionali
- Vettori di attacco chiave: strati dati, modello, output e interfaccia
Attacchi Avversari sui Modelli AI
- Comprensione degli esempi avversari e tecniche di perturbazione
- Attacchi white-box vs black-box
- Metodi FGSM, PGD e DeepFool
- Visualizzazione e creazione di campioni avversari
Inversione Modellare e Rilevamento della Privacy
- Inferenza dei dati di addestramento dall'output del modello
- Attacchi per inferenza di appartenenza
- Rischi alla privacy nei modelli di classificazione e generativi
Avvelenamento dei Dati e Iniezioni di Backdoor
- Come i dati avvelenati influenzano il comportamento del modello
- Backdoor basate su trigger e attacchi Trojano
- Strategie di rilevazione e sanitizzazione
Robustezza e Tecniche di Difesa
- Addestramento avversario e aumento dei dati
- Mascheramento del gradiente e preprocessing dell'input
- Smussatura modellare e tecniche di regolarizzazione
Difese AI che Preservano la Privacy
- Introduzione alla privacy differenziale
- Iniezione di rumore e budget di privacy
- Apprendimento federato e aggregazione sicura
AI Security in Pratica
- Valutazione e distribuzione del modello consapevole delle minacce
- Utilizzo dell'Adversarial Robustness Toolbox (ART) nelle applicazioni pratiche
- Studi di caso industriali: violazioni reali e mitigazioni
Riepilogo e Passaggi Successivi
Requisiti
- Un'idea dei flussi di lavoro della machine learning e del training del modello
- Esperienza con Python e framework ML comuni come PyTorch o TensorFlow
- Familiarità con i concetti di base della sicurezza o del modellizzazione delle minacce è utile
Pubblico
- Ingegneri machine learning
- Analisti cybersecurity
- Ricercatori AI e team di validazione del modello
14 ore