Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione al Modellazione delle Minacce AI
- Cosa rende vulnerabili i sistemi AI?
- L'area di attacco dell'AI vs i sistemi tradizionali
- Vettori d'attacco chiave: dati, modello, output e livelli di interfaccia
Attacchi Avversari sui Modelli AI
- Comprendere gli esempi avversari e le tecniche di perturbazione
- Attacchi white-box vs black-box
- Metodi FGSM, PGD e DeepFool
- Visualizzazione e creazione di campioni avversari
Inversione del Modello e Fuga di Privacy
- Dedurre i dati di addestramento dall'output del modello
- Attacchi di inferenza della appartenenza
- Rischi di privacy nei modelli di classificazione e generativi
Veleno dei Dati e Iniezioni di Porte Segrete
- Come i dati velenosi influenzano il comportamento del modello
- Porte segrete basate su trigger e attacchi Troia
- Tecnologie di rilevazione e sanitizzazione
Robustezza e Tecniche Difensive
- Addestramento avversario ed aumentazione dei dati
- Mascheramento del gradiente e preprocessamento dell'input
- Tecniche di lisciatura del modello e regolarizzazione
Difese AI che Preservano la Privacy
- Introduzione alla privacy differenziale
- Iniezione di rumore e budget di privacy
- Aprendimento federato e aggregazione sicura
AI Security in Pratica
- Evaluazione e distribuzione del modello consapevole delle minacce
- Utilizzo dell'ART (Adversarial Robustness Toolbox) in contesti applicativi
- Casi di studio aziendali: violazioni reali e mitigazioni
Riepilogo e Passaggi Successivi
Requisiti
- Una comprensione dei flussi di lavoro del machine learning e dell'addestramento dei modelli
- Esperienza con Python e comuni framework ML come PyTorch o TensorFlow
- L'amiliarità con i concetti base della sicurezza o del modeling delle minacce è utile
Pubblico
- Ingegneri di machine learning
- Analisti cybersecurity
- Ricercatori AI e team di validazione modelli
14 ore