Struttura del corso

Introduzione al Modellazione delle Minacce AI

  • Cosa rende vulnerabili i sistemi AI?
  • L'area di attacco dell'AI vs i sistemi tradizionali
  • Vettori d'attacco chiave: dati, modello, output e livelli di interfaccia

Attacchi Avversari sui Modelli AI

  • Comprendere gli esempi avversari e le tecniche di perturbazione
  • Attacchi white-box vs black-box
  • Metodi FGSM, PGD e DeepFool
  • Visualizzazione e creazione di campioni avversari

Inversione del Modello e Fuga di Privacy

  • Dedurre i dati di addestramento dall'output del modello
  • Attacchi di inferenza della appartenenza
  • Rischi di privacy nei modelli di classificazione e generativi

Veleno dei Dati e Iniezioni di Porte Segrete

  • Come i dati velenosi influenzano il comportamento del modello
  • Porte segrete basate su trigger e attacchi Troia
  • Tecnologie di rilevazione e sanitizzazione

Robustezza e Tecniche Difensive

  • Addestramento avversario ed aumentazione dei dati
  • Mascheramento del gradiente e preprocessamento dell'input
  • Tecniche di lisciatura del modello e regolarizzazione

Difese AI che Preservano la Privacy

  • Introduzione alla privacy differenziale
  • Iniezione di rumore e budget di privacy
  • Aprendimento federato e aggregazione sicura

AI Security in Pratica

  • Evaluazione e distribuzione del modello consapevole delle minacce
  • Utilizzo dell'ART (Adversarial Robustness Toolbox) in contesti applicativi
  • Casi di studio aziendali: violazioni reali e mitigazioni

Riepilogo e Passaggi Successivi

Requisiti

  • Una comprensione dei flussi di lavoro del machine learning e dell'addestramento dei modelli
  • Esperienza con Python e comuni framework ML come PyTorch o TensorFlow
  • L'amiliarità con i concetti base della sicurezza o del modeling delle minacce è utile

Pubblico

  • Ingegneri di machine learning
  • Analisti cybersecurity
  • Ricercatori AI e team di validazione modelli
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative