Struttura del corso

Introduzione al Modellazione delle Minacce per AI

  • Cosa rende vulnerabili i sistemi AI?
  • Superficie di attacco dell'AI vs sistemi tradizionali
  • Vettori di attacco chiave: strati dati, modello, output e interfaccia

Attacchi Avversari sui Modelli AI

  • Comprensione degli esempi avversari e tecniche di perturbazione
  • Attacchi white-box vs black-box
  • Metodi FGSM, PGD e DeepFool
  • Visualizzazione e creazione di campioni avversari

Inversione Modellare e Rilevamento della Privacy

  • Inferenza dei dati di addestramento dall'output del modello
  • Attacchi per inferenza di appartenenza
  • Rischi alla privacy nei modelli di classificazione e generativi

Avvelenamento dei Dati e Iniezioni di Backdoor

  • Come i dati avvelenati influenzano il comportamento del modello
  • Backdoor basate su trigger e attacchi Trojano
  • Strategie di rilevazione e sanitizzazione

Robustezza e Tecniche di Difesa

  • Addestramento avversario e aumento dei dati
  • Mascheramento del gradiente e preprocessing dell'input
  • Smussatura modellare e tecniche di regolarizzazione

Difese AI che Preservano la Privacy

  • Introduzione alla privacy differenziale
  • Iniezione di rumore e budget di privacy
  • Apprendimento federato e aggregazione sicura

AI Security in Pratica

  • Valutazione e distribuzione del modello consapevole delle minacce
  • Utilizzo dell'Adversarial Robustness Toolbox (ART) nelle applicazioni pratiche
  • Studi di caso industriali: violazioni reali e mitigazioni

Riepilogo e Passaggi Successivi

Requisiti

  • Un'idea dei flussi di lavoro della machine learning e del training del modello
  • Esperienza con Python e framework ML comuni come PyTorch o TensorFlow
  • Familiarità con i concetti di base della sicurezza o del modellizzazione delle minacce è utile

Pubblico

  • Ingegneri machine learning
  • Analisti cybersecurity
  • Ricercatori AI e team di validazione del modello
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative