Struttura del corso

Introduzione al Red Teaming per l'IA

  • Comprendere il paesaggio delle minacce per l'IA
  • Ruoli dei red team nella sicurezza dell'IA
  • Considerazioni etiche e legali

Adversarial Machine Learning

  • Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
  • Generazione di esempi avversari (ad es., FGSM, PGD)
  • Attacchi mirati vs non mirati e metriche di successo

Test della Robustezza del Modello

  • Va'la robustezza sotto perturbazioni
  • Esplorazione dei punti ciechi e dei modi di fallimento del modello
  • Test stress sui modelli di classificazione, visione e NLP

Red Teaming delle Pipeline dell'IA

  • Percorso di attacco delle pipeline dell'IA: dati, modello, distribuzione
  • L'exploit di API e endpoint del modello insicuri
  • Ingegneria inversa del comportamento e degli output del modello

Simulazione ed Strumenti

  • Utilizzo dell'Adversarial Robustness Toolbox (ART)
  • Red teaming con strumenti come TextAttack e IBM ART
  • Strumenti di sandboxing, monitoraggio e osservabilità

Strategia e Difesa del Red Team per l'IA Collaboration

  • Sviluppo di esercitazioni e obiettivi del red team
  • Comunicazione dei risultati ai blue teams
  • Incorporamento del red teaming nella gestione del rischio dell'IA

Riepilogo e Passi Successivi

Requisiti

  • Una comprensione delle architetture di machine learning e deep learning
  • Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
  • Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva

Pubblico

  • Ricercatori in sicurezza
  • Squadre di sicurezza offensiva
  • Professionisti dell'assicurazione AI e red team
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative