Struttura del corso

Introduzione all'Ai Red Teaming

  • Comprendere la minaccia dell'IA nel panorama delle minacce
  • Ruoli dei team rossi nella sicurezza dell'IA
  • Considerazioni etiche e legali

Adversarial Machine Learning

  • Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
  • Generazione di esempi adversarial (es., FGSM, PGD)
  • Attacchi mirati vs non mirati e metriche di successo

Test della Robustezza del Modello

  • Valutare la robustezza sotto perturbazioni
  • Esplorare punti ciechi e modi di fallimento del modello
  • Stress testing dei modelli di classificazione, visione e NLP

Red Teaming AI Pipelines

  • Superficie di attacco delle pipeline dell'IA: dati, modello, distribuzione
  • Exploit di API dei modelli non sicuri e endpoint
  • Reverse engineering del comportamento e degli output del modello

Simulazione e Strumenti

  • Utilizzo dell'Adversarial Robustness Toolbox (ART)
  • Red teaming con strumenti come TextAttack e IBM ART
  • Strumenti di sandboxing, monitoraggio e osservabilità

Strategia del Team Rosso dell'IA e Difesa Collaboration

  • Sviluppare esercitazioni ed obiettivi del team rosso
  • Comunicare le scoperte ai team blu
  • Integrare il red teaming nel gestione dei rischi dell'IA

Riepilogo e Passaggi Successivi

Requisiti

  • Una comprensione delle architetture di machine learning e deep learning
  • Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
  • Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva

Pubblico

  • Ricercatori in sicurezza
  • Team di sicurezza offensiva
  • Professionisti di assicurazione AI e red team
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative