Struttura del corso

Introduzione al Red Teaming degli Sistemi AI

  • Comprensione del panorama delle minacce AI
  • Ruoli dei red teams nella sicurezza AI
  • Considerazioni etiche e legali

Machine Learning Avversario

  • Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
  • Generazione di esempi avversari (ad esempio, FGSM, PGD)
  • Attacchi mirati vs non mirati e metriche di successo

Test della Robustezza dei Modelli

  • Valutazione della robustezza sotto perturbazioni
  • Esplorazione delle cecità e dei modi di fallimento dei modelli
  • Test di stress per i modelli di classificazione, visione e NLP

Red Teaming delle Pipeline AI

  • Area d'attacco delle pipeline AI: dati, modello, distribuzione
  • Sfruttamento di API e endpoint del modello insicuri
  • Reverse engineering del comportamento e degli output dei modelli

Simulazione e Strumentazione

  • Utilizzo della Adversarial Robustness Toolbox (ART)
  • Red teaming con strumenti come TextAttack e IBM ART
  • Strumenti di sandbox, monitoraggio e osservabilità

Strategia del Red Team AI e Collaborazione con la Difesa

  • Sviluppo di esercizi e obiettivi del red team
  • Comunicazione dei risultati ai blue teams
  • Integrazione del red teaming nella gestione dei rischi AI

Riepilogo e Passi Successivi

Requisiti

  • Comprensione delle architetture di machine learning e deep learning
  • Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
  • Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva

Pubblico Obiettivo

  • Ricercatori di sicurezza
  • Team di sicurezza offensiva
  • Professionisti dell'assicurazione AI e del red teaming
 14 Ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative