Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
Introduzione all'Ai Red Teaming
- Comprendere la minaccia dell'IA nel panorama delle minacce
- Ruoli dei team rossi nella sicurezza dell'IA
- Considerazioni etiche e legali
Adversarial Machine Learning
- Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
- Generazione di esempi adversarial (es., FGSM, PGD)
- Attacchi mirati vs non mirati e metriche di successo
Test della Robustezza del Modello
- Valutare la robustezza sotto perturbazioni
- Esplorare punti ciechi e modi di fallimento del modello
- Stress testing dei modelli di classificazione, visione e NLP
Red Teaming AI Pipelines
- Superficie di attacco delle pipeline dell'IA: dati, modello, distribuzione
- Exploit di API dei modelli non sicuri e endpoint
- Reverse engineering del comportamento e degli output del modello
Simulazione e Strumenti
- Utilizzo dell'Adversarial Robustness Toolbox (ART)
- Red teaming con strumenti come TextAttack e IBM ART
- Strumenti di sandboxing, monitoraggio e osservabilità
Strategia del Team Rosso dell'IA e Difesa Collaboration
- Sviluppare esercitazioni ed obiettivi del team rosso
- Comunicare le scoperte ai team blu
- Integrare il red teaming nel gestione dei rischi dell'IA
Riepilogo e Passaggi Successivi
Requisiti
- Una comprensione delle architetture di machine learning e deep learning
- Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
- Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva
Pubblico
- Ricercatori in sicurezza
- Team di sicurezza offensiva
- Professionisti di assicurazione AI e red team
14 Ore