Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione all'Ai Red Teaming
- Comprendere la minaccia dell'IA nel panorama delle minacce
- Ruoli dei team rossi nella sicurezza dell'IA
- Considerazioni etiche e legali
Adversarial Machine Learning
- Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
- Generazione di esempi adversarial (es., FGSM, PGD)
- Attacchi mirati vs non mirati e metriche di successo
Test della Robustezza del Modello
- Valutare la robustezza sotto perturbazioni
- Esplorare punti ciechi e modi di fallimento del modello
- Stress testing dei modelli di classificazione, visione e NLP
Red Teaming AI Pipelines
- Superficie di attacco delle pipeline dell'IA: dati, modello, distribuzione
- Exploit di API dei modelli non sicuri e endpoint
- Reverse engineering del comportamento e degli output del modello
Simulazione e Strumenti
- Utilizzo dell'Adversarial Robustness Toolbox (ART)
- Red teaming con strumenti come TextAttack e IBM ART
- Strumenti di sandboxing, monitoraggio e osservabilità
Strategia del Team Rosso dell'IA e Difesa Collaboration
- Sviluppare esercitazioni ed obiettivi del team rosso
- Comunicare le scoperte ai team blu
- Integrare il red teaming nel gestione dei rischi dell'IA
Riepilogo e Passaggi Successivi
Requisiti
- Una comprensione delle architetture di machine learning e deep learning
- Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
- Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva
Pubblico
- Ricercatori in sicurezza
- Team di sicurezza offensiva
- Professionisti di assicurazione AI e red team
14 ore