Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione al Red Teaming per l'IA
- Comprendere il paesaggio delle minacce per l'IA
- Ruoli dei red team nella sicurezza dell'IA
- Considerazioni etiche e legali
Adversarial Machine Learning
- Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
- Generazione di esempi avversari (ad es., FGSM, PGD)
- Attacchi mirati vs non mirati e metriche di successo
Test della Robustezza del Modello
- Va'la robustezza sotto perturbazioni
- Esplorazione dei punti ciechi e dei modi di fallimento del modello
- Test stress sui modelli di classificazione, visione e NLP
Red Teaming delle Pipeline dell'IA
- Percorso di attacco delle pipeline dell'IA: dati, modello, distribuzione
- L'exploit di API e endpoint del modello insicuri
- Ingegneria inversa del comportamento e degli output del modello
Simulazione ed Strumenti
- Utilizzo dell'Adversarial Robustness Toolbox (ART)
- Red teaming con strumenti come TextAttack e IBM ART
- Strumenti di sandboxing, monitoraggio e osservabilità
Strategia e Difesa del Red Team per l'IA Collaboration
- Sviluppo di esercitazioni e obiettivi del red team
- Comunicazione dei risultati ai blue teams
- Incorporamento del red teaming nella gestione del rischio dell'IA
Riepilogo e Passi Successivi
Requisiti
- Una comprensione delle architetture di machine learning e deep learning
- Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
- Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva
Pubblico
- Ricercatori in sicurezza
- Squadre di sicurezza offensiva
- Professionisti dell'assicurazione AI e red team
14 ore