Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
Introduzione al Red Teaming degli Sistemi AI
- Comprensione del panorama delle minacce AI
- Ruoli dei red teams nella sicurezza AI
- Considerazioni etiche e legali
Machine Learning Avversario
- Tipi di attacchi: evasione, avvelenamento, estrazione, inferenza
- Generazione di esempi avversari (ad esempio, FGSM, PGD)
- Attacchi mirati vs non mirati e metriche di successo
Test della Robustezza dei Modelli
- Valutazione della robustezza sotto perturbazioni
- Esplorazione delle cecità e dei modi di fallimento dei modelli
- Test di stress per i modelli di classificazione, visione e NLP
Red Teaming delle Pipeline AI
- Area d'attacco delle pipeline AI: dati, modello, distribuzione
- Sfruttamento di API e endpoint del modello insicuri
- Reverse engineering del comportamento e degli output dei modelli
Simulazione e Strumentazione
- Utilizzo della Adversarial Robustness Toolbox (ART)
- Red teaming con strumenti come TextAttack e IBM ART
- Strumenti di sandbox, monitoraggio e osservabilità
Strategia del Red Team AI e Collaborazione con la Difesa
- Sviluppo di esercizi e obiettivi del red team
- Comunicazione dei risultati ai blue teams
- Integrazione del red teaming nella gestione dei rischi AI
Riepilogo e Passi Successivi
Requisiti
- Comprensione delle architetture di machine learning e deep learning
- Esperienza con Python e framework ML (ad esempio, TensorFlow, PyTorch)
- Familiarità con i concetti di cybersecurity o tecniche di sicurezza offensiva
Pubblico Obiettivo
- Ricercatori di sicurezza
- Team di sicurezza offensiva
- Professionisti dell'assicurazione AI e del red teaming
14 ore
Recensioni (1)
La conoscenza professionale e il modo in cui l'ha presentata a noi
Miroslav Nachev - PUBLIC COURSE
Corso - Cybersecurity in AI Systems
Traduzione automatica