Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
Fondamenti: Modelli di Minaccia per AI Agente
- Tipi di minacce agente: abuso, escalation, fuga dei dati e rischi della catena di fornitura
- Profili avversari e capacità degli attaccanti specifiche per gli agenti autonomi
- Mappatura degli asset, dei confini di fiducia e dei punti di controllo critici per gli agenti
Governance, Politiche e Gestione del Rischio
- Framework di governance per i sistemi agente (ruoli, responsabilità, porte d'approvazione)
- Progettazione delle politiche: uso accettabile, regole di escalation, gestione dei dati e auditabilità
- Considerazioni di compliance e raccolta di prove per gli audit
Identità Non Umana e Autenticazione per Agenti
- Progettazione delle identità per agenti: account di servizio, JWTs e credenziali a breve vita
- Pattern di accesso con privilegi minimi e autenticazione giusto-in-tempo
- Ciclo di vita dell'identità, rotazione, delega e revoca delle credenziali
Controlli di Accesso, Segreti e Protezione dei Dati
- Modelli di controllo di accesso fine-grained e pattern basati sulle capacità per agenti
- Gestione dei segreti, crittografia in transito e a riposo, e minimizzazione dei dati
- Protezione delle fonti di conoscenza sensibili e PII dall'accesso non autorizzato degli agenti
Osservabilità, Audit e Risposta agli Incidenti
- Progettazione di telemetria per il comportamento degli agenti: tracciamento delle intenzioni, log dei comandi e provenienza
- Integrazione con SIEM, soglie di allarme e prontezza forense
- Runbooks e playbooks per incidenti legati agli agenti e contenimento
Red-Teaming di Sistemi Agente
- Pianificazione degli esercizi di red-team: ambito, regole di ingaggio e failover sicuro
- Tecniche avversarie: iniezione di prompt, abuso di strumenti, manipolazione delle catene di pensiero e abuso dell'API
- Esecuzione di attacchi controllati e misurazione dell'esposizione e dell'impatto
Indurimento e Mitigazioni
- Controlli ingegneristici: limitatori di risposta, gate delle capacità e sandboxing
- Controlli di policy e orchestrazione: flussi di approvazione, intervento umano e hook di governance
- Difese a livello modello e prompt: validazione dell'input, canonizzazione e filtri di output
Operazionalizzazione dei Deploy Sicuri degli Agenti
- Pattern di deploy: staging, canary e rollout progressivo per agenti
- Controllo del cambiamento, pipeline di test e controlli di sicurezza pre-deploy
- Governance cross-functionale: security, legal, product e ops playbooks
Capstone: Esercizio Red-Team / Blue-Team
- Eseguire un attacco di red-team simulato contro un ambiente sandboxed degli agenti
- Difendere, rilevare e rimediare come blue team utilizzando controlli e telemetria
- Presentare i risultati, il piano di rimedio e gli aggiornamenti delle politiche
Riepilogo e Passi Successivi
Requisiti
- Solida esperienza in ingegneria della sicurezza, amministrazione di sistemi o operazioni cloud
- Familiarità con i concetti AI/ML e il comportamento dei modelli linguistici a grande scala (LLM)
- Esperienza in gestione dell'identità e degli accessi (IAM) e progettazione di sistemi sicuri
Pubblico Obiettivo
- Ingegneri della sicurezza e red-teamers
- Ingegneri operativi AI e piattaforme AI
- Responsabili del compliance e gestori dei rischi
- Leader tecnici responsabili di deploy di agenti
21 Ore