Struttura del corso

Fondamenti: Modelli di Minaccia per AI Agente

  • Tipi di minacce agente: abuso, escalation, fuga dei dati e rischi della catena di fornitura
  • Profili avversari e capacità degli attaccanti specifiche per gli agenti autonomi
  • Mappatura degli asset, dei confini di fiducia e dei punti di controllo critici per gli agenti

Governance, Politiche e Gestione del Rischio

  • Framework di governance per i sistemi agente (ruoli, responsabilità, porte d'approvazione)
  • Progettazione delle politiche: uso accettabile, regole di escalation, gestione dei dati e auditabilità
  • Considerazioni di compliance e raccolta di prove per gli audit

Identità Non Umana e Autenticazione per Agenti

  • Progettazione delle identità per agenti: account di servizio, JWTs e credenziali a breve vita
  • Pattern di accesso con privilegi minimi e autenticazione giusto-in-tempo
  • Ciclo di vita dell'identità, rotazione, delega e revoca delle credenziali

Controlli di Accesso, Segreti e Protezione dei Dati

  • Modelli di controllo di accesso fine-grained e pattern basati sulle capacità per agenti
  • Gestione dei segreti, crittografia in transito e a riposo, e minimizzazione dei dati
  • Protezione delle fonti di conoscenza sensibili e PII dall'accesso non autorizzato degli agenti

Osservabilità, Audit e Risposta agli Incidenti

  • Progettazione di telemetria per il comportamento degli agenti: tracciamento delle intenzioni, log dei comandi e provenienza
  • Integrazione con SIEM, soglie di allarme e prontezza forense
  • Runbooks e playbooks per incidenti legati agli agenti e contenimento

Red-Teaming di Sistemi Agente

  • Pianificazione degli esercizi di red-team: ambito, regole di ingaggio e failover sicuro
  • Tecniche avversarie: iniezione di prompt, abuso di strumenti, manipolazione delle catene di pensiero e abuso dell'API
  • Esecuzione di attacchi controllati e misurazione dell'esposizione e dell'impatto

Indurimento e Mitigazioni

  • Controlli ingegneristici: limitatori di risposta, gate delle capacità e sandboxing
  • Controlli di policy e orchestrazione: flussi di approvazione, intervento umano e hook di governance
  • Difese a livello modello e prompt: validazione dell'input, canonizzazione e filtri di output

Operazionalizzazione dei Deploy Sicuri degli Agenti

  • Pattern di deploy: staging, canary e rollout progressivo per agenti
  • Controllo del cambiamento, pipeline di test e controlli di sicurezza pre-deploy
  • Governance cross-functionale: security, legal, product e ops playbooks

Capstone: Esercizio Red-Team / Blue-Team

  • Eseguire un attacco di red-team simulato contro un ambiente sandboxed degli agenti
  • Difendere, rilevare e rimediare come blue team utilizzando controlli e telemetria
  • Presentare i risultati, il piano di rimedio e gli aggiornamenti delle politiche

Riepilogo e Passi Successivi

Requisiti

  • Solida esperienza in ingegneria della sicurezza, amministrazione di sistemi o operazioni cloud
  • Familiarità con i concetti AI/ML e il comportamento dei modelli linguistici a grande scala (LLM)
  • Esperienza in gestione dell'identità e degli accessi (IAM) e progettazione di sistemi sicuri

Pubblico Obiettivo

  • Ingegneri della sicurezza e red-teamers
  • Ingegneri operativi AI e piattaforme AI
  • Responsabili del compliance e gestori dei rischi
  • Leader tecnici responsabili di deploy di agenti
 21 Ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative