Corso di formazione Sicurezza dell'Edge AI e dell'Intelligenza Inclusa
La Sicurezza dell'Edge AI e dell'Intelligenza Inclusa è la pratica di proteggere i modelli di machine learning e i dati in ambienti a risorse limitate, spesso esposti fisicamente, come droni, sensori, camere intelligenti e sistemi autonomi.
Questo training guidato dal formatore (online o sul posto) è rivolto a ingegneri di livello intermedio e professionisti della sicurezza che desiderano proteggere i modelli AI distribuiti sull'edge contro minacce come manipolazione, fuga dei dati, input avversari e attacchi fisici.
Al termine di questo training, i partecipanti saranno in grado di:
- Identificare e valutare i rischi di sicurezza nelle distribuzioni Edge AI.
- Applicare tecniche di resistenza alla manipolazione e inferenza crittografata.
- Rafforzare i modelli distribuiti sull'edge e proteggere le pipeline di dati.
- Implementare strategie di mitigazione delle minacce specifiche per sistemi inclusi e a risorse limitate.
Formato del Corso
- Lezione interattiva e discussione.
- Molti esercizi e pratica.
- Implementazione pratica in un ambiente live-lab.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattaci per organizzare.
Struttura del corso
Introduzione all'Edge AI e ai Sistemi Inclusi
- Cos'è l'Edge AI? Casistiche d'uso e vincoli
- Piattaforme hardware e stack software per l'edge
- Sfide di sicurezza in ambienti inclusi e decentralizzati
Panoramica delle Minacce per l'Edge AI
- Accesso fisico e rischi di manipolazione
- Esempi avversari e manipolazione dei modelli
- Fuga dei dati e minacce di inversione del modello
Sicurezza del Modello
- Strategie di rafforzamento e quantizzazione dei modelli
- Watermarking e fingerprinting dei modelli
- Distillazione difensiva e pruning
Inferenza Crittografata ed Esecuzione Sicura
- Ambienti di esecuzione fidati (TEEs) per l'AI
- Enclavi sicure e computing confidenziale
- Inferenza crittografata utilizzando criptografia omomorfa o SMPC
Rilevamento della Manipolazione e Controlli a Livello di Dispositivo
- Avvio sicuro e controlli di integrità del firmware
- Convalida dei sensori e rilevamento delle anomalie
- Attestazione remota e monitoraggio della salute del dispositivo
Integrazione della Sicurezza da Edge a Cloud
- Trasmissione sicura dei dati e gestione delle chiavi
- Crittografia end-to-end e protezione del ciclo di vita dei dati
- Orchestrazione dell'AI cloud con vincoli di sicurezza sull'edge
Best Practice e Strategia di Mitigazione del Rischio
- Modeling delle minacce per sistemi Edge AI
- Principi di progettazione della sicurezza per l'intelligenza inclusa
- Gestione della risposta agli incidenti e degli aggiornamenti del firmware
Riepilogo e Passi Successivi
Requisiti
- Comprensione dei sistemi inclusi o degli ambienti di distribuzione Edge AI
- Esperienza con Python e framework ML (ad esempio, TensorFlow Lite, PyTorch Mobile)
- Conoscenze di base in cybersecurity o modelli di minacce IoT
Pubblico di Riferimento
- Sviluppatori AI inclusi
- Specialisti della sicurezza IoT
- Ingegneri che distribuiscono modelli ML su dispositivi edge o a risorse limitate
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Sicurezza dell'Edge AI e dell'Intelligenza Inclusa - Prenotazione
Corso di formazione Sicurezza dell'Edge AI e dell'Intelligenza Inclusa - Richiesta
Sicurezza dell'Edge AI e dell'Intelligenza Inclusa - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
ISACA Advanced in AI Security Management (AAISM)
21 OreAAISM è un avanzato framework per valutare, governare e gestire i rischi di sicurezza nei sistemi di intelligenza artificiale.
Questo corso di formazione guidato da un istruttore (online o in loco) è rivolto a professionisti di livello avanzato che desiderano implementare controlli e pratiche di governance della sicurezza efficaci per gli ambienti AI aziendali.
Al termine di questo programma, i partecipanti saranno preparati a:
- Valutare i rischi di sicurezza dell'AI utilizzando metodologie riconosciute nel settore.
- Implementare modelli di governance per la distribuzione responsabile dell'AI.
- Allineare le politiche di sicurezza dell'AI con gli obiettivi organizzativi e le aspettative normative.
- Incrementare la resilienza e la responsabilità nelle operazioni guidate dall'AI.
Formato del Corso
- Lezioni facilitate supportate da analisi di esperti.
- Workshop pratici e attività basate su valutazioni.
- Esercizi applicati utilizzando scenari reali di governance dell'AI.
Opzioni di Personalizzazione del Corso
- Per un addestramento personalizzato allineato alla strategia AI della tua organizzazione, contattaci per personalizzare il corso.
Gestione, conformità e sicurezza dell'IA per i leader aziendali
14 OreQuesto training guidato dall'instruttore, live in Italia (online o in presenza), è rivolto a leader aziendali intermedi che desiderano capire come governare e proteggere i sistemi di IA responsabilmente e conformemente ai principali quadri globali emergenti, come il Regolamento sull'IA dell'UE, il GDPR, l'ISO/IEC 42001 e l'Ordinanza esecutiva sugli AI degli Stati Uniti.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere i rischi legali, etici e normativi dell'uso dell'IA in tutte le divisioni aziendali.
- Interpretare e applicare i principali quadri di governance dell'IA (Regolamento sull'IA dell'UE, NIST AI RMF, ISO/IEC 42001).
- Stabilire politiche di sicurezza, controllo e supervisione per la distribuzione dell'IA nell'azienda.
- Sviluppare linee guida per l'acquisizione e l'utilizzo di sistemi AI terze parti e interni.
Gestione dei Rischi dell'IA e Sicurezza nel Settore Pubblico
7 OreL'Intelligenza Artificiale (IA) introduce nuove dimensioni di rischio operativo, sfide di governance e esposizione alla cybersicurezza per le agenzie governative e i dipartimenti.
Questo training guidato da istruttori, live (online o in presenza), è rivolto a professionisti IT e del rischio del settore pubblico con una limitata esperienza precedente nell'IA che desiderano comprendere come valutare, monitorare e proteggere i sistemi AI all'interno di un contesto governativo o regolatorio.
Al termine di questo training, i partecipanti saranno in grado di:
- Interpretare concetti chiave relativi ai rischi dei sistemi AI, inclusa la bias, l'imprevedibilità e il model drift.
- Applicare framework di governance e auditing specifici per l'IA, come il NIST AI RMF e ISO/IEC 42001.
- Riconoscere le minacce alla cybersicurezza che mirano ai modelli AI e alle pipeline di dati.
- Stabilire piani di gestione dei rischi interdipartimentali e allineamento delle politiche per la distribuzione dell'IA.
Formato del Corso
- Lezione interattiva e discussione di casi d'uso nel settore pubblico.
- Esercizi sui framework di governance dell'IA e mappatura delle politiche.
- Modellazione basata su scenari e valutazione del rischio.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, contattateci per organizzare.
Introduzione a AI Trust, Risk e Security Management (AI TRiSM)
21 OreQuesto addestramento interattivo guidato da un istruttore (online o sul posto) si rivolge a professionisti IT di livello principiante-intermedio che desiderano comprendere e implementare AI TRiSM nelle loro organizzazioni.
Al termine di questo addestramento, i partecipanti saranno in grado di:
- Comprendere i concetti chiave e l'importanza della gestione della fiducia, del rischio e della sicurezza nell'IA.
- Identificare e mitigare i rischi associati ai sistemi di IA.
- Implementare le migliori pratiche per la sicurezza dell'IA.
- Comprendere la conformità normativa ed etica nell'IA.
- Sviluppare strategie efficaci per il governo e la gestione dell'IA.
Creazione di Applicazioni LLM Sicure e Responsabili
14 OreQuesto corso di formazione guidato dal docente (online o in sede) è rivolto a sviluppatori AI, architetti e manager prodotto intermedi ad avanzati che desiderano identificare e mitigare i rischi associati alle applicazioni basate su LLM, inclusi l'iniezione di prompt, la perdita di dati e le uscite non filtrate, mentre incorporano controlli di sicurezza come la convalida dell'input, il controllo umano nel loop e le guardrail per l'output.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere le vulnerabilità principali dei sistemi basati su LLM.
- Applicare principi di progettazione sicura all'architettura delle app LLM.
- Utilizzare strumenti come Guardrails AI e LangChain per la convalida, il filtraggio e la sicurezza.
- Integrare tecniche come sandboxing, red teaming e revisione umana nel loop in pipeline di produzione.
Sicurezza informatica nei sistemi di intelligenza artificiale
14 OreQuesto training guidato dall'insegnante in Italia (online o su sito) è rivolto a professionisti di livello intermedio nel campo dell'IA e della cybersecurity che desiderano comprendere e affrontare le vulnerabilità specifiche delle IA nei modelli e sistemi, soprattutto in settori altamente regolamentati come finanza, governance dei dati e consulenza.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere il tipo di attacchi avversari contro i sistemi AI e metodi per difendersi da essi.
- Implementare tecniche di rafforzamento del modello per proteggere le pipeline di machine learning.
- Garantire la sicurezza e l'integrità dei dati nei modelli di machine learning.
- Navigare i requisiti di conformità normativa relativi alla sicurezza AI.
Introduzione alla Sicurezza e alla Gestione dei Rischi dell'AI
14 OreQuesto training guidato dal docente, live (online o in loco), è rivolto a professionisti della sicurezza IT, del rischio e della conformità di livello base che desiderano comprendere i concetti fondamentali di sicurezza dell'IA, le vettori di minaccia e i framework globali come il NIST AI RMF e l'ISO/IEC 42001.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere i rischi unici alla sicurezza introdotti dai sistemi AI.
- Identificare vettori di minaccia come attacchi avversari, avvelenamento dei dati e inversione del modello.
- Applicare modelli di governance fondamentali come il NIST AI Risk Management Framework.
- Allineare l'uso dell'IA con standard emergenti, linee guida per la conformità e principi etici.
OWASP GenAI Security
14 OreBasato sull'ultima guida del progetto OWASP GenAI Security, i partecipanti impareranno a identificare, valutare e mitigare minacce specifiche per l'AI attraverso esercizi pratici e scenari reali.
Machine Learning con Protezione della Privacy
14 OreQuesto training guidato da istruttori, live (online o in sede) è rivolto a professionisti di livello avanzato che desiderano implementare e valutare tecniche come il federated learning, la secure multiparty computation, l'encryption omomorfa e la privacy differenziale in pipeline di machine learning reali.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere e confrontare le principali tecniche di protezione della privacy nel ML.
- Implementare sistemi di federated learning utilizzando framework open-source.
- Applicare la privacy differenziale per condividere e addestrare modelli in modo sicuro.
- Utilizzare tecniche di crittografia e calcolo sicuro per proteggere input e output dei modelli.
Red Teaming dei Sistemi AI: Sicurezza Offensiva per i Modelli di ML
14 OreQuesta formazione guidata da un istruttore (online o in loco) è rivolta a professionisti della sicurezza e specialisti di ML di livello avanzato che desiderano simulare attacchi sui sistemi AI, scoprire vulnerabilità e migliorare la robustezza dei modelli AI distribuiti.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Simulare minacce reali per i modelli di machine learning.
- Generare esempi avversari per testare la robustezza dei modelli.
- Valutare l'area d'attacco delle API e delle pipeline AI.
- Progettare strategie di red teaming per gli ambienti di distribuzione AI.
Sicurezza dei Modelli AI: Minacce, Attacchi e Difese
14 OreQuesto training guidato da un istruttore (online o in sede) è rivolto a professionisti intermedi della machine learning e della cybersecurity che desiderano comprendere e mitigare le minacce emergenti contro i modelli AI, utilizzando sia cornici concettuali che difese pratiche come l'addestramento robusto e la privacy differenziale.
Al termine di questo training, i partecipanti saranno in grado di:
- Identificare e classificare minacce specifiche dell'AI come attacchi avversari, inversione e intossicazione.
- Utilizzare strumenti come la Adversarial Robustness Toolbox (ART) per simulare attacchi e testare i modelli.
- Applicare difese pratiche, incluse l'addestramento avversario, l'iniezione di rumore e tecniche che preservano la privacy.
- Progettare strategie di valutazione dei modelli consapevoli delle minacce in ambienti di produzione.
Sicurezza e Privacy nelle Applicazioni TinyML
21 OreTinyML è un approccio per il deploy di modelli di machine learning su dispositivi a basso consumo energetico e risorse limitate operanti ai margini della rete.
Questa formazione guidata dal docente (online o in sede) è rivolta a professionisti di livello avanzato che desiderano proteggere le pipeline TinyML e implementare tecniche per la preservazione della privacy nelle applicazioni AI al margine.
Al termine di questo corso, i partecipanti saranno in grado di:
- Identificare i rischi di sicurezza specifici dell'inferenza TinyML su dispositivo.
- Implementare meccanismi per la preservazione della privacy nelle implementazioni AI al margine.
- Rafforzare i modelli TinyML e i sistemi embedded contro le minacce avversarie.
- Applicare le best practice per la gestione sicura dei dati in ambienti a risorse limitate.
Formato del Corso
- Lezioni coinvolgenti supportate da discussioni guidate dagli esperti.
- Esercizi pratici che enfatizzano scenari di minaccia reali.
- Implementazione pratica utilizzando strumenti di sicurezza embedded e TinyML.
Opzioni di Personalizzazione del Corso
- Le organizzazioni possono richiedere una versione personalizzata di questa formazione per allinearsi alle loro specifiche esigenze di sicurezza e conformità.
AI Agente Sicuro e Protetto: Governance, Identità e Red-Teaming
21 OreQuesto corso copre la governance, la gestione dell'identità e il testing avversario per i sistemi AI agente, concentrandosi sui pattern di deploy sicuri per l'enterprise e sulle tecniche pratiche di red-teaming.
Questo training guidato dal formatore (online o in presenza) è rivolto a professionisti di livello avanzato che desiderano progettare, proteggere e valutare sistemi AI basati su agenti in ambienti di produzione.
Al termine di questo training, i partecipanti saranno in grado di:
- Definire modelli e politiche di governance per deploy sicuri di AI agente.
- Progettare flussi di identità e autenticazione non umana per agenti con accesso a privilegi minimi.
- Implementare controlli di accesso, tracce di audit e osservabilità adatti agli agenti autonomi.
- Pianificare ed eseguire esercizi di red-team per scoprire abusi, percorsi di escalation e rischi di estrazione dati.
- Mitigare le minacce comuni ai sistemi agente attraverso politiche, controlli ingegneristici e monitoraggio.
Formato del Corso
- Lezioni interattive e workshop di modellazione delle minacce.
- Laboratori pratici: provisioning dell'identità, applicazione delle politiche e simulazione avversaria.
- Esercizi di red-team/blue-team e valutazione finale del corso.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, contattateci per organizzare.