Corso di formazione AI Risk Management and Security in the Public Sector
Artificial Intelligence (AI) introduce nuove dimensioni di rischio operativo, sfide di governance e esposizione alla cibercriminalità per gli enti e i dipartimenti governativi.
Questo addestramento guidato da un istruttore (in linea o sul posto) si rivolge ai professionisti IT e del rischio del settore pubblico con esperienza limitata in IA che desiderano comprendere come valutare, monitorare e proteggere i sistemi AI all'interno di un contesto governativo o regolatorio.
Al termine di questo addestramento, i partecipanti saranno in grado di:
- Interpretare i concetti chiave del rischio relativi ai sistemi AI, inclusa la bias, l'imprevedibilità e il deriva modellistica.
- Applicare quadri di governance e auditing specifici per l'IA come NIST AI RMF e ISO/IEC 42001.
- Riconoscere le minacce alla cibercriminalità che mirano ai modelli AI e alle pipeline dati.
- Stabilire piani di gestione del rischio interdipartimentali ed allineare le politiche per la distribuzione dell'IA.
Formato del Corso
- Lectura interattiva e discussione di casi d'uso nel settore pubblico.
- Esercizi sui quadri di governance AI e mappatura delle politiche.
- Modellazione minacce basata su scenari ed valutazione del rischio.
Opzioni per la Personalizzazione del Corso
- Per richiedere un addestramento personalizzato per questo corso, contattateci per organizzare.
Struttura del corso
Comprendere i Rischi Specifici dell'IA nei Contesti di Government
- Come il rischio dell'IA si differenzia da quello tradizionale IT e dati
- Categorie di rischio dell'IA: tecnico, operativo, reputazionale ed etico
- Responsabilità pubblica e percezione del rischio nel governo
Quadri di Riferimento per l'AI Risk Management
- NIST AI Risk Management Framework (AI RMF)
- ISO/IEC 42001:2023 — Standard del Sistema AI Management
- Altre linee guida specifiche per settore e internazionali (ad esempio, OECD, UNESCO)
Ammenaggiamenti di Sicurezza per i Sistemi AI
- Ingressi avversariali, inquinamento dei dati e inversione del modello
- Esposizione dei dati di addestramento sensibili
- Rischi della catena di fornitura e modelli di terze parti
Governance, Revisioni ed Controlli
- Mecanismi umani-in-the-loop e responsabilità
- AI rivedibile: documentazione, versionamento ed interpretabilità
- Controlli interni, ruoli di sorveglianza e checkpoint di conformità
Valutazione del Rischio e Pianificazione della Mitigazione
- Costruire registri dei rischi per i casi d'uso dell'AI
- Collaborare con team di acquisizione, legali ed progettazione dei servizi
- Eseguire valutazioni pre-immissione e post-immissione
Risposta agli Incidenti e Resilienza del Settore Pubblico
- Rispondere agli incidenti e alle violazioni legate all'AI
- Comunicare con gli stakeholder e il pubblico
- Incorporare pratiche di rischio dell'IA nei playbooks di sicurezza informatica
Sintesi ed Azioni Successive
Requisiti
- Esperienza nelle operazioni IT, gestione dei rischi, sicurezza cyber o conformità all'interno delle istituzioni governative
- Familiarità con le pratiche di sicurezza organizzativa e la fornitura di servizi digitali
- Non è richiesta esperienza tecnica precedente nei sistemi AI
Pubblico
- Government team IT coinvolti in servizi digitali e integrazione dei sistemi
- Professionisti della sicurezza cyber e del rischio nelle istituzioni pubbliche
- Persone addette all'auditing, alla conformità e alla governance nel settore pubblico
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione AI Risk Management and Security in the Public Sector - Booking
Corso di formazione AI Risk Management and Security in the Public Sector - Enquiry
AI Risk Management and Security in the Public Sector - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
AI Governance, Compliance, and Security for Enterprise Leaders
14 oreQuesto corso interattivo guidato dal formatore (online o presenza) è rivolto a leader aziendali di livello intermedio che desiderano comprendere come governare e proteggere i sistemi AI responsabilmente e in conformità con i framework globali emergenti come l'EU AI Act, GDPR, ISO/IEC 42001 e il Decreto Esecutivo USA sull'AI.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere i rischi legali, etici e regolatori dell'utilizzo dell'AI tra le varie divisioni aziendali.
- Interpretare ed applicare i principali framework di governance AI (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Stabilire politiche di sicurezza, revisione e sorveglianza per la distribuzione dell'AI nell'azienda.
- Sviluppare linee guida per l'acquisizione e l'utilizzo di sistemi AI di terze parti e interni all'azienda.
AI Policy and Regulation for Governments
7 oreQuesto corso live guidato da un istruttore (online o sul posto) è rivolto a professionisti di livello principiante / intermedio / avanzato ___ che desiderano utilizzare ___ per ___.
Alla fine di questo training, i partecipanti saranno in grado di:
- Installare e configurare ___.
- ___.
- ___.
- ___.
AI-Enhanced Public Service Delivery
7 oreQuesta formazione guidata dal formatore (online o sul posto) è rivolta a professionisti di livello principiante / intermedio / avanzato del settore pubblico che desiderano utilizzare l'IA per migliorare la fornitura dei servizi.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare l'IA.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 oreQuesto corso interattivo guidato dall'insegnante in Italia (online o presenziale) è rivolto a professionisti amministrativi di livello principiante / intermedio / avanzato che desiderano utilizzare ___ per ___.
Al termine del corso, i partecipanti saranno in grado di:
- Installare e configurare ___.
- ___.
- ___.
- ___.
Building Secure and Responsible LLM Applications
14 oreQuesto corso guidato dal formatore in Italia (online o sul posto) è rivolto a sviluppatori AI, architetti e gestori di prodotti di livello intermedio ed avanzato che desiderano identificare e mitigare i rischi associati alle applicazioni alimentate da LLM, inclusi l'iniezione dei prompt, la fuga di dati e l'output non filtrato, incorporando controlli di sicurezza come la validazione dell'input, il controllo umano nel loop e le barriere di output.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere le vulnerabilità centrali dei sistemi basati su LLM.
- Applicare principi di progettazione sicura all'architettura delle app LLM.
- Utilizzare strumenti come Guardrails AI e LangChain per la validazione, il filtraggio e la sicurezza.
- Incorporare tecniche come lo sandboxing, il red teaming e la revisione umana nel loop nelle pipeline di livello produttivo.
Panoramica dell'architettura LLM e della superficie di attacco
- Come vengono costruiti, distribuiti ed acceduti tramite API gli LLM
- Componenti chiave nelle pile delle app LLM (ad esempio, prompt, agenti, memoria, API)
- Dove e come emergono le questioni di sicurezza nell'uso reale
Iniezione dei Prompt e Attacchi di Jailbreak
- Cos'è l'iniezione del prompt e perché è pericolosa
- Situazioni dirette ed indirette di iniezione del prompt
- Tecnologie di jailbreaking per aggirare i filtri di sicurezza
- Strategie di rilevazione e mitigazione
Fuga dei Dati e Rischi alla Privacy
- Esposizione accidentale dei dati attraverso le risposte
- Viti di fuga PII e abuso della memoria del modello
- Progettazione di prompt consapevoli della privacy e generazione aumentata con la ricerca (RAG)
Filtraggio e Protezione dell'Output LLM
- Utilizzo di Guardrails AI per il filtraggio del contenuto e la validazione
- Definizione di schemi e vincoli di output
- Sorveglianza e registrazione degli output non sicuri
Approcci umano nel loop e workflow
- Dove e quando introdurre il controllo umano
- Coda di approvazione, soglie di punteggio, gestione dei fallback
- Calibrazione della fiducia e ruolo dell'esplicabilità
Sicurezza delle App LLM Design Patterns
- Meno privilegi e sandboxing per le chiamate API e gli agenti
- Limitazione del tasso, ritmo e rilevamento dell'abuso
- Concatenazione robusta con LangChain ed isolamento dei prompt
Conformità, Logging e Governance
- Sicurezza della tracciabilità degli output LLM
- Mantenimento della tracciabilità e controllo del prompt/versione
- Allineamento con le politiche di sicurezza interne ed esigenze regolatorie
Riassunto e Passaggi Successivi
La sicurezza delle applicazioni LLM è la disciplina di progettazione, costruzione e manutenzione di sistemi sicuri, affidabili e conformi alle politiche utilizzando modelli linguistici a vasta scala.
Questo corso guidato dal formatore (online o sul posto) è rivolto a sviluppatori AI, architetti e gestori di prodotti di livello intermedio ed avanzato che desiderano identificare e mitigare i rischi associati alle applicazioni alimentate da LLM, inclusi l'iniezione dei prompt, la fuga dei dati e l'output non filtrato, incorporando controlli di sicurezza come la validazione dell'input, il controllo umano nel loop e le barriere di output.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere le vulnerabilità centrali dei sistemi basati su LLM.
- Applicare principi di progettazione sicura all'architettura delle app LLM.
- Utilizzare strumenti come Guardrails AI e LangChain per la validazione, il filtraggio e la sicurezza.
- Incorporare tecniche come lo sandboxing, il red teaming e la revisione umana nel loop nelle pipeline di livello produttivo.
Formato del Corso
- Lectura interattiva e discussione.
- Molte esercitazioni e pratica.
- Esecuzione pratica in un ambiente lab live.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare l'incontro.
Prerequisiti
- Comprensione dei modelli linguistici a vasta scala e delle interfacce basate su prompt
- Esperienza nella costruzione di applicazioni LLM utilizzando Python
- Familiarità con le integrazioni API e i rilasci cloud-based
Pubblico Obiettivo
- Sviluppatori AI
- Architetti di applicazioni e soluzioni
- Gestori tecnici del prodotto che lavorano con strumenti LLM
Questo corso guidato dal formatore in Italia (online o sul posto) è rivolto a sviluppatori AI, architetti e gestori di prodotti di livello intermedio ed avanzato che desiderano identificare e mitigare i rischi associati alle applicazioni alimentate da LLM, inclusi l'iniezione dei prompt, la fuga dei dati e l'output non filtrato, incorporando controlli di sicurezza come la validazione dell'input, il controllo umano nel loop e le barriere di output.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere le vulnerabilità centrali dei sistemi basati su LLM.
- Applicare principi di progettazione sicura all'architettura delle app LLM.
- Utilizzare strumenti come Guardrails AI e LangChain per la validazione, il filtraggio e la sicurezza.
- Incorporare tecniche come lo sandboxing, il red teaming e la revisione umana nel loop nelle pipeline di livello produttivo.
DeepSeek for Government and Policy-Making
14 oreQuesta formazione dal vivo condotta da un istruttore in Italia (online o in loco) è rivolta a professionisti governativi di livello avanzato ed esperti di politica che desiderano sfruttare DeepSeek per la governance basata sui dati e l'innovazione politica.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Utilizzare l’intelligenza artificiale DeepSeek per l’analisi delle politiche e il processo decisionale strategico.
- Automatizzare i report governativi e migliorare la trasparenza dei dati.
- Applicare le conoscenze basate sull'intelligenza artificiale all'innovazione del settore pubblico.
- Migliora il coinvolgimento dei cittadini attraverso soluzioni basate sull'intelligenza artificiale.
Intermediate Gemini AI for Public Sector Professionals
16 oreThis instructor-led, live training in Italia (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 oreQuesto corso guidato dal formatore in Italia (online o sul posto) è rivolto a utenti di livello principiante / intermedio / avanzato ___ che desiderano utilizzare ___ per ___.
Alla fine del corso, i partecipanti saranno in grado di:
- Installare e configurare ___.
- ___.
- ___.
- ___.
Introduction to AI Security and Risk Management
14 oreQuesto corso guidato dal formatore in Italia (online o presenza) è rivolto a professionisti di sicurezza IT, gestione dei rischi e conformità livello principiante che desiderano comprendere i concetti fondamentali della sicurezza AI, i vettori di minaccia e i framework globali come NIST AI RMF e ISO/IEC 42001.
Al termine del corso, i partecipanti saranno in grado di:
- Comprendere i rischi di sicurezza unici introdotti dai sistemi AI.
- Identificare vettori di minaccia come attacchi avversari, avvelenamento dei dati e inversione del modello.
- Applicare modelli di governance fondamentali come il NIST AI Risk Management Framework.
- Allineare l'uso dell'AI con le normative emergenti, i lineamenti di conformità ed i principi etici.
Privacy-Preserving Machine Learning
14 oreQuesto corso interattivo guidato da un istruttore (online o in sede) è rivolto a professionisti avanzati che desiderano implementare e valutare tecniche come l'apprendimento federato, il calcolo multiparty sicuro, la crittografia omomorfa e la privacy differenziale nelle pipeline di apprendimento automatico reali.
Al termine del corso, i partecipanti saranno in grado di:
- Capire e confrontare le tecniche chiave per la preservazione della privacy nell'IA.
- Implementare sistemi di apprendimento federato utilizzando framework open source.
- Applicare la privacy differenziale per una condivisione sicura dei dati e l'addestramento del modello.
- Utilizzare tecniche di crittografia e calcolo sicuro per proteggere gli input e le uscite del modello.
Red Teaming AI Systems: Offensive Security for ML Models
14 oreQuesto corso interattivo guidato dall'insegnante in Italia (online o presenziale) è rivolto a professionisti avanzati della sicurezza e specialisti di ML che desiderano simulare attacchi su sistemi AI, rilevare vulnerabilità ed migliorare la robustezza dei modelli AI deployati.
Al termine del corso, i partecipanti saranno in grado di:
- Simulare minacce reali ai modelli di machine learning.
- Generare esempi avversari per testare la robustezza dei modelli.
- Va'la superficie di attacco delle API AI e pipeline.
- Progettare strategie red teaming per gli ambienti di deploy AI.
Securing Edge AI and Embedded Intelligence
14 oreQuesto corso live guidato dall'insegnante in Italia (online o sul posto) è rivolto a ingegneri di livello intermedio e professionisti della sicurezza che desiderano proteggere i modelli AI deployati all'edge da minacce come il tampering, la fuga di dati, gli input avversari e gli attacchi fisici.
Al termine di questo corso, i partecipanti saranno in grado di:
- Identificare ed analizzare i rischi di sicurezza nelle implementazioni AI all'edge.
- Applicare tecniche di resistenza al tampering e inferenza crittografata.
- Rafforzare i modelli deployati all'edge e proteggere le pipeline dati.
- Mettere in pratica strategie di mitigazione delle minacce specifiche per sistemi embedded e vincolati.
Securing AI Models: Threats, Attacks, and Defenses
14 oreQuesta formazione live guidata dall'instructor (online o sul posto) è rivolta a professionisti intermedi di machine learning e cybersecurity che desiderano comprendere e mitigare le minacce emergenti contro i modelli AI, utilizzando sia framework concettuali che difese pratiche come addestramento robusto e privacy differenziale.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Identificare e classificare le minacce specifiche AI come attacchi avversari, inversione e avvelenamento dei dati.
- Utilizzare strumenti come l'Adversarial Robustness Toolbox (ART) per simulare gli attacchi e testare i modelli.
- Applicare difese pratiche incluse l'addestramento avversario, l'iniezione di rumore e tecniche di preservazione della privacy.
- Delineare strategie di valutazione del modello consapevoli delle minacce in ambienti di produzione.