Corso di formazione Fine-Tuning di Modelli Leggeri per il Deploy su Edge AI
Il fine-tuning dei modelli è il processo di adattamento di modelli pre-addestrati a compiti o ambienti specifici.
Questo training live guidato dall'insegnante (online o in presenza) è rivolto a sviluppatori AI embedded e specialisti di edge computing di livello intermedio che desiderano fine-tunare e ottimizzare modelli AI leggeri per il deploy su dispositivi a risorse limitate.
Al termine di questo training, i partecipanti saranno in grado di:
- Selezionare e adattare modelli pre-addestrati idonei per il deploy su edge.
- Applicare tecniche di quantizzazione, pruning e altre tecniche di compressione per ridurre la dimensione del modello e la latenza.
- Fine-tunare i modelli utilizzando il transfer learning per le prestazioni specifiche del compito.
- Deployare modelli ottimizzati su piattaforme hardware reali di edge.
Formato del Corso
- Lezione interattiva e discussione.
- Numerosi esercizi e pratiche.
- Implementazione pratica in un ambiente lab live.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare.
Struttura del corso
Introduzione all'Edge AI e all'Ottimizzazione dei Modelli
- Comprensione dell'edge computing e dei carichi di lavoro AI
- Compromessi: prestazioni vs. vincoli delle risorse
- Panoramica delle strategie di ottimizzazione dei modelli
Selezione e Pre-addestramento dei Modelli
- Scelta di modelli leggeri (ad esempio, MobileNet, TinyML, SqueezeNet)
- Comprensione delle architetture dei modelli idonee per dispositivi edge
- Utilizzo di modelli pre-addestrati come base
Fine-Tuning e Transfer Learning
- Principi del transfer learning
- Adattamento dei modelli a dataset personalizzati
- Workflow pratici di fine-tuning
Quantizzazione dei Modelli
- Tecniche di quantizzazione post-addestramento
- Quantizzazione-aware training
- Valutazione e compromessi
Pruning e Compressione dei Modelli
- Strategie di pruning (strutturato vs. non strutturato)
- Compressione e condivisione dei pesi
- Benchmarking dei modelli compressi
Framework e Strumenti di Deploy
- TensorFlow Lite, PyTorch Mobile, ONNX
- Compatibilità hardware edge e ambienti runtime
- Toolchain per il deploy cross-platform
Deploy Pratico
- Deploy su Raspberry Pi, Jetson Nano e dispositivi mobili
- Profilatura e benchmarking
- Risoluzione dei problemi di deploy
Riepilogo e Passi Successivi
Requisiti
- Comprensione dei principi fondamentali del machine learning
- Esperienza con Python e framework di deep learning
- Familiarità con sistemi embedded o vincoli di dispositivi edge
Pubblico Obiettivo
- Sviluppatori AI embedded
- Specialisti di edge computing
- Ingegneri di machine learning focalizzati sul deploy su edge
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Fine-Tuning di Modelli Leggeri per il Deploy su Edge AI - Prenotazione
Corso di formazione Fine-Tuning di Modelli Leggeri per il Deploy su Edge AI - Richiesta
Fine-Tuning di Modelli Leggeri per il Deploy su Edge AI - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
Avanzate Tecniche nell'Apprendimento Trasferibile
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti dell'apprendimento automatico di livello avanzato che desiderano padroneggiare tecniche di transfer learning all'avanguardia e applicarle a problemi complessi del mondo reale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere concetti e metodologie avanzate nell'apprendimento di trasferimento.
- Implementare tecniche di adattamento specifiche del dominio per modelli pre-addestrati.
- Applica l'apprendimento continuo per gestire attività e set di dati in evoluzione.
- Padroneggia la messa a punto multi-task per migliorare le prestazioni del modello in tutte le attività.
Deploying Fine-Tuned Models in Production Deployment di Modelli Otimizzati in Produzione
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello avanzato che desiderano implementare modelli ottimizzati in modo affidabile ed efficiente.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi le sfide legate all'implementazione di modelli ottimizzati nell'ambiente di produzione.
- Containerizza e distribuisci i modelli utilizzando strumenti come Docker e Kubernetes.
- Implementare il monitoraggio e la registrazione per i modelli distribuiti.
- Ottimizza i modelli per la latenza e la scalabilità in scenari reali.
Fine-Tuning Specifico per la Finanza
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello intermedio che desiderano acquisire competenze pratiche nella personalizzazione di modelli di intelligenza artificiale per attività finanziarie critiche.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi i fondamenti dell'ottimizzazione per le applicazioni finanziarie.
- Sfrutta i modelli pre-addestrati per attività specifiche del dominio nel settore finanziario.
- Applica tecniche per il rilevamento delle frodi, la valutazione del rischio e la generazione di consulenza finanziaria.
- Garantisci la conformità alle normative finanziarie come GDPR e SOX.
- Implementa la sicurezza dei dati e le pratiche etiche di intelligenza artificiale nelle applicazioni finanziarie.
Afferenti e Modelli di Linguaggio a Grande Scala (LLMs)
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello intermedio e avanzato che desiderano personalizzare modelli pre-addestrati per attività e set di dati specifici.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere i principi del fine-tuning e le sue applicazioni.
- Preparare i set di dati per l'ottimizzazione dei modelli pre-addestrati.
- Ottimizza i modelli linguistici di grandi dimensioni (LLM) per le attività di NLP.
- Ottimizza le prestazioni del modello e affronta le sfide più comuni.
Ottimizzazione Efficiente con Adattamento Rango Basso (LoRA)
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a sviluppatori di livello intermedio e professionisti dell'intelligenza artificiale che desiderano implementare strategie di messa a punto per modelli di grandi dimensioni senza la necessità di ampie risorse computazionali.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere i principi dell'adattamento di basso rango (LoRA).
- Implementa LoRA per una messa a punto efficiente di modelli di grandi dimensioni.
- Ottimizza l'ottimizzazione per ambienti con risorse limitate.
- Valuta e distribuisci modelli ottimizzati per LoRA per applicazioni pratiche.
Affinamento di Modelli Multimodali
28 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello avanzato che desiderano padroneggiare la messa a punto di modelli multimodali per soluzioni di intelligenza artificiale innovative.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi l'architettura dei modelli multimodali come CLIP e Flamingo.
- Prepara e pre-elabora in modo efficace i set di dati multimodali.
- Ottimizza i modelli multimodali per attività specifiche.
- Ottimizza i modelli per le applicazioni e le prestazioni del mondo reale.
Affinamento per elaborazione del linguaggio naturale (NLP)
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello intermedio che desiderano migliorare i loro progetti di PNL attraverso l'efficace messa a punto di modelli linguistici pre-addestrati.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi i fondamenti della messa a punto per le attività di NLP.
- Ottimizza i modelli pre-addestrati come GPT, BERT e T5 per applicazioni NLP specifiche.
- Ottimizza gli iperparametri per migliorare le prestazioni del modello.
- Valuta e distribuisci modelli ottimizzati in scenari reali.
Afferenza dell'LLM DeepSeek per Modelli AI Personalizzati
21 oreQuesto addestramento guidato dall'insegnante (online o in sede) è rivolto a ricercatori avanzati di intelligenza artificiale, ingegneri di apprendimento automatico e sviluppatori che desiderano ottimizzare i modelli LLM DeepSeek per creare applicazioni AI specializzate adattate a specifici settori, domini o esigenze aziendali.
Al termine di questo addestramento, i partecipanti saranno in grado di:
- Comprendere l'architettura e le capacità dei modelli DeepSeek, inclusi DeepSeek-R1 e DeepSeek-V3.
- Preparare i dataset e preprocessare i dati per l'ottimizzazione.
- Ottimizzare i modelli LLM DeepSeek per applicazioni specifiche di dominio.
- Ottimizzare ed effettuare la distribuzione dei modelli ottimizzati in modo efficiente.
Fine-Tuning Large Language Models Using QLoRA
14 oreQuesto training guidato dall'instruttore (online o in loco) è rivolto a ingegneri di apprendimento automatico, sviluppatori AI e scienziati dei dati di livello intermedio ad avanzato che desiderano imparare come utilizzare QLoRA per affinare efficacemente modelli di grandi dimensioni per compiti specifici e personalizzazioni.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere la teoria dietro QLoRA e le tecniche di quantizzazione per i modelli linguistici di grandi dimensioni (LLMs).
- Implementare QLoRA per affinare modelli linguistici di grandi dimensioni per applicazioni specifiche.
- Ottimizzare le prestazioni dell'affinamento su risorse computazionali limitate utilizzando la quantizzazione.
- Distribuire e valutare i modelli affinati in applicazioni reali in modo efficiente.
Fine-Tuning con Reinforcement Learning dal Feedback Umano (RLHF)
14 oreQuesto corso guidato dall'insegnante in Italia (online o sul posto) è rivolto a ingegneri di apprendimento automatico avanzati e ricercatori di IA che desiderano applicare RLHF per affinare modelli AI grandi per una prestazione, sicurezza e allineamento superiori.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere le basi teoriche dell'RLHF e perché è essenziale nello sviluppo moderno dell'IA.
- Mettere in pratica modelli di reward basati sul feedback umano per guidare i processi di apprendimento per rinforzo.
- Perfezionare grandi modelli linguistici utilizzando tecniche RLHF per allineare le uscite con le preferenze umane.
- Applicare le migliori pratiche per la scalabilità dei flussi di lavoro RLHF per sistemi AI di grado produttivo.
Ottimizzazione di Modelli Grandi per il Ritraining a Basso costo
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello avanzato che desiderano padroneggiare le tecniche per l'ottimizzazione di modelli di grandi dimensioni per una messa a punto conveniente in scenari del mondo reale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi le sfide della messa a punto di modelli di grandi dimensioni.
- Applicare tecniche di training distribuite a modelli di grandi dimensioni.
- Sfrutta la quantizzazione e l'eliminazione dei modelli per l'efficienza.
- Ottimizza l'utilizzo dell'hardware per le attività di messa a punto.
- Distribuisci modelli ottimizzati in modo efficace negli ambienti di produzione.
Ingegneria dei Prompt e Micro-Accorciamento del Rischio
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello intermedio che desiderano sfruttare la potenza dell'ingegneria rapida e dell'apprendimento a pochi colpi per ottimizzare le prestazioni LLM per le applicazioni del mondo reale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi i principi dell'ingegneria rapida e dell'apprendimento a pochi colpi.
- Progetta prompt efficaci per varie attività di NLP.
- Sfrutta le tecniche a pochi colpi per adattare gli LLM con dati minimi.
- Ottimizza le prestazioni LLM per applicazioni pratiche.
Tecniche di Fine-Tuning a Efficienza Parametrica (PEFT) per LLMs
14 oreQuesto corso guidato dal formatore, live a Italia (online o in sede), è rivolto a data scientist e ingegneri AI di livello intermedio che desiderano affinare i grandi modelli linguistici in modo più economico ed efficiente utilizzando metodi come LoRA, Adapter Tuning e Prefix Tuning.
Al termine di questo corso, i partecipanti saranno in grado di:
- Comprendere la teoria alla base degli approcci per l'affinamento parametricamente efficiente.
- Implementare LoRA, Adapter Tuning e Prefix Tuning utilizzando Hugging Face PEFT.
- Confrontare i compromessi di prestazioni e costi dei metodi PEFT rispetto all'affinamento completo.
- Distribuire ed espandere modelli LLM affinati con requisiti computazionali e di archiviazione ridotti.
Introduzione al Transfer Learning
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti dell'apprendimento automatico di livello principiante e intermedio che desiderano comprendere e applicare tecniche di apprendimento di trasferimento per migliorare l'efficienza e le prestazioni nei progetti di intelligenza artificiale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere i concetti fondamentali e i vantaggi del transfer learning.
- Esplora i modelli pre-addestrati più diffusi e le relative applicazioni.
- Esegui l'ottimizzazione di modelli pre-addestrati per attività personalizzate.
- Applica il transfer learning per risolvere problemi del mondo reale in PNL e visione artificiale.
Risoluzione dei Problemi nella Fase di Afinnamento
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello avanzato che desiderano affinare le proprie competenze nella diagnosi e nella risoluzione di problemi di messa a punto per i modelli di apprendimento automatico.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Diagnostica problemi come l'overfitting, l'underfitting e lo squilibrio dei dati.
- Implementare strategie per migliorare la convergenza dei modelli.
- Ottimizza l'ottimizzazione delle pipeline per ottenere prestazioni migliori.
- Esegui il debug dei processi di formazione utilizzando strumenti e tecniche pratiche.