Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
Introduzione a TinyML e AI Embedded
- Caratteristiche della distribuzione dei modelli TinyML
- Vincoli nelle ambientazioni di microcontrollori
- Panoramica delle toolchain AI embedded
Fondamenti dell'Ottimizzazione dei Modelli
- Comprensione delle bottiglie di collo computazionali
- Identificazione delle operazioni a elevato consumo di memoria
- Profilatura delle prestazioni di base
Tecniche di Quantizzazione
- Strategie di quantizzazione post-training
- Quantizzazione consapevole del training
- Valutazione dei compromessi tra accuratezza e risorse
Pruning e Compressione
- Metodi di pruning strutturato e non strutturato
- Condivisione dei pesi e sparsità del modello
- Algoritmi di compressione per l'inferenza leggera
Ottimizzazione Orientata al Hardware
- Distribuzione dei modelli su sistemi ARM Cortex-M
- Ottimizzazione per estensioni DSP e acceleratori
- Mapping della memoria e considerazioni sul flusso di dati
Benchmarking e Validazione
- Analisi di latenza e throughput
- Misurazioni del consumo di energia
- Test di accuratezza e robustezza
Workflow e Strumenti per la Distribuzione
- Utilizzo di TensorFlow Lite Micro per la distribuzione embedded
- Integrazione dei modelli TinyML con pipeline Edge Impulse
- Test e debug su hardware reale
Strategie di Ottimizzazione Avanzate
- Ricerca di architetture neurali per TinyML
- Approcci ibridi di quantizzazione-pruning
- Distillazione del modello per l'inferenza embedded
Riepilogo e Prossimi Passi
Requisiti
- Conoscenza dei workflow di apprendimento automatico
- Esperienza con sistemi embedded o sviluppo basato su microcontrollori
- Familiarità con la programmazione Python
Pubblico di Riferimento
- Ricercatori in AI
- Ingegneri ML embedded
- Professionisti che lavorano su sistemi di inferenza a risorse limitate
21 Ore