Struttura del corso

Introduzione a TinyML e AI Embedded

  • Caratteristiche della distribuzione dei modelli TinyML
  • Vincoli nelle ambientazioni di microcontrollori
  • Panoramica delle toolchain AI embedded

Fondamenti dell'Ottimizzazione dei Modelli

  • Comprensione delle bottiglie di collo computazionali
  • Identificazione delle operazioni a elevato consumo di memoria
  • Profilatura delle prestazioni di base

Tecniche di Quantizzazione

  • Strategie di quantizzazione post-training
  • Quantizzazione consapevole del training
  • Valutazione dei compromessi tra accuratezza e risorse

Pruning e Compressione

  • Metodi di pruning strutturato e non strutturato
  • Condivisione dei pesi e sparsità del modello
  • Algoritmi di compressione per l'inferenza leggera

Ottimizzazione Orientata al Hardware

  • Distribuzione dei modelli su sistemi ARM Cortex-M
  • Ottimizzazione per estensioni DSP e acceleratori
  • Mapping della memoria e considerazioni sul flusso di dati

Benchmarking e Validazione

  • Analisi di latenza e throughput
  • Misurazioni del consumo di energia
  • Test di accuratezza e robustezza

Workflow e Strumenti per la Distribuzione

  • Utilizzo di TensorFlow Lite Micro per la distribuzione embedded
  • Integrazione dei modelli TinyML con pipeline Edge Impulse
  • Test e debug su hardware reale

Strategie di Ottimizzazione Avanzate

  • Ricerca di architetture neurali per TinyML
  • Approcci ibridi di quantizzazione-pruning
  • Distillazione del modello per l'inferenza embedded

Riepilogo e Prossimi Passi

Requisiti

  • Conoscenza dei workflow di apprendimento automatico
  • Esperienza con sistemi embedded o sviluppo basato su microcontrollori
  • Familiarità con la programmazione Python

Pubblico di Riferimento

  • Ricercatori in AI
  • Ingegneri ML embedded
  • Professionisti che lavorano su sistemi di inferenza a risorse limitate
 21 Ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative