Struttura del corso

Concetti e Metriche di Prestazione

  • Latenza, throughput, utilizzo energetico, utilizzo delle risorse
  • Bottlenecks a livello di sistema vs modello
  • Profilatura per inferenza vs training

Profilatura su Huawei Ascend

  • Utilizzo di CANN Profiler e MindInsight
  • Dagnostica del kernel e degli operatori
  • Patttern di offload e mapping della memoria

Profilatura su Biren GPU

  • Caratteristiche di monitoraggio delle prestazioni del Biren SDK
  • Fusione del kernel, allineamento della memoria e code di esecuzione
  • Profilatura consapevole di potenza e temperatura

Profilatura su Cambricon MLU

  • Strumenti di prestazione BANGPy e Neuware
  • Visione del kernel e interpretazione dei log
  • Integrazione del profilo MLU con i framework di distribuzione

Ottimizzazione a Livello di Grafo e Modello

  • Tecnologie di pruning e quantizzazione del grafo
  • Fusione degli operatori e ristrutturazione del grafo computazionale
  • Standardizzazione della dimensione dell'input e tuning del batch

Ottimizzazione della Memoria e Kernel

  • Ottimizzazione dell'assetto e riciclo della memoria
  • Gestione efficiente dei buffer attraverso i chipset
  • Tecnologie di tuning del kernel per piattaforma

Best Practices Cross-Platform

  • Portabilità delle prestazioni: strategie di astrazione
  • Sviluppo di pipeline di tuning condivise per ambienti multi-chipset
  • Esempio: tuning di un modello di rilevamento oggetti tra Ascend, Biren e MLU

Riepilogo e Passaggi Successivi

Requisiti

  • Esperienza nel training o nella distribuzione di pipeline di modelli AI
  • Comprensione dei principi di calcolo GPU/MLU e dell'ottimizzazione del modello
  • Familiarità base con strumenti e metriche di profilatura delle prestazioni

Pubblico mirato

  • Engineer di prestazioni
  • Squadre di infrastrutture per l'apprendimento automatico
  • Architetti di sistemi AI
 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative