Struttura del corso

Introduzione all'architettura Biren GPU

  • Panoramica di Biren e casi d'uso
  • Disposizione hardware: core, memoria, cluster di calcolo
  • Confronto con NVIDIA e AMD GPU

Configurazione dell'Ambiente Biren Programming

  • Installazione del Biren SDK ed ambiente di runtime
  • Comprendere la toolchain e il modello del compilatore
  • Struttura progetto base e processo di compilazione

GPU Programming con lo stack Biren

  • Modelli di thread e blocchi
  • Gestione della memoria e trasferimenti dei dati
  • Sviluppo del kernel e strategie di lancio

Migrazione da CUDA a Biren

  • Tecniche di traduzione per il codice CUDA
  • Mappature API comuni e adattamenti
  • Laboratori e pratica di conversione del codice

Debugging e Profiling

  • Uso del debugger e del profiler Biren
  • Identificazione dei collo di bottiglia
  • Modelli di accesso alla memoria ed ottimizzazione

Tecniche di Ottimizzazione

  • Programmazione dei thread e pipelining delle istruzioni
  • Unrolling dei cicli e uso della memoria condivisa
  • Ottimizzazione avanzata del kernel per il throughput

Studio di Caso ed Esempi di Applicazione

  • Addestramento di un modello con acceleratori Biren
  • Migrazione e profiling di modelli di visione o NLP
  • Confronto delle prestazioni vs CUDA/NVIDIA

Riepilogo ed Esercitazioni Successive

Requisiti

  • Comprendere l'architettura GPU e il processing parallelo
  • Esperienza con CUDA, OpenCL, o ambienti di programmazione simili a GPU
  • Familiarità con i framework di deep learning come PyTorch o TensorFlow

Target

  • Sviluppatori HPC
  • Ingegneri infrastruttura AI
  • Specialisti di ottimizzazione delle prestazioni
 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Recensioni (1)

Corsi in Arrivo

Categorie relative