Struttura del corso

Introduzione all'architettura Biren GPU

  • Panoramica di Biren e casi d'uso
  • Disposizione hardware: core, memoria, cluster di calcolo
  • Confronto con NVIDIA e AMD GPUs

Configurazione dell'ambiente Biren Programming

  • Installazione del SDK Biren e runtime
  • Comprensione dello strumento di sviluppo e modello del compilatore
  • Struttura di base del progetto e processo di build

GPU Programming con la pila Biren

  • Moderelli di thread e block
  • Gestione della memoria e trasferimento dei dati
  • Sviluppo del kernel e modelli di lancio

Porting da CUDA a Biren

  • Tecnologie di traduzione per il codice CUDA
  • Mappature API comuni e adattamenti
  • Laboratori e pratica di conversione del codice

Riddimensionamento e Profiling

  • Utilizzo del debugger e profiler di Biren
  • Istradimento dei collo di bottiglia
  • Pattumoni di accesso alla memoria e ottimizzazione

Tecnologie di Ottimizzazione

  • Scheduling thread e pipelining delle istruzioni
  • Unrolling loop ed utilizzo della memoria condivisa
  • Ottimizzazione avanzata del kernel per la throughput

Caso di studio ed esempi di applicazione

  • Addestramento di un modello con acceleratori Biren
  • Porting e profiling di modelli vision o NLP
  • Confronto delle prestazioni vs CUDA/NVIDIA

Riepilogo e passi successivi

Requisiti

  • Comprensione dell'architettura GPU e del processamento parallelo
  • Esperienza con CUDA, OpenCL, o ambienti di programmazione GPU simili
  • Familiarità con i framework di deep learning come PyTorch o TensorFlow

Pubblico Obiettivo

  • Sviluppatori HPC
  • Ingegneri dell'infrastruttura AI
  • Specialisti di ottimizzazione delle prestazioni
 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Recensioni (1)

Corsi in Arrivo

Categorie relative