Struttura del corso

Introduzione a Reinforcement Learning dal Feedback Umano (RLHF)

  • Cosa è RLHF e perché è importante
  • Confronto con i metodi di tuning supervisionato
  • Applicazioni di RLHF nei sistemi AI moderni

Modellazione dei Reward con Feedback Umano

  • Raccolta e strutturazione del feedback umano
  • Crea e addestra modelli di reward
  • Valutazione dell'efficacia dei modelli di reward

Addestramento con Proximal Policy Optimization (PPO)

  • Panoramica degli algoritmi PPO per RLHF
  • Implementazione di PPO con modelli di reward
  • Tuning iterativo e sicuro dei modelli

Applicazioni Pratiche dei Modelli Linguistici

  • Preparazione dei dataset per i workflow RLHF
  • Tuning pratica di un piccolo LLM usando RLHF
  • Sfide e strategie di mitigazione

Scalabilità di RLHF ai Sistemi di Produzione

  • Considerazioni su infrastruttura e calcolo
  • Garanzia qualità e cicli di feedback continuo
  • Migliori pratiche per il deploy e la manutenzione

Considerazioni Etiche e Mitigazione del Bias

  • Gestione dei rischi etici nel feedback umano
  • Strategie di rilevamento e correzione del bias
  • Garanzia dell'allineamento e output sicuri

Casi di Studio ed Esempi dal Mondo Reale

  • Caso di studio: Tuning ChatGPT con RLHF
  • Altre implementazioni riuscite di RLHF
  • Insegnamenti e insight dell'industria

Riepilogo e Prossimi Passi

Requisiti

  • Una comprensione dei fondamenti dell'apprendimento supervisionato e rinforzato
  • esperienza nel fine-tuning di modelli e architetture di reti neurali
  • Familiarità con Python programmazione e framework di deep learning (ad esempio, TensorFlow, PyTorch)

Pubblico

  • Ingegneri Machine Learning
  • Ricercatori AI
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative