Struttura del corso

Introduzione

  • Reti neurali artificiali vs algoritmi basati sull'albero decisionale

Panoramica delle funzionalità di XGBoost

  • Elementi di un algoritmo di Gradient Boosting
  • Focus sulla velocità di calcolo e sulle prestazioni del modello
  • XGBoost vs regressione logistica, Random Forest e aumento del gradiente standard

L'evoluzione degli algoritmi ad albero

  • Alberi decisionali, Bagging, Random Forest, Boosting, Gradient Boosting
  • Ottimizzazione del sistema
  • Miglioramenti algoritmici

Preparazione dell'ambiente

  • Installazione di SciPy e scikit-learn

Creazione di un modello XGBoost

  • Download di un set di dati
  • Risoluzione di un problema di classificazione comune
  • Training del modello XGBoost per la classificazione
  • Risolvere un'attività di regressione comune

Monitoraggio delle prestazioni

  • Valutazione e creazione di report sulle prestazioni
  • Arresto anticipato

Rappresentazione grafica delle feature in base all'importanza

  • Calcolo dell'importanza della feature
  • Decidere quali variabili di input mantenere o scartare

Configurazione dell'aumento del gradiente

  • Esaminare le curve di apprendimento nei set di dati di training e convalida
  • Regolazione del tasso di apprendimento
  • Regolazione del numero di alberi

Ottimizzazione degli iperparametri

  • Miglioramento delle prestazioni di un modello XGBoost
  • Progettazione di un esperimento controllato per ottimizzare gli iperparametri
  • Searchcombinazioni di parametri

Creazione di una pipeline

  • Incorporazione di un modello XGBoost in una pipeline di Machine Learning end-to-end
  • Ottimizzazione degli iperparametri all'interno della pipeline
  • Tecniche avanzate di pre-elaborazione

Risoluzione dei problemi

Riassunto e conclusione

Requisiti

  • Esperienza nella scrittura di modelli di Machine Learning

Pubblico

  • Scienziati dei dati
  • Ingegneri dell'apprendimento automatico
 14 ore

Numero di Partecipanti



Prezzo per Partecipante

Categorie relative