Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione
- Reti neurali artificiali vs algoritmi basati sull'albero decisionale
Panoramica delle funzionalità di XGBoost
- Elementi di un algoritmo di Gradient Boosting
- Focus sulla velocità di calcolo e sulle prestazioni del modello
- XGBoost vs regressione logistica, Random Forest e aumento del gradiente standard
L'evoluzione degli algoritmi ad albero
- Alberi decisionali, Bagging, Random Forest, Boosting, Gradient Boosting
- Ottimizzazione del sistema
- Miglioramenti algoritmici
Preparazione dell'ambiente
- Installazione di SciPy e scikit-learn
Creazione di un modello XGBoost
- Download di un set di dati
- Risoluzione di un problema di classificazione comune
- Training del modello XGBoost per la classificazione
- Risolvere un'attività di regressione comune
Monitoraggio delle prestazioni
- Valutazione e creazione di report sulle prestazioni
- Arresto anticipato
Rappresentazione grafica delle feature in base all'importanza
- Calcolo dell'importanza della feature
- Decidere quali variabili di input mantenere o scartare
Configurazione dell'aumento del gradiente
- Esaminare le curve di apprendimento nei set di dati di training e convalida
- Regolazione del tasso di apprendimento
- Regolazione del numero di alberi
Ottimizzazione degli iperparametri
- Miglioramento delle prestazioni di un modello XGBoost
- Progettazione di un esperimento controllato per ottimizzare gli iperparametri
- Searchcombinazioni di parametri
Creazione di una pipeline
- Incorporazione di un modello XGBoost in una pipeline di Machine Learning end-to-end
- Ottimizzazione degli iperparametri all'interno della pipeline
- Tecniche avanzate di pre-elaborazione
Risoluzione dei problemi
Riassunto e conclusione
Requisiti
- Esperienza nella scrittura di modelli di Machine Learning
Pubblico
- Scienziati dei dati
- Ingegneri dell'apprendimento automatico
14 ore