Struttura del corso

Introduzione

Questa sezione fornisce un'introduzione generale su quando utilizzare "machine learning", cosa dovrebbe essere considerato e cosa significa, inclusi i pro e i contro. Tipi di dati (strutturati/non strutturati/statici/in streaming), validità/volume dei dati, analisi basata sui dati vs analisi guidata dall'utente, modelli statistici vs. modelli di apprendimento automatico/sfide dell'apprendimento non supervisionato, trade-off bias-varianza, iterazione/valutazione, approcci di convalida incrociata, supervisionato/non supervisionato/rinforzo.

TEMI PRINCIPALI

1. Capire l'ingenuo Bayes

  • Concetti di base dei metodi bayesiani
  • Probabilità
  • Probabilità congiunta
  • Probabilità condizionale con teorema di Bayes
  • L'ingenuo algoritmo di Bayes
  • L'ingenua classificazione di Bayes
  • Lo stimatore di Laplace
  • Utilizzo di feature numeriche con Bayes ingenuo

2. Comprendere gli alberi decisionali

  • Dividi e conquista
  • L'algoritmo dell'albero decisionale C5.0
  • Scegliere la migliore divisione
  • Potatura dell'albero decisionale

3. Comprendere le reti neurali

  • Dai neuroni biologici a quelli artificiali
  • Funzioni di attivazione
  • Topologia di rete
  • Il numero di livelli
  • La direzione del viaggio informativo
  • Il numero di nodi in ogni livello
  • Addestramento delle reti neurali con backpropagation
  • Deep Learning

4. Comprendere le macchine vettoriali di supporto

  • Classificazione con iperpiani
  • Trovare il margine massimo
  • Il caso dei dati linearmente separabili
  • Il caso dei dati non separabili linearmente
  • Usare i kernel per spazi non lineari

5. Informazioni sul clustering

  • Clustering come attività di Machine Learning
  • L'algoritmo k-means per il clustering
  • Utilizzo della distanza per assegnare e aggiornare i cluster
  • Scelta del numero appropriato di cluster

6. Misurazione delle prestazioni per la classificazione

  • Utilizzo dei dati di previsione della classificazione
  • Uno sguardo più da vicino alle matrici di confusione
  • Utilizzo di matrici di confusione per misurare le prestazioni
  • Oltre la precisione: altre misure delle prestazioni
  • La statistica kappa
  • Sensibilità e specificità
  • Precisione e richiamo
  • La misura F
  • Visualizzazione dei compromessi in termini di prestazioni
  • Curve ROC
  • Stima delle prestazioni future
  • Il metodo di holdout
  • Convalida incrociata
  • Bootstrap campionamento

7. Ottimizzazione dei modelli stock per prestazioni migliori

  • Utilizzo del cursore per la regolazione automatica dei parametri
  • Creazione di un modello ottimizzato semplice
  • Personalizzazione del processo di ottimizzazione
  • Migliorare le prestazioni del modello con il meta-learning
  • Comprendere gli insiemi
  • Insaccamento
  • Aumentare
  • Foreste casuali
  • Addestramento di foreste casuali
  • Valutazione delle prestazioni casuali della foresta

ARGOMENTI MINORI

8. Comprendere la classificazione utilizzando i vicini più vicini

  • L'algoritmo kNN
  • Calcolo della distanza
  • Scegliere un k appropriato
  • Preparazione dei dati per l'utilizzo con kNN
  • Perché l'algoritmo kNN è pigro?

9. Comprendere le regole di classificazione

  • Separare e conquistare
  • L'algoritmo One Rule
  • L'algoritmo RIPPER
  • Regole dagli alberi decisionali

10. Comprendere la regressione

  • Regressione lineare semplice
  • Stima ordinaria dei minimi quadrati
  • Correlazioni
  • Regressione lineare multipla

11. Comprendere gli alberi di regressione e gli alberi modello

  • Aggiunta della regressione agli alberi

12. Comprendere le regole di associazione

  • L'algoritmo Apriori per l'apprendimento delle regole di associazione
  • Misurare l'interesse delle regole: supporto e fiducia
  • Costruire un insieme di regole con il principio di Apriori

Extra

  • Spark/PySpark/MLlib e banditi multi-armati
 21 ore

Numero di Partecipanti



Prezzo per Partecipante

Recensioni (5)

Corsi relativi

Categorie relative