Struttura del corso

Introduzione

Questa sezione fornisce un'introduzione generale su quando utilizzare "machine learning", cosa dovrebbe essere considerato e cosa significa, inclusi i pro e i contro. Tipi di dati (strutturati/non strutturati/statici/in streaming), validità/volume dei dati, analisi basata sui dati vs analisi guidata dall'utente, modelli statistici vs. modelli di apprendimento automatico/sfide dell'apprendimento non supervisionato, trade-off bias-varianza, iterazione/valutazione, approcci di convalida incrociata, supervisionato/non supervisionato/rinforzo.

TEMI PRINCIPALI

1. Capire l'ingenuo Bayes

  • Concetti base dei metodi bayesiani
  • Probabilità
  • Probabilità congiunta
  • Probabilità condizionale con il teorema di Bayes
  • L'algoritmo ingenuo Bayes
  • La classificazione ingenua Bayes
  • L'stimatore di Laplace
  • Utilizzo delle caratteristiche numeriche con l'ingenuo Bayes

2. Comprendere gli alberi decisionali

  • Divide et impera
  • L'algoritmo degli alberi decisionali C5.0
  • Scegliere la migliore suddivisione
  • Potatura degli alberi decisionali

3. Comprendere le reti neurali

  • Dai neuroni biologici a quelli artificiali
  • Funzioni di attivazione
  • Topologia della rete
  • Il numero di strati
  • La direzione del viaggio dell'informazione
  • Il numero di nodi in ogni strato
  • L'allenamento delle reti neurali con retrodiffusione
  • Deep Learning

4. Comprendere le macchine vettoriali di supporto

  • Classificazione con iperpiani
  • Trovare il margine massimo
  • Caso di dati linearmente separabili
  • Caso di dati non linearmente separabili
  • L'utilizzo dei kernel per spazi non lineari

5. Informazioni sul clustering

  • Il clustering come compito di apprendimento automatico
  • L'algoritmo k-means per il clustering
  • L'uso della distanza per assegnare e aggiornare i cluster
  • Scegliere il numero appropriato di cluster

6. Misurazione delle prestazioni per la classificazione

  • Lavoro con dati di previsione della classificazione
  • Una visione più ravvicinata delle matrici di confusione
  • L'uso delle matrici di confusione per misurare le prestazioni
  • Oltre l'accuratezza – altre misure delle prestazioni
  • La statistica kappa
  • Sensibilità e specificità
  • Precisione e recall
  • L'misura F
  • Visualizzazione dei compromessi di prestazione
  • Curve ROC
  • Stima delle future prestazioni
  • Il metodo holdout
  • Convalida incrociata
  • Bootstrap campionamento

7. Ottimizzazione dei modelli stock per prestazioni migliori

  • L'uso di caret per il tuning automatico dei parametri
  • Crea un modello semplice e ottimizzato
  • Personalizzare il processo di tuning
  • Migliorare le prestazioni del modello con l'apprendimento meta
  • Capire gli ensembles
  • Bagging
  • Boosting
  • Boschi casuali
  • L'allenamento dei boschi casuali
  • Valutazione delle prestazioni del bosco casuale

ARGOMENTI MINORI

8. Comprendere la classificazione utilizzando i vicini più vicini

  • L'algoritmo kNN
  • Calcolo della distanza
  • Scegliere un k appropriato
  • Preparare i dati per l'utilizzo con kNN
  • Perché l'algoritmo kNN è pigro?

9. Comprendere le regole di classificazione

  • Separa e conquista
  • L'algoritmo One Rule
  • L'algoritmo RIPPER
  • Regole dagli alberi decisionali

10. Comprendere la regressione

  • La regressione lineare semplice
  • Stima dei minimi quadrati ordinari
  • Coefficienti di correlazione
  • La regressione lineare multipla

11. Comprendere gli alberi di regressione e gli alberi modello

  • L'aggiunta della regressione agli alberi

12. Comprendere le regole di associazione

  • L'algoritmo Apriori per l'apprendimento delle regole di associazione
  • Misurare l'interesse della regola – supporto e fiducia
  • Costruire un insieme di regole con il principio Apriori

Extra

  • Spark/PySpark/MLlib e Multi-armed bandits

Requisiti

Python Conoscenza

 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Recensioni (7)

Corsi in Arrivo

Categorie relative