Struttura del corso

1. Comprendere la classificazione utilizzando i vicini più prossimi

  • L'algoritmokNN
  • Calcolo della distanza
  • Scelta di un kappropriato
  • Preparazione dei dati per l'uso con kNN
  • Perché l'algoritmo kNN è pigro?

2. Capire l'ingenuo Bayes 

  • Concetti di base dei metodibayesiani
  • Probabilità
  • Probabilità congiunta
  • Probabilità condizionata con teoremadi Bayes
  • L'algoritmoingenuo di Bayes
  • La classificazioneingenua di Bayes
  • Lo stimatore di Laplace
  • Utilizzo di funzioni numeriche con Bayes ingenuo

3. Comprendere gli alberi decisionali 

  • Dividi e conquista
  • L'algoritmodell'albero decisionale C5.0
  • Scegliere la migliore spaccatura
  • Eliminazione dell'albero delle decisioni

4. Comprendere le regole di classificazione

  • Separa e conquista
  • L'algoritmoOne Rule
  • L'algoritmoRIPPER
  • Regole dagli alberi decisionali

5. Comprendere la regressione 

  • Regressionelineare semplice
  • Stimadei minimi quadrati ordinari
  • Correlazioni
  • Regressione lineare multipla

6. Comprendere gli alberi di regressione e gli alberi del modello

  • Aggiunta di regressione agli alberi

7. Comprendere le reti neurali

  • Dai neuronibiologici a quelli artificiali
  • Funzionidi attivazione
  • Topologia di rete
  • Il numero di strati
  • La direzione di viaggiodelle informazioni
  • Il numero di nodi in ogni livello
  • Addestramento di reti neurali con retropropagazione

8. Comprendere le macchine a vettori di supporto

  • Classificazione con iperpiani
  • Trovare il marginemassimo
  • Il caso dei datiseparabili linearmente
  • Il caso di datinon linearmente separabili
  • Utilizzo dei kernel per spazi non lineari

9. Comprendere le regole di associazione

  • L'algoritmo Apriori per l'apprendimentodelle regole di associazione
  • Misurare l'interesse per le regole: supporto e fiducia
  • Costruire un insieme di regole con il principio dell'Apriori

10. Informazioni sul clustering

  • Clustering come attività di Machine Learning
  • L'algoritmo k-means per il clustering
  • Utilizzo della distanza per l'assegnazione e l'aggiornamento deicluster
  • Scelta del numero appropriato di cluster

11. Misurazione delle prestazioni per la classificazione 

  • Utilizzo dei datidi stima della classificazione
  • Uno sguardo più da vicino alle matrici diconfusione
  • Utilizzo di matrici di confusione per misurare le prestazioni
  • Oltre l'accuratezza: altre misure di performance
  • La statisticakappa
  • Sensibilità e specificità
  • Precisione e richiamo
  • La misuraF
  • Visualizzazione dei compromessi in termini diprestazioni
  • Curve ROC
  • Stima delle prestazionifuture
  • Il metododi controllo
  • Convalidaincrociata
  • Bootstrap Campionamento

12. Messa a punto dei modelli stock per prestazioni migliori

  • Utilizzo del cursore di inserimento per l'ottimizzazioneautomatica dei parametri
  • Creazione di un modelloottimizzato semplice
  • Personalizzazione del processodi ottimizzazione
  • Migliorare le prestazioni del modello con il meta-learning
  • Comprendere gli insiemi
  • Insaccamento
  • Aumentare
  • Foreste casuali
  • Addestramento di foreste casuali
  • Valutazione delle prestazioni dell'insieme di strutture casuali

13. Deep Learning

  • Tre classi di deep learning
  • Autoencoder profondi
  • Profondo pre-addestrato Neural Networks
  • Reti di impilamento profondo

14. Discussione di aree di applicazione specifiche

  21 ore
 

Numero di Partecipanti


Data Inizio

Data Fine


Le date sono soggette a disponibilità e si svolgono tra le 09:30 e le 16:30.
I corsi di formazione pubblici richiedono più di 5 partecipanti.

Recensioni (1)

Corsi relativi

Categorie relative