Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
1. Comprendere la classificazione utilizzando i vicini più prossimi
- L'algoritmokNN
- Calcolo della distanza
- Scelta di un kappropriato
- Preparazione dei dati per l'uso con kNN
- Perché l'algoritmo kNN è pigro?
2. Capire l'ingenuo Bayes
- Concetti di base dei metodibayesiani
- Probabilità
- Probabilità congiunta
- Probabilità condizionata con teoremadi Bayes
- L'algoritmoingenuo di Bayes
- La classificazioneingenua di Bayes
- Lo stimatore di Laplace
- Utilizzo di funzioni numeriche con Bayes ingenuo
3. Comprendere gli alberi decisionali
- Dividi e conquista
- L'algoritmodell'albero decisionale C5.0
- Scegliere la migliore spaccatura
- Eliminazione dell'albero delle decisioni
4. Comprendere le regole di classificazione
- Separa e conquista
- L'algoritmoOne Rule
- L'algoritmoRIPPER
- Regole dagli alberi decisionali
5. Comprendere la regressione
- Regressionelineare semplice
- Stimadei minimi quadrati ordinari
- Correlazioni
- Regressione lineare multipla
6. Comprendere gli alberi di regressione e gli alberi del modello
- Aggiunta di regressione agli alberi
7. Comprendere le reti neurali
- Dai neuronibiologici a quelli artificiali
- Funzionidi attivazione
- Topologia di rete
- Il numero di strati
- La direzione di viaggiodelle informazioni
- Il numero di nodi in ogni livello
- Addestramento di reti neurali con retropropagazione
8. Comprendere le macchine a vettori di supporto
- Classificazione con iperpiani
- Trovare il marginemassimo
- Il caso dei datiseparabili linearmente
- Il caso di datinon linearmente separabili
- Utilizzo dei kernel per spazi non lineari
9. Comprendere le regole di associazione
- L'algoritmo Apriori per l'apprendimentodelle regole di associazione
- Misurare l'interesse per le regole: supporto e fiducia
- Costruire un insieme di regole con il principio dell'Apriori
10. Informazioni sul clustering
- Clustering come attività di Machine Learning
- L'algoritmo k-means per il clustering
- Utilizzo della distanza per l'assegnazione e l'aggiornamento deicluster
- Scelta del numero appropriato di cluster
11. Misurazione delle prestazioni per la classificazione
- Utilizzo dei datidi stima della classificazione
- Uno sguardo più da vicino alle matrici diconfusione
- Utilizzo di matrici di confusione per misurare le prestazioni
- Oltre l'accuratezza: altre misure di performance
- La statisticakappa
- Sensibilità e specificità
- Precisione e richiamo
- La misuraF
- Visualizzazione dei compromessi in termini diprestazioni
- Curve ROC
- Stima delle prestazionifuture
- Il metododi controllo
- Convalidaincrociata
- Bootstrap Campionamento
12. Messa a punto dei modelli stock per prestazioni migliori
- Utilizzo del cursore di inserimento per l'ottimizzazioneautomatica dei parametri
- Creazione di un modelloottimizzato semplice
- Personalizzazione del processodi ottimizzazione
- Migliorare le prestazioni del modello con il meta-learning
- Comprendere gli insiemi
- Insaccamento
- Aumentare
- Foreste casuali
- Addestramento di foreste casuali
- Valutazione delle prestazioni dell'insieme di strutture casuali
13. Deep Learning
- Tre classi di deep learning
- Autoencoder profondi
- Profondo pre-addestrato Neural Networks
- Reti di impilamento profondo
14. Discussione di aree di applicazione specifiche
21 ore
Recensioni (1)
Very flexible.