Grazie per aver inviato la vostra richiesta! Un membro del nostro team vi contatterà a breve.
Grazie per aver inviato la vostra prenotazione! Un membro del nostro team vi contatterà a breve.
Struttura del corso
1. Comprendere la classificazione utilizzando i vicini più prossimi
- L'algoritmokNN
- Calcolo della distanza
- Scelta di un kappropriato
- Preparazione dei dati per l'uso con kNN
- Perché l'algoritmo kNN è pigro?
2. Capire l'ingenuo Bayes
- Concetti di base dei metodibayesiani
- Probabilità
- Probabilità congiunta
- Probabilità condizionata con teoremadi Bayes
- L'algoritmoingenuo di Bayes
- La classificazioneingenua di Bayes
- Lo stimatore di Laplace
- Utilizzo di funzioni numeriche con Bayes ingenuo
3. Comprendere gli alberi decisionali
- Dividi e conquista
- L'algoritmodell'albero decisionale C5.0
- Scegliere la migliore spaccatura
- Eliminazione dell'albero delle decisioni
4. Comprendere le regole di classificazione
- Separa e conquista
- L'algoritmoOne Rule
- L'algoritmoRIPPER
- Regole dagli alberi decisionali
5. Comprendere la regressione
- Regressionelineare semplice
- Stimadei minimi quadrati ordinari
- Correlazioni
- Regressione lineare multipla
6. Comprendere gli alberi di regressione e gli alberi del modello
- Aggiunta di regressione agli alberi
7. Comprendere le reti neurali
- Dai neuronibiologici a quelli artificiali
- Funzionidi attivazione
- Topologia di rete
- Il numero di strati
- La direzione di viaggiodelle informazioni
- Il numero di nodi in ogni livello
- Addestramento di reti neurali con retropropagazione
8. Comprendere le macchine a vettori di supporto
- Classificazione con iperpiani
- Trovare il marginemassimo
- Il caso dei datiseparabili linearmente
- Il caso di datinon linearmente separabili
- Utilizzo dei kernel per spazi non lineari
9. Comprendere le regole di associazione
- L'algoritmo Apriori per l'apprendimentodelle regole di associazione
- Misurare l'interesse per le regole: supporto e fiducia
- Costruire un insieme di regole con il principio dell'Apriori
10. Informazioni sul clustering
- Clustering come attività di Machine Learning
- L'algoritmo k-means per il clustering
- Utilizzo della distanza per l'assegnazione e l'aggiornamento deicluster
- Scelta del numero appropriato di cluster
11. Misurazione delle prestazioni per la classificazione
- Utilizzo dei datidi stima della classificazione
- Uno sguardo più da vicino alle matrici diconfusione
- Utilizzo di matrici di confusione per misurare le prestazioni
- Oltre l'accuratezza: altre misure di performance
- La statisticakappa
- Sensibilità e specificità
- Precisione e richiamo
- La misuraF
- Visualizzazione dei compromessi in termini diprestazioni
- Curve ROC
- Stima delle prestazionifuture
- Il metododi controllo
- Convalidaincrociata
- Bootstrap Campionamento
12. Messa a punto dei modelli stock per prestazioni migliori
- Utilizzo del cursore di inserimento per l'ottimizzazioneautomatica dei parametri
- Creazione di un modelloottimizzato semplice
- Personalizzazione del processodi ottimizzazione
- Migliorare le prestazioni del modello con il meta-learning
- Comprendere gli insiemi
- Insaccamento
- Aumentare
- Foreste casuali
- Addestramento di foreste casuali
- Valutazione delle prestazioni dell'insieme di strutture casuali
13. Deep Learning
- Tre classi di deep learning
- Autoencoder profondi
- Profondo pre-addestrato Neural Networks
- Reti di impilamento profondo
14. Discussione di aree di applicazione specifiche
21 ore
Recensioni (1)
Very flexible