Struttura del corso

GIORNO 1 - RETI NEURALI ARTIFICIALI

Introduzione e struttura ANN.

    Bioneuroni logici e neuroni artificiali. Modello di una ANN. Funzioni di attivazione utilizzate nelle ANN. Classi tipiche delle architetture di rete.

Mathematical Fondamenti e meccanismi di apprendimento.

    Rivisitazione dell'algebra vettoriale e matriciale. Concetti di spazio degli stati. Concetti di ottimizzazione. Apprendimento della correzione degli errori. Apprendimento basato sulla memoria. Apprendimento hebbiano. Apprendimento competitivo.

Percettroni monostrato.

    Struttura e apprendimento dei percettroni. Classificatore di modelli - introduzione e classificatori di Bayes. Percettrone come classificatore di pattern. Convergenza dei percettroni. Limiti di un percettrone.

Feedforward ANN.

    Strutture di reti feedforward multistrato. Algoritmo di retropropagazione. Propagazione a ritroso - allenamento e convergenza. Approssimazione funzionale con retropropagazione. Problemi pratici e progettuali dell'apprendimento della retropropagazione.

Reti di funzioni di base radiali.

    Separabilità e interpolazione di pattern. Teoria della regolarizzazione. Reti di regolarizzazione e RBF. Progettazione e formazione di reti RBF. Proprietà di approssimazione di RBF.

Apprendimento competitivo e auto-organizzazione ANN.

    Procedure generali di raggruppamento. Quantizzazione del vettore di apprendimento (LVQ). Algoritmi e architetture di apprendimento competitivo. Mappe delle caratteristiche auto-organizzanti. Proprietà delle mappe di caratteristiche.

Fuzzy Neural Networks.

    Sistemi neuro-fuzzy. Cenni di insiemi fuzzy e logica. Progettazione di steli fuzzy. Progettazione di ANN fuzzy.

Applicazioni

    Verranno discussi alcuni esempi di applicazioni di Reti Neurali, i loro vantaggi e le loro problematiche.

GIORNO -2 MACHINE LEARNING

    Il quadro di apprendimento PAC Garanzie per l'insieme di ipotesi finite – caso coerente Garanzie per l'insieme di ipotesi finite – caso inconsistente Generalità Deterministico cv. Scenari stocastici Rumore di errore di Bayes Errori di stima e approssimazione Selezione del modello
Radmeacher Complessità e VC – Dimensione Compromesso Bias - Varianza
  • Regolarizzazione
  • Sovraallestimento
  • Convalida
  • Macchine vettoriali di supporto
  • Kriging (regressione del processo gaussiano)
  • PCA e PCA del kernel
  • Mappe di auto-organizzazione (SOM)
  • Spazio vettoriale indotto dal kernel Kernel di Mercer e kernel - metriche di somiglianza indotta
  • Reinforcement Learning
  • GIORNO 3 - DEEP LEARNING
  • Questo sarà insegnato in relazione agli argomenti trattati il Giorno 1 e il Giorno 2
  • Regressione logistica e Softmax Autoencoder sparsi Vettorizzazione, PCA e Sbiancamento Apprendimento autodidatta Reti profonde Decoder lineari Convoluzione e pooling Codifica sparsa Analisi dei componenti indipendenti Analisi di correlazione canonica Demo e applicazioni
  • Requisiti

    Buona conoscenza della matematica.

    Good comprensione della statistica di base.

    Non sono richieste competenze di programmazione di base ma consigliate.

     21 ore

    Numero di Partecipanti



    Prezzo per Partecipante

    Recensioni (2)

    Corsi relativi

    Categorie relative