Struttura del corso

GIORNO 1 - RETI NEURALI ARTIFICIALI

Introduzione e struttura ANN.

  • Bioneuroni logici e neuroni artificiali.
  • Modello di una ANN.
  • Funzioni di attivazione utilizzate nelle ANN.
  • Classi tipiche di architetture di rete .

Mathematical Fondamenti e meccanismi di apprendimento.

  • Rivisitazione dell'algebra vettoriale e matriciale.
  • Concetti di spazio degli stati.
  • Concetti di ottimizzazione.
  • Apprendimento per la correzione degli errori.
  • Apprendimento basato sulla memoria.
  • Apprendimento hebbiano.
  • Apprendimento competitivo.

Percettroni a strato singolo.

  • Struttura e apprendimento dei percettroni.
  • Classificatore di pattern - introduzione e classificatori di Bayes.
  • Perceptron come classificatore di pattern.
  • Convergenza del percettrone.
  • Limitazioni di un percettrone.

Feedforward ANN.

  • Strutture di reti feedforward multistrato.
  • Algoritmo di propagazione all'indietro.
  • Propagazione posteriore - addestramento e convergenza.
  • Approssimazione funzionale con propagazione posteriore.
  • Problematiche pratiche e progettuali dell'apprendimento della propagazione posteriore.

Reti di funzioni di base radiale.

  • Separabilità e interpolazione di pattern.
  • Teoria della regolarizzazione.
  • Regolarizzazione e reti RBF.
  • Progettazione e formazione della rete RBF.
  • Proprietà di approssimazione di RBF.

Apprendimento competitivo e auto-organizzazione ANN.

  • Procedure generali di clustering.
  • Quantizzazione vettoriale di apprendimento (LVQ).
  • Algoritmi e architetture di apprendimento competitivo.
  • Mappe delle caratteristiche auto-organizzanti.
  • Proprietà delle mappe delle funzionalità.

Fuzzy Neural Networks.

  • Sistemi neuro-fuzzy.
  • Sfondo di insiemi fuzzy e logica.
  • Design di steli sfocati.
  • Progettazione di ANN fuzzy.

Applicazioni

  • Verranno discussi alcuni esempi di applicazioni di reti neurali, i loro vantaggi e problemi.

GIORNO -2 APPRENDIMENTO AUTOMATICO

  • Il quadro di apprendimento PAC
    • Garanzie per un insieme di ipotesi finito – caso coerente
    • Garanzie per insiemi di ipotesi finite - caso incoerente
    • Generalità
      • Cv deterministico. Scenari stocastici
      • Rumore di errore di Bayes
      • Errori di stima e approssimazione
      • Selezione del modello
  • Complessità di Radmeacher e VC – Dimensione
  • Compromesso Bias - Varianza
  • Regolarizzazione
  • Montaggio eccessivo
  • Convalida
  • Supporta macchine vettoriali
  • Kriging (regressione del processo gaussiano)
  • PCA e Kernel PCA
  • Mappe dell'auto-organizzazione (SOM)
  • Spazio vettoriale indotto dal kernel
    • Mercer Kernels e Kernel - metriche di somiglianza indotta
  • Reinforcement Learning

GIORNO 3 - APPRENDIMENTO PROFONDO

Questo verrà insegnato in relazione agli argomenti trattati il Giorno 1 e il Giorno 2

  • Logistica e regressione Softmax
  • Autoencoder sparsi
  • Vettorializzazione, PCA e sbiancamento
  • Apprendimento da autodidatta
  • Reti profonde
  • Decoder lineari
  • Convoluzione e pooling
  • Codifica sparsa
  • Analisi dei componenti indipendenti
  • Analisi di correlazione canonica
  • Demo e applicazioni

Requisiti

Good comprensione della matematica.

GoOd comprensione delle statistiche di base.

Le competenze di programmazione di base non sono richieste ma consigliate.

 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Recensioni (2)

Corsi in Arrivo

Categorie relative