Struttura del corso

Introduzione all'Inferenza AI con Docker

  • Comprensione dei carichi di lavoro di inferenza AI
  • Vantaggi della containerizzazione dell'inferenza
  • Scenari e vincoli di distribuzione

Creazione di Contenitori per l'Inferenza AI

  • Selezione di immagini base e framework
  • Imballaggio dei modelli preaddestrati
  • Strutturazione del codice di inferenza per l'esecuzione in contenitore

Sicurezza dei Servizi AI Containerizzati

  • Minimizzazione della superficie d'attacco dei contenitori
  • Gestione di segreti e file sensibili
  • Strategie sicure per la rete e l'esposizione delle API

Tecniche di Distribuzione Portatile

  • Ottimizzazione delle immagini per la portabilità
  • Garanzia di ambienti di esecuzione prevedibili
  • Gestione delle dipendenze tra le piattaforme

Distribuzione Locale e Test

  • Esecuzione di servizi localmente con Docker
  • Debug dei contenitori di inferenza
  • Test delle prestazioni e affidabilità

Distribuzione su Server e VM Cloud

  • Adattamento dei contenitori per ambienti remoti
  • Configurazione dell'accesso sicuro al server
  • Distribuzione di API di inferenza su VM cloud

Utilizzo di Docker Compose per Sistemi AI Multi-Servizio

  • Orchestrazione dell'inferenza con componenti supportati
  • Gestione delle variabili di ambiente e configurazioni
  • Scalabilità dei microservizi con Compose

Monitoraggio e Manutenzione dei Servizi di Inferenza AI

  • Approcci per il logging e l'osservabilità
  • Rilevamento di errori nelle pipeline di inferenza
  • Aggiornamento e versioning dei modelli in produzione

Riepilogo e Prossimi Passaggi

Requisiti

  • Comprensione dei concetti fondamentali del machine learning
  • Esperienza con Python o sviluppo backend
  • Familiarità con i concetti fondamentali di containerizzazione

Pubblico Target

  • Sviluppatori
  • Ingegneri backend
  • Team che distribuiscono servizi AI
 14 ore

Numero di Partecipanti


Prezzo per partecipante

Recensioni (5)

Corsi in Arrivo

Categorie relative