Struttura del corso

Introduzione alle Operazioni Kubernetes Guidate dall'IA

  • Perché l'IA è importante per le operazioni moderne dei cluster
  • Limiti della logica di scaling e scheduling tradizionale
  • Concetti chiave del ML per la gestione delle risorse

Fondamenti della Gestione delle Risorse Kubernetes

  • Principi fondamentali di allocazione di CPU, GPU e memoria
  • Comprensione delle quote, limiti e richieste
  • Identificazione dei colli di bottiglia e inefficienze

Approcci AI per il Scheduling

  • Modelli supervisionati e non supervisionati per la posizionamento dei workload
  • Algoritmi predittivi per la domanda di risorse
  • Utilizzo delle funzionalità ML in scheduler personalizzati

Reinforcement Learning per l'Autoscaling Intelligente

  • Come gli agenti RL imparano dal comportamento del cluster
  • Progettazione di funzioni di reward per l'efficienza
  • Costruzione di strategie di autoscaling guidate da RL

Autoscaling Predittivo con Metriche e Telemetria

  • Utilizzo dei dati Prometheus per la previsione
  • Applicazione di modelli a serie temporali all'autoscaling
  • Valutazione dell'accuratezza delle previsioni e tuning dei modelli

Implementazione di Strumenti di Ottimizzazione Guidati dall'IA

  • Integrazione di framework ML con i controller Kubernetes
  • Distribuzione di loop di controllo intelligenti
  • Estensione di KEDA per la decisione assistita dall'IA

Strategie di Ottimizzazione dei Costi e delle Prestazioni

  • Riduzione dei costi computazionali attraverso il scaling predittivo
  • Miglioramento dell'utilizzo di GPU con la posizionamento guidato da ML
  • Bilanciamento tra latenza, throughput e efficienza

Scenari Pratici e Caso di Utilizzo nel Mondo Reale

  • Autoscaling di applicazioni ad alta carico con l'IA
  • Ottimizzazione di pool di nodi eterogenei
  • Applicazione di ML a ambienti multi-tenant

Riepilogo e Prossimi Passi

Requisiti

  • Conoscenza delle fondamenta di Kubernetes
  • Esperienza con distribuzioni di applicazioni containerizzate
  • Familiarità con le operazioni del cluster e la gestione delle risorse

Pubblico Target

  • SRE che lavorano con sistemi distribuiti su larga scala
  • Operatori Kubernetes che gestiscono workload ad alta domanda
  • Ingegneri di piattaforma che ottimizzano l'infrastruttura computazionale
 21 Ore

Numero di Partecipanti


Prezzo per Partecipante

Recensioni (5)

Corsi in Arrivo

Categorie relative