Struttura del corso

Introduzione a Ollama

  • Cos'è Ollama e come funziona?
  • Benefici dell'esecuzione di modelli AI localmente
  • Panoramica dei LLMs supportati (Llama, DeepSeek, Mistral, ecc.)

Installazione e Configurazione di Ollama

  • Requisiti di sistema e considerazioni hardware
  • Installazione di Ollama su diversi sistemi operativi
  • Configurazione delle dipendenze e impostazione dell'ambiente

Esecuzione di Modelli AI Localmente

  • Download e caricamento dei modelli AI in Ollama
  • Interazione con i modelli tramite la riga di comando
  • Ingegneria delle prompt per compiti AI locali

Ottimizzazione delle Prestazioni e dell'Uso delle Risorse

  • Gestione delle risorse hardware per un'esecuzione efficiente di AI
  • Riduzione della latenza e miglioramento del tempo di risposta dei modelli
  • Benchmarking delle prestazioni per diversi modelli

Casi d'Uso per la Distribuzione Locale AI

  • Chatbot e assistenti virtuali basati su AI
  • Elaborazione dei dati e compiti di automazione
  • Applicazioni AI focalizzate sulla privacy

Riepilogo e Prossimi Passi

Requisiti

  • Conoscenze di base su AI e concetti di machine learning
  • Familiarità con le interfacce a riga di comando

Pubblico

  • Sviluppatori che eseguono modelli AI senza dipendenze cloud
  • Professionisti aziendali interessati alla privacy e al costo efficace della distribuzione AI
  • Appassionati di AI che esplorano la distribuzione locale dei modelli
 7 Ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative