Struttura del corso

Introduzione a Ollama

  • Cos'è Ollama e come funziona?
  • Vantaggi dell'esecuzione di modelli AI localmente
  • Panoramica sui LLM supportati (Llama, DeepSeek, Mistral, ecc.)

Installazione e Configurazione di Ollama

  • Requisiti di sistema e considerazioni sul hardware
  • Installazione di Ollama su diversi sistemi operativi
  • Configurazione delle dipendenze e dell'ambiente di lavoro

Esecuzione dei Modelli AI Localmente

  • Download e caricamento dei modelli AI in Ollama
  • Interazione con i modelli tramite riga di comando
  • Ingegneria basica degli stimoli per compiti locali AI

Ottimizzazione delle Prestazioni e dell'Utilizzo delle Risorse

  • Gestione delle risorse hardware per l'esecuzione efficiente di AI
  • Riduzione della latenza e miglioramento del tempo di risposta dei modelli
  • Benchmarking delle prestazioni per diversi modelli

Use Cases per la Distribuzione Locale dell'AI

  • Chatbot e assistenti virtuali alimentati dall'IA
  • Processamento dei dati e compiti di automazione
  • Applicazioni AI focalizzate sulla privacy

Riepilogo e Passi Successivi

Requisiti

  • Comprendimento basilare dei concetti di intelligenza artificiale e machine learning
  • Familiarità con le interfacce a riga di comando

Pubblico di riferimento

  • Sviluppatori che eseguono modelli AI senza dipendenze dal cloud
  • Professionisti interessati alla privacy dell'AI e all'immissione a basso costo
  • Enthusiasti dell'IA che esplorano l'immissione dei modelli localmente
 7 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative