Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione a Ollama
- Cos'è Ollama e come funziona?
- Vantaggi dell'esecuzione di modelli AI localmente
- Panoramica sui LLM supportati (Llama, DeepSeek, Mistral, ecc.)
Installazione e Configurazione di Ollama
- Requisiti di sistema e considerazioni sul hardware
- Installazione di Ollama su diversi sistemi operativi
- Configurazione delle dipendenze e dell'ambiente di lavoro
Esecuzione dei Modelli AI Localmente
- Download e caricamento dei modelli AI in Ollama
- Interazione con i modelli tramite riga di comando
- Ingegneria basica degli stimoli per compiti locali AI
Ottimizzazione delle Prestazioni e dell'Utilizzo delle Risorse
- Gestione delle risorse hardware per l'esecuzione efficiente di AI
- Riduzione della latenza e miglioramento del tempo di risposta dei modelli
- Benchmarking delle prestazioni per diversi modelli
Use Cases per la Distribuzione Locale dell'AI
- Chatbot e assistenti virtuali alimentati dall'IA
- Processamento dei dati e compiti di automazione
- Applicazioni AI focalizzate sulla privacy
Riepilogo e Passi Successivi
Requisiti
- Comprendimento basilare dei concetti di intelligenza artificiale e machine learning
- Familiarità con le interfacce a riga di comando
Pubblico di riferimento
- Sviluppatori che eseguono modelli AI senza dipendenze dal cloud
- Professionisti interessati alla privacy dell'AI e all'immissione a basso costo
- Enthusiasti dell'IA che esplorano l'immissione dei modelli localmente
7 ore