Corso di formazione Deploying and Optimizing LLMs with Ollama Deploying and Ottimizzazione di Modelli Linguistici Large (LLM) con Ollama
Ollama fornisce un modo efficiente per distribuire ed eseguire modelli linguistici di grandi dimensioni (LLM) localmente o in ambienti di produzione, offrendo il controllo su prestazioni, costi e sicurezza.
Questa formazione dal vivo condotta da un istruttore (online o in loco) è rivolta a professionisti di livello intermedio che desiderano implementare, ottimizzare e integrare LLM utilizzando Ollama.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Impostare e distribuire LLM utilizzando Ollama.
- Ottimizza i modelli di intelligenza artificiale per migliorare prestazioni ed efficienza.
- Sfruttare l'accelerazione GPU per migliorare la velocità di inferenza.
- Integrare Ollama nei flussi di lavoro e nelle applicazioni.
- Monitorare e mantenere le prestazioni del modello di intelligenza artificiale nel tempo.
Formato del corso
- Lezione interattiva e discussione.
- Tanti esercizi e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare il tutto.
Struttura del corso
Introduzione a Ollama per l'implementazione LLM
- Panoramica delle capacità di Ollama
- Vantaggi dell'implementazione del modello di intelligenza artificiale locale
- Confronto con soluzioni di hosting AI basate su cloud
Impostazione dell'ambiente di distribuzione
- Installazione Ollama e dipendenze richieste
- Configurazione hardware e accelerazione GPU
- Dockerizing Ollama per distribuzioni scalabili
Distribuzione di LLM con Ollama
- Caricamento e gestione dei modelli AI
- Dispiegamento di Llama 3, DeepSeek, Mistral e altri modelli
- Creazione di API ed endpoint per l'accesso al modello AI
Ottimizzazione delle prestazioni LLM
- Modelli di messa a punto per l'efficienza
- Riduzione della latenza e miglioramento dei tempi di risposta
- Gestione della memoria e dell'allocazione delle risorse
Integrazione di Ollama nei flussi di lavoro AI
- Connessione Ollama ad applicazioni e servizi
- Automazione dei processi basati sull'intelligenza artificiale
- Utilizzo di Ollama in ambienti di edge computing
Monitoraggio e manutenzione
- Monitoraggio delle prestazioni e problemi di debug
- Aggiornamento e gestione dei modelli di intelligenza artificiale
- Garantire la sicurezza e la conformità nelle distribuzioni di intelligenza artificiale
Scalabilità delle distribuzioni dei modelli di intelligenza artificiale
- Le migliori pratiche per gestire carichi di lavoro elevati
- Scalabilità Ollama per casi d'uso aziendali
- Futuri progressi nell'implementazione del modello di intelligenza artificiale locale
Riepilogo e passaggi successivi
Requisiti
- Esperienza di base con modelli di apprendimento automatico e intelligenza artificiale
- Familiarità con le interfacce della riga di comando e gli script
- Comprensione degli ambienti di distribuzione (locale, edge, cloud)
Pubblico
- Ingegneri di intelligenza artificiale che ottimizzano le distribuzioni di intelligenza artificiale locali e basate sul cloud
- Professionisti dell'apprendimento automatico che implementano e perfezionano gli LLM
- DevOps specialisti nella gestione dell'integrazione dei modelli di intelligenza artificiale
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Deploying and Optimizing LLMs with Ollama Deploying and Ottimizzazione di Modelli Linguistici Large (LLM) con Ollama - Prenotazione
Corso di formazione Deploying and Optimizing LLMs with Ollama Deploying and Ottimizzazione di Modelli Linguistici Large (LLM) con Ollama - Richiesta
Deploying and Optimizing LLMs with Ollama Deploying and Ottimizzazione di Modelli Linguistici Large (LLM) con Ollama - Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
Avanzato Debugging e Valutazione del Modello Ollama
35 oreL'Advanced Ollama Model Debugging & Evaluation è un corso approfondito focalizzato sulla diagnosi, testing e misurazione del comportamento dei modelli durante l'esecuzione di distribuzioni locali o private di Ollama.
Questo training interattivo e guidato dall'insegnante (online o sul posto) è rivolto a ingegneri AI avanzati, professionisti ML Ops e praticanti QA che desiderano garantire affidabilità, fedeltà ed essere pronti operativamente per modelli basati su Ollama in produzione.
Alla fine di questo training, i partecipanti saranno in grado di:
- Eseguire un debugging sistematico dei modelli ospitati da Ollama e riprodurre modalità di fallimento in modo affidabile.
- Progettare ed eseguire pipeline di valutazione robuste con metriche quantitative e qualitative.
- Mettere in pratica l'osservabilità (log, tracce, metriche) per monitorare la salute e il deragging del modello.
- Automatizzare i test, la validazione e i controlli di regressione integrati nelle pipeline CI/CD.
Formato del Corso
- Lecture interattive e discussioni.
- Laboratori pratici ed esercizi di debugging utilizzando distribuzioni Ollama.
- Casi di studio, sessioni collettive di risoluzione dei problemi e workshop automatizzati.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare.
Creazione di Flussi di Lavoro Privati AI con Ollama
14 oreQuesto training guidato dall'instruttore (online o in sede) è rivolto a professionisti di livello avanzato che desiderano implementare flussi di lavoro guidati da AI sicuri ed efficienti utilizzando Ollama.
Al termine di questo training, i partecipanti saranno in grado di:
- Distribuire e configurare Ollama per il processamento AI privato.
- Integrare modelli AI nei flussi di lavoro aziendali sicuri.
- Ottimizzare le prestazioni AI mantenendo la privacy dei dati.
- Automatizzare i processi aziendali con capacità AI on-premise.
- Garantire la conformità con le politiche di sicurezza e governance aziendali.
Fine-Tuning e Personalizzazione dei Modelli AI su Ollama
14 oreQuesto training guidato da un istruttore (online o in sede) è rivolto a professionisti di livello avanzato che desiderano fine-tuning e personalizzare i modelli AI su Ollama per migliorare le prestazioni e le applicazioni specifiche del dominio.
Al termine di questo training, i partecipanti saranno in grado di:
- Configurare un ambiente efficiente per il fine-tuning dei modelli AI su Ollama.
- Preparare i dataset per il fine-tuning supervisionato e l'apprendimento per rinforzo.
- Ottimizzare i modelli AI per prestazioni, accuratezza ed efficienza.
- Distribuire i modelli personalizzati in ambienti di produzione.
- Valutare le miglioramenti dei modelli e garantirne la robustezza.
Applicazioni Multimodali con Ollama
21 oreOllama è una piattaforma che consente di eseguire e affinare modelli linguistici e multimodali su larga scala in locale.
Questo corso live, guidato da un istruttore (online o presenza), si rivolge a ingegneri ML avanzati, ricercatori AI e sviluppatori di prodotti che desiderano costruire e distribuire applicazioni multimodali con Ollama.
Alla fine di questo corso, i partecipanti saranno in grado di:
- Configurare ed eseguire modelli multimodali con Ollama.
- Integrare input di testo, immagini e audio per applicazioni reali.
- Sviluppare sistemi di comprensione documentale e QA visuale.
- Sviluppare agenti multimodali in grado di ragionare tra diverse modalità.
Formato del Corso
- Lecture interattive e discussioni.
- Esercitazioni pratiche con dataset multimodali reali.
- Implementazione in laboratorio live di pipeline multimodalità utilizzando Ollama.
Opzioni per la Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare l'evento.
Introduzione a Ollama: Esecuzione di Modelli AI Locali
7 oreQuesto training guidato dal formatore (online o in sede) è rivolto a professionisti di livello base che desiderano installare, configurare e utilizzare Ollama per eseguire modelli AI sulle loro macchine locali.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere le basi di Ollama e le sue funzionalità.
- Configurare Ollama per l'esecuzione di modelli AI locali.
- Distribuire e interagire con i LLMs utilizzando Ollama.
- Ottimizzare le prestazioni e l'uso delle risorse per carichi di lavoro AI.
- Esplorare i casi d'uso della distribuzione locale AI in vari settori.
Ollama & Privacy dei Dati: Pattern di Deploy Sicuri
14 oreOllama è una piattaforma che consente di eseguire modelli linguistici e multimediali di grandi dimensioni in locale, supportando strategie di deploy sicure.
Questo corso di formazione diretto da un istruttore (online o sul posto) si rivolge a professionisti intermedi che desiderano deployare Ollama con misure rigide di privacy dei dati e conformità normativa.
Al termine di questo training, i partecipanti saranno in grado di:
- Eseguire il deploy sicuro di Ollama in ambienti containerizzati e locali.
- Applicare tecniche di privacy differenziale per proteggere dati sensibili.
- Mettere in pratica procedure di logging, monitoraggio e auditing sicuri.
- Sempreare il controllo dell'accesso ai dati alineato con i requisiti di conformità.
Formato del Corso
- Lecture interattiva e discussione.
- Laboratori pratici con modelli di deploy sicuri.
- Casi studio e esercizi pratica focalizzati sulla conformità.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare.
Applicazioni di Ollama nel Settore Finanziario
14 oreOllama è una piattaforma leggera per l'esecuzione di modelli linguistici a grande scala in locale.
Questo corso di formazione guidato dall'instruttore (online o in loco) è rivolto a professionisti finanziari e personale IT intermedi che desiderano implementare, personalizzare e operativizzare soluzioni AI basate su Ollama negli ambienti finanziari.
Completando questo corso, i partecipanti acquisiranno le competenze necessarie per:
- Distribuire e configurare Ollama per un utilizzo sicuro nelle operazioni finanziarie.
- Integrare i modelli LLM locali nei flussi di lavoro analitici e di reporting.
- Adattare i modelli alla terminologia specifica del settore finanziario e alle relative attività.
- Applicare le migliori pratiche per la sicurezza, la privacy e il compliance.
Formato del Corso
- Lezione interattiva e discussione.
- Esercizi pratici con dati finanziari.
- Implementazione in laboratorio di scenari focalizzati sul settore finanziario.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare l'evento.
Applicazioni di Ollama in Sanità
14 oreOllama è una piattaforma leggera per l'esecuzione locale di grandi modelli linguistici.
Questa formazione guidata da un istruttore, erogata in diretta (online o in sede), è rivolta a professionisti sanitari e team IT di livello intermedio che desiderano implementare, personalizzare e mettere in produzione soluzioni AI basate su Ollama in ambienti clinici e amministrativi.
Alla conclusione di questo corso, i partecipanti saranno in grado di:
- Installare e configurare Ollama per un utilizzo sicuro in contesti sanitari.
- Integrare LLM locali nei flussi di lavoro clinici e nei processi amministrativi.
- Personalizzare i modelli per terminologie e compiti specifici del settore sanitario.
- Applicare le migliori pratiche in materia di privacy, sicurezza e conformità normativa.
Formato del corso
- Lezioni interattive e discussioni.
- Dimostrazioni pratiche ed esercizi guidati.
- Implementazione concreta in un ambiente di simulazione sanitaria protetto (sandbox).
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, contattaci per organizzare la sessione.
Ollama: Modelli Linguistici di Grandi Dimensioni Self-Hosted che Sostituiscono le API di OpenAI e Claude
14 oreOllama è uno strumento open-source per l'esecuzione locale di modelli linguistici di grandi dimensioni (LLM) su hardware consumer ed enterprise. Astrae la quantizzazione dei modelli, l'allocazione delle GPU e il servizio API in un'unica interfaccia a riga di comando, consentendo alle organizzazioni di ospitare autonomamente LLM come Llama, Mistral e Qwen senza inviare prompt o dati a OpenAI, Anthropic o Google.
Ollama per l'AI Responsabile e la Governance
14 oreOllama è una piattaforma per eseguire modelli di linguaggio e multimodalità grandi in locale, supportando pratiche di governance e AI responsabile.
Questo training guidato da un istruttore (online o sul posto) è rivolto a professionisti intermedi-avanzati che desiderano implementare equità, trasparenza ed accountability nelle applicazioni basate su Ollama.
Al termine di questo training, i partecipanti saranno in grado di:
- Applicare principi di AI responsabile nelle distribuzioni di Ollama.
- Mettere in pratica strategie di filtraggio del contenuto e mitigazione dei bias.
- Disegnare workflow di governance per l'allineamento AI ed esperienza di auditablezza.
- Eseguire monitoraggio e strutture di reporting per la conformità.
Formato del Corso
- Lecture interattiva e discussione.
- Laboratori pratici di progettazione dei workflow di governance.
- Casi studio ed esercizi focalizzati sulla conformità.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare.
Ottimizzazione e Scalabilità di Ollama
21 oreOllama è una piattaforma per eseguire modelli di linguaggio e multimodali localmente e a grande scala.
Questo corso interattivo e guidato da un istruttore (online o in sede) si rivolge a ingegneri di livello intermedio e avanzato che desiderano scalare le distribuzioni Ollama per ambienti multiutente, ad alta throughput ed efficienti dal punto di vista dei costi.
Al termine del corso, i partecipanti saranno in grado di:
- Configurare Ollama per carichi di lavoro multiutente e distribuiti.
- Ottimizzare l'allocazione delle risorse GPU e CPU.
- Mettere in pratica strategie di autoscaling, batching e riduzione della latenza.
- Monitorare ed ottimizzare l'infrastruttura per performance e efficienza dei costi.
Formato del Corso
- Lettura interattiva e discussione.
- Laboratori pratici di deploy e scaling.
- Esercizi di ottimizzazione pratici in ambienti live.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, contattateci per organizzare l'incontro.
Padronizzazione dell'Ingegneria dei Prompts con Ollama
14 oreOllama è una piattaforma che consente di eseguire modelli linguistici e multimodalità di grandi dimensioni in locale.
Questo training guidato da un istruttore (online o sul posto) è rivolto a praticanti di livello intermedio che desiderano padroneggiare le tecniche di ingegneria dei prompts per ottimizzare i risultati di Ollama.
Al termine di questo training, i partecipanti saranno in grado di:
- Progettare prompts efficaci per diverse situazioni d'uso.
- Applicare tecniche come il priming e la strutturazione a catena di pensiero.
- Implementare modelli di prompts e strategie di gestione del contesto.
- Costruire pipeline di prompting multi-stage per flussi di lavoro complessi.
Formato del Corso
- Lezione interattiva e discussione.
- Esercizi pratici con la progettazione di prompts.
- Implementazione pratica in un ambiente live-lab.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare.