Corso di formazione Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
L'ottimizzazione di modelli LLM open source è una pratica emergente per le organizzazioni che desiderano personalizzare le capacità AI in ambienti sicuri, efficienti dal punto di vista economico e privati.
Questo training guidato da un istruttore (online o sul posto) si rivolge a praticanti intermedii dell'ML e sviluppatori AI che desiderano ottimizzare e distribuire modelli open-weight come LLaMA, Mistral e Qwen per applicazioni aziendali specifiche o interne.
Al termine di questo training, i partecipanti saranno in grado di:
- Comprendere l'ecosistema e le differenze tra modelli LLM open source.
- Preparare insiemi di dati e configurazioni per l'ottimizzazione per modelli come LLaMA, Mistral e Qwen.
- Eseguire pipeline di ottimizzazione utilizzando Hugging Face Transformers e PEFT.
- Valutare, salvare e distribuire modelli ottimizzati in ambienti sicuri.
Formato del Corso
- Lectura interattiva e discussione.
- Molte esercitazioni e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare la sessione.
Struttura del corso
Introduzione ai Modelli Open-Source LLM
- Cosa sono i modelli a pesi aperti e perché sono importanti
- Panoramica di LLaMA, Mistral, Qwen e altri modelli della comunità
- Casi d'uso per distribuzioni private, on-premise o sicure
Configurazione dell'Ambiente e Strumenti
- Installazione e configurazione delle librerie Transformers, Datasets e PEFT
- Scegliere l'hardware appropriato per il fine-tuning
- Caricare modelli pre-addestrati da Hugging Face o altri repository
Preparazione dei Dati e Preprocessing
- Formati di dataset (addestramento su istruzioni, dati chat, solo testo)
- Tokenizzazione e gestione delle sequenze
- Crea dataset personalizzati e loader di dati
Tecniche Fine-Tuning
- Fine-tuning standard vs. metodi efficienti in termini di parametri
- L'applicazione di LoRA e QLoRA per un fine-tuning efficiente
- Utilizzo dell'API Trainer per esperimenti rapidi
Valutazione e Ottimizzazione del Modello
- Valutare i modelli fine-tunati con metriche di generazione e precisione
- Gestire l'overfitting, la generalizzazione e gli insiemi di validazione
- Suggerimenti per l'ottimizzazione delle prestazioni e il logging
Distribuzione e Uso Privato
- Salvataggio e caricamento dei modelli per l'inferenza
- Distribuire modelli fine-tunati in ambienti aziendali sicuri
- Strategie di distribuzione on-premise vs. cloud
Casi di Studio e Use Cases
- Esempi di utilizzo aziendale di LLaMA, Mistral e Qwen
- Gestire il fine-tuning multilingue e specifico per settore
- Dibattito: compromessi tra modelli aperti e chiusi
Riepilogo e Prossimi Passaggi
Requisiti
- Una comprensione dei modelli linguistici a vasta scala (LLMs) e della loro architettura
- Esperienza con Python e PyTorch
- Familiarità di base con l'ecosistema Hugging Face
Pubblico
- Praticanti di ML
- Sviluppatori AI
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Booking
Corso di formazione Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Enquiry
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
Advanced Techniques in Transfer Learning
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti dell'apprendimento automatico di livello avanzato che desiderano padroneggiare tecniche di transfer learning all'avanguardia e applicarle a problemi complessi del mondo reale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere concetti e metodologie avanzate nell'apprendimento di trasferimento.
- Implementare tecniche di adattamento specifiche del dominio per modelli pre-addestrati.
- Applica l'apprendimento continuo per gestire attività e set di dati in evoluzione.
- Padroneggia la messa a punto multi-task per migliorare le prestazioni del modello in tutte le attività.
AI Automation with n8n and LangChain
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a sviluppatori e professionisti IT di tutti i livelli di competenza che desiderano automatizzare attività e processi utilizzando l'intelligenza artificiale senza scrivere codice esteso.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Progetta e implementa flussi di lavoro complessi utilizzando l'interfaccia di programmazione visiva di n8n.
- Integra le funzionalità di intelligenza artificiale nei flussi di lavoro utilizzando LangChain.
- Crea chatbot e assistenti virtuali personalizzati per vari casi d'uso.
- Esegui analisi ed elaborazione avanzate dei dati con agenti di intelligenza artificiale.
Automating Workflows with LangChain and APIs
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto ad analisti aziendali e ingegneri dell'automazione di livello principiante che desiderano capire come utilizzare LangChain e le API per automatizzare attività e flussi di lavoro ripetitivi.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere le basi dell'integrazione API con LangChain.
- Automatizza i flussi di lavoro ripetitivi utilizzando LangChain e Python.
- Utilizza LangChain per connettere varie API per processi aziendali efficienti.
- Crea e automatizza flussi di lavoro personalizzati utilizzando le API e le funzionalità di automazione di LangChain.
Building Conversational Agents with LangChain
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello intermedio che desiderano approfondire la loro comprensione degli agenti conversazionali e applicare LangChain a casi d'uso del mondo reale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere i fondamenti di LangChain e la sua applicazione nella creazione di agenti conversazionali.
- Sviluppare e distribuire agenti conversazionali utilizzando LangChain.
- Integra gli agenti conversazionali con API e servizi esterni.
- Applicare Natural Language Processing (NLP) tecniche per migliorare le prestazioni degli agenti conversazionali.
Building Private AI Workflows with Ollama
14 oreQuesta formazione dal vivo condotta da un istruttore in Italia (online o in loco) è rivolta a professionisti di livello avanzato che desiderano implementare flussi di lavoro basati sull'intelligenza artificiale sicuri ed efficienti utilizzando Ollama.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Distribuire e configurare Ollama per l'elaborazione AI privata.
- Integrare modelli di intelligenza artificiale nei flussi di lavoro aziendali sicuri.
- Ottimizza le prestazioni dell'intelligenza artificiale mantenendo la riservatezza dei dati.
- Automatizza i processi aziendali con funzionalità di intelligenza artificiale on-premise.
- Garantire la conformità alle policy di sicurezza e governance aziendali.
Deploying Fine-Tuned Models in Production
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti di livello avanzato che desiderano implementare modelli ottimizzati in modo affidabile ed efficiente.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi le sfide legate all'implementazione di modelli ottimizzati nell'ambiente di produzione.
- Containerizza e distribuisci i modelli utilizzando strumenti come Docker e Kubernetes.
- Implementare il monitoraggio e la registrazione per i modelli distribuiti.
- Ottimizza i modelli per la latenza e la scalabilità in scenari reali.
Deploying and Optimizing LLMs with Ollama
14 oreQuesta formazione dal vivo condotta da un istruttore in Italia (online o in loco) è rivolta ai professionisti di livello intermedio che desiderano distribuire, ottimizzare e integrare LLM utilizzando Ollama.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Impostare e distribuire LLM utilizzando Ollama.
- Ottimizza i modelli di intelligenza artificiale per migliorare prestazioni ed efficienza.
- Sfruttare l'accelerazione GPU per migliorare la velocità di inferenza.
- Integrare Ollama nei flussi di lavoro e nelle applicazioni.
- Monitorare e mantenere le prestazioni del modello di intelligenza artificiale nel tempo.
Ethical Considerations in AI Development with LangChain
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a ricercatori di intelligenza artificiale di livello avanzato e responsabili politici che desiderano esplorare le implicazioni etiche dello sviluppo dell'intelligenza artificiale e imparare come applicare le linee guida etiche durante la creazione di soluzioni di intelligenza artificiale con LangChain.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Identificare le questioni etiche chiave nello sviluppo dell'IA con LangChain.
- Comprendi l'impatto dell'IA sulla società e sui processi decisionali.
- Sviluppare strategie per la creazione di sistemi di intelligenza artificiale equi e trasparenti.
- Implementa le linee guida etiche sull'intelligenza artificiale nei progetti basati su LangChain.
Enhancing User Experience with LangChain in Web Apps
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a sviluppatori web di livello intermedio e UX designer che desiderano sfruttare LangChain per creare applicazioni web intuitive e facili da usare.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendere i concetti fondamentali di LangChain e il suo ruolo nel migliorare l'esperienza dell'utente web.
- Implementa LangChain nelle app Web per creare interfacce dinamiche e reattive.
- Integra le API nelle app Web per migliorare l'interattività e il coinvolgimento degli utenti.
- Ottimizza l'esperienza utente utilizzando le funzionalità di personalizzazione avanzate di LangChain.
- Analizza i dati sul comportamento degli utenti per ottimizzare le prestazioni e l'esperienza delle app Web.
Fine-Tuning and Customizing AI Models on Ollama
14 oreQuesta formazione dal vivo condotta da un istruttore in Italia (online o in loco) è rivolta a professionisti di livello avanzato che desiderano perfezionare e personalizzare i modelli di intelligenza artificiale su Ollama per prestazioni migliorate e applicazioni specifiche del dominio.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Impostare un ambiente efficiente per la messa a punto dei modelli di intelligenza artificiale su Ollama.
- Preparare set di dati per la messa a punto supervisionata e l'apprendimento per rinforzo.
- Ottimizza i modelli di intelligenza artificiale per prestazioni, precisione ed efficienza.
- Distribuisci modelli personalizzati in ambienti di produzione.
- Valutare i miglioramenti del modello e garantirne la robustezza.
LangChain: Building AI-Powered Applications
14 oreQuesta formazione dal vivo con istruttore in Italia (online o in loco) è rivolta a sviluppatori e ingegneri del software di livello intermedio che desiderano creare applicazioni basate sull'intelligenza artificiale utilizzando il framework LangChain.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendere i fondamenti di LangChain e dei suoi componenti.
- Integra LangChain con modelli linguistici di grandi dimensioni (LLM) come GPT-4.
- Crea applicazioni AI modulari utilizzando LangChain.
- Risolvi i problemi comuni nelle applicazioni LangChain.
Integrating LangChain with Cloud Services
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a data engineer di livello avanzato e DevOps professionisti che desiderano sfruttare le capacità di LangChain integrandolo con vari servizi cloud.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Integra LangChain con le principali piattaforme cloud come AWS, Azure e Google Cloud.
- Utilizza API e servizi basati su cloud per migliorare le applicazioni basate su LangChain.
- Ridimensiona e distribuisci agenti conversazionali nel cloud per l'interazione in tempo reale.
- Implementa le best practice di monitoraggio e sicurezza negli ambienti cloud.
LangChain for Data Analysis and Visualization
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a professionisti dei dati di livello intermedio che desiderano utilizzare LangChain per migliorare le proprie capacità di analisi e visualizzazione dei dati.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Automatizza il recupero e la pulizia dei dati utilizzando LangChain.
- Conduci analisi avanzate dei dati utilizzando Python e LangChain.
- Crea visualizzazioni con Matplotlib e altre librerie Python integrate con LangChain.
- Sfrutta LangChain per generare informazioni dettagliate in linguaggio naturale dall'analisi dei dati.
LangChain Fundamentals
14 oreQuesta formazione dal vivo con istruttore in Italia (online o in loco) è rivolta a sviluppatori e ingegneri del software di livello principiante e intermedio che desiderano apprendere i concetti fondamentali e l'architettura di LangChain e acquisire le competenze pratiche per la creazione di applicazioni basate sull'intelligenza artificiale.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendere i principi fondamentali di LangChain.
- Impostare e configurare l'ambiente LangChain.
- Comprendere l'architettura e il modo in cui LangChain interagisce con i modelli linguistici di grandi dimensioni (LLM).
- Sviluppa applicazioni semplici utilizzando LangChain.
Getting Started with Ollama: Running Local AI Models
7 oreQuesta formazione dal vivo condotta da un istruttore in Italia (online o in loco) è rivolta ai professionisti principianti che desiderano installare, configurare e utilizzare Ollama per eseguire modelli di intelligenza artificiale sui propri computer locali.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendere i fondamenti di Ollama e le sue capacità.
- Impostare Ollama per l'esecuzione di modelli di intelligenza artificiale locali.
- Distribuire e interagire con LLM utilizzando Ollama.
- Ottimizza le prestazioni e l'utilizzo delle risorse per i carichi di lavoro dell'intelligenza artificiale.
- Esplora i casi d'uso per l'implementazione locale dell'intelligenza artificiale in vari settori.