Corso di formazione Fine-Tuning Large Language Models Using QLoRA
QLoRA è una tecnica avanzata per il fine-tuning di grandi modelli linguistici (LLMs) attraverso l'utilizzo di metodi di quantizzazione, offrendo un modo più efficiente per il fine-tuning di questi modelli senza incorrere in costi computazionali massicci. Questa formazione coprirà sia le basi teoriche che l'implementazione pratica del fine-tuning dei LLMs utilizzando QLoRA.
Questa formazione guidata da un istruttore (online o sul posto) è rivolta a ingegneri di machine learning di livello intermedio e avanzato, sviluppatori AI e scienziati dei dati che desiderano imparare come utilizzare QLoRA per fine-tunare in modo efficiente grandi modelli per specifiche attività e personalizzazioni.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Capire la teoria dietro QLoRA e le tecniche di quantizzazione per LLMs.
- Implementare QLoRA nel fine-tuning di grandi modelli linguistici per applicazioni specifiche al dominio.
- Ottimizzare le prestazioni del fine-tuning su risorse computazionali limitate utilizzando la quantizzazione.
- Distribuire e valutare modelli fine-tunati in applicazioni reali in modo efficiente.
Formato del Corso
- Lectura interattiva e discussione.
- Molte esercitazioni e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
Struttura del corso
Introduzione a QLoRA e Quantizzazione
- Panoramica sulla quantizzazione e il suo ruolo nell'ottimizzazione del modello
- Introduzione al framework QLoRA e i suoi vantaggi
- Differenze chiave tra QLoRA e metodi di tuning tradizionali
Fondamenti di Large Language Models (LLMs)
- Introduzione ai LLM (Large Language Models) e la loro architettura
- Sfide del tuning a grande scala dei modelli grandi
- Come la quantizzazione supera le limitazioni computazionali nel tuning di LLM
Messa in Pratica QLoRA per Fine-Tuning LLMs
- Configurazione del framework e ambiente QLoRA
- Preparazione dei dataset per il tuning con QLoRA
- Guida passo-passo per implementare QLoRA sui LLM utilizzando Python e PyTorch/TensorFlow
Ottimizzazione delle Prestazioni di Fine-Tuning con QLoRA
- Come bilanciare l'accuratezza del modello e le prestazioni con la quantizzazione
- Tecniche per ridurre i costi computazionali e l'utilizzo della memoria durante il tuning
- Strategie per il tuning con requisiti hardware minimi
Valutazione dei Modelli Fine-Tuned
- Come valutare l'efficacia dei modelli fine-tuned
- Metriche di valutazione comuni per i modelli linguistici
- Ottimizzazione delle prestazioni del modello post-tuning e risoluzione dei problemi
Distribuzione e Scalabilità dei Modelli Fine-Tuned
- Best practice per la distribuzione di LLM quantizzati in ambienti di produzione
- Scalabilità della distribuzione per gestire le richieste in tempo reale
- Strumenti e framework per la distribuzione e il monitoraggio del modello
Casi Realistici Use Case e Studi di Caso
- Studio di caso: Fine-tuning dei LLM per supporto al cliente e compiti NLP
- Esempi di fine-tuning dei LLM in vari settori come sanità, finanza ed e-commerce
- Insegnamenti tratti dalle distribuzioni reali di modelli basati su QLoRA
Riepilogo e Prossimi Passaggi
Requisiti
- Una comprensione dei fondamenti dell'apprendimento automatico e delle reti neurali
- Esperienza nella regolazione dei modelli e nell'apprendimento transfer
- Familiarità con i grandi modelli linguistici (LLMs) e i framework di deep learning (ad esempio, PyTorch, TensorFlow)
Pubblico
- Ingegneri dell'apprendimento automatico
- Sviluppatori AI
- Scienziati dei dati
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Fine-Tuning Large Language Models Using QLoRA - Booking
Corso di formazione Fine-Tuning Large Language Models Using QLoRA - Enquiry
Fine-Tuning Large Language Models Using QLoRA - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
Avanzato LangGraph: Ottimizzazione, Debugging e Monitoraggio di Grafi Complessi
35 oreLangGraph è un framework per la costruzione di applicazioni LLM a stato con multi-attori come grafi componibili con uno stato persistente e il controllo dell'esecuzione.
Questo training guidato dall'insegnante (online o in presenza) si rivolge agli ingegneri avanzati di piattaforme AI, a DevOps per l'IA e agli architetti ML che desiderano ottimizzare, debuggare, monitorare ed operare sistemi LangGraph di livello produzione.
Alla fine di questo training, i partecipanti saranno in grado di:
- Progettare e ottimizzare topologie complesse di LangGraph per velocità, costo ed scalabilità.
- Ingenegiare affidabilità con ritentative, timeout, idempotenza e recupero basato su checkpoint.
- Debuggare e tracciare l'esecuzione dei grafi, ispezionare lo stato e riprodurre sistematicamente problemi di produzione.
- Instrumentare i grafi con registri, metriche e tracce, distribuirli in produzione e monitorare SLAs e costi.
Formato del Corso
- Lettura interattiva e discussione.
- Molte esercitazioni e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare l'evento.
Building Coding Agents with Devstral: From Agent Design to Tooling
14 oreDevstral is an open-source framework designed for building and running coding agents that can interact with codebases, developer tools, and APIs to enhance engineering productivity.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level ML engineers, developer-tooling teams, and SREs who wish to design, implement, and optimize coding agents using Devstral.
By the end of this training, participants will be able to:
- Set up and configure Devstral for coding agent development.
- Design agentic workflows for codebase exploration and modification.
- Integrate coding agents with developer tools and APIs.
- Implement best practices for secure and efficient agent deployment.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Open-Source Model Ops: Self-Hosting, Fine-Tuning and Governance with Devstral & Mistral Models
14 oreDevstral and Mistral models are open-source AI technologies designed for flexible deployment, fine-tuning, and scalable integration.
This instructor-led, live training (online or onsite) is aimed at intermediate–level to advanced–level ML engineers, platform teams, and research engineers who wish to self-host, fine-tune, and govern Mistral and Devstral models in production environments.
By the end of this training, participants will be able to:
- Set up and configure self-hosted environments for Mistral and Devstral models.
- Apply fine-tuning techniques for domain-specific performance.
- Implement versioning, monitoring, and lifecycle governance.
- Ensure security, compliance, and responsible usage of open-source models.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises in self-hosting and fine-tuning.
- Live-lab implementation of governance and monitoring pipelines.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Applicazioni di LangGraph nel settore finanziario
35 oreLangGraph è un framework per la creazione di applicazioni LLM stateful e multi-attori come grafi componibili con uno stato persistente e il controllo dell'esecuzione.
Questo addestramento live guidato da un istruttore (online o in presenza) è rivolto a professionisti di livello intermedio e avanzato che desiderano progettare, implementare ed operare soluzioni finanziarie basate su LangGraph con una corretta governance, osservabilità e conformità.
Al termine di questo addestramento, i partecipanti saranno in grado di:
- Progettare flussi di lavoro specifici per le finanze basati su LangGraph allineati ai requisiti regolatori e di audit.
- Integrare standard e ontologie dei dati finanziari nello stato del grafo e nelle strumentazioni.
- Metttere in pratica la affidabilità, la sicurezza e i controlli a ciclo chiuso con l'operatore umano per processi critici.
- Distribuire, monitorare ed ottimizzare sistemi LangGraph per prestazioni, costi e SLA.
Formato del Corso
- Lectura interattiva e discussioni.
- Numerosi esercizi e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni per la Personalizzazione del Corso
- Per richiedere una formazione personalizzata su questo corso, si prega di contattarci per organizzare.
Fondamenti di LangGraph: Promozione e Catena basate su Grafi
14 oreLangGraph è un framework per la costruzione di applicazioni LLM strutturate in grafici che supportano il planning, la ramificazione, l'utilizzo degli strumenti, la memoria e l'esecuzione controllata.
Questo corso interattivo e live (online o presenziale) è rivolto a sviluppatori principianti, engineer di prompt e pratiche di dati che desiderano progettare e costruire workflow LLM flessibili e multistep utilizzando LangGraph.
Alla fine di questo corso, i partecipanti saranno in grado di:
- Spiegare i concetti principali di LangGraph (nodi, archi, stato) e quando usarli.
- Cosrire prompt chain che si ramificano, chiamano strumenti ed eseguono operazioni di memoria.
- Integrare recupero e API esterne nei workflow grafici.
- Testare, debuggare e valutare le applicazioni LangGraph per affidabilità e sicurezza.
Formato del Corso
- Lectura interattiva e discussione guidata.
- Lab e panoramica codice in un ambiente sandbox.
- Esercizi basati su scenari per design, test e valutazione.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare.
LangGraph nella Salute: Orchestrazione dei Flussi di Lavoro per Ambienti Regolamentati
35 oreLangGraph consente flussi di lavoro stateful e multi-attori alimentati da LLM con un controllo preciso sui percorsi di esecuzione e la persistenza dello stato. Nel settore sanitario, queste capacità sono cruciali per la conformità, l'interoperabilità e la costruzione di sistemi di supporto alle decisioni che si integrano nei flussi di lavoro medici.
Questo addestramento interattivo e in diretta (online o su sito) è rivolto a professionisti di livello intermedio a avanzato che desiderano progettare, implementare e gestire soluzioni sanitarie basate su LangGraph, affrontando sfide regolamentari, etiche ed operative.
Al termine di questo addestramento, i partecipanti saranno in grado di:
- Progettare flussi di lavoro di LangGraph specifici per la sanità con attenzione alla conformità e alla tracciabilità.
- Integrare le applicazioni LangGraph con ontologie e standard medici (FHIR, SNOMED CT, ICD).
- Applicare le migliori pratiche per affidabilità, tracciabilità ed esplicabilità in ambienti sensibili.
- Distribuire, monitorare e validare applicazioni LangGraph in contesti di produzione sanitaria.
Formato del Corso
- Lettura interattiva ed esercizi di discussione.
- Esercizi pratici con studi di caso reali.
- Esercitazioni di implementazione in un ambiente live-lab.
Opzioni di Personalizzazione del Corso
- Per richiedere un addestramento personalizzato per questo corso, si prega di contattarci per organizzare.
LangGraph per Applicazioni Legalità
35 oreLangGraph è un framework per la costruzione di applicazioni LLM ad stati multi-attori come grafi componibili con stato persistente e controllo preciso dell'esecuzione.
Questo corso interattivo e guidato dall'insegnante (online o in presenza) è rivolto a professionisti di livello intermediario ed avanzato che desiderano progettare, implementare e operare soluzioni legali basate su LangGraph con i necessari controlli di conformità, tracciabilità e governance.
Al termine di questo corso, i partecipanti saranno in grado di:
- Progettare flussi di lavoro di LangGraph specifici per ambito legale che preservano la tracciabilità e la conformità.
- Integrare ontologie legali e standard documentali nello stato del grafo e nel processo di elaborazione.
- Mettere in pratica barriere, approvazioni a ciclo chiuso con l'intervento umano e percorsi decisionali tracciabili.
- Deployare, monitorare e mantenere i servizi LangGraph in produzione con visibilità operativa e controlli sui costi.
Formato del Corso
- Lettura interattiva e discussione.
- Molte esercitazioni e pratica.
- Esecuzione pratica in un ambiente di laboratorio live.
Opzioni per la Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare l'incontro.
Creazione di Flussi di Lavoro Dinamici con LangGraph e Agenti LLM
14 oreLangGraph è un framework per la creazione di workflow basati su grafi LLM che supportano ramificazioni, uso strumenti, memoria e esecuzione controllabile.
Questo training live guidato da un istruttore (online o presenziale) è rivolto a ingegneri intermedi e team di prodotti che desiderano combinare la logica grafica di LangGraph con i cicli degli agenti LLM per creare applicazioni dinamiche consapevoli del contesto, come agenti supporto clienti, alberi decisionali e sistemi di recupero informazioni.
Al termine di questo training, i partecipanti saranno in grado di:
- Progettare workflow basati su grafi che coordinano agenti LLM, strumenti e memoria.
- Mettere in pratica la routing condizionale, i tentativi ripetuti e le opzioni di fallback per un'esecuzione robusta.
- Integrare il recupero dati, API e output strutturati nei cicli degli agenti.
- Valutare, monitorare e rafforzare il comportamento degli agenti per la affidabilità e la sicurezza.
Formato del Corso
- Lecture interattive e discussioni guidate.
- Laboratori guidati ed esercitazioni di codice in un ambiente sandbox.
- Esercizi di progettazione basati su scenari e recensioni tra pari.
Opzioni per la Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare l'incontro.
LangGraph per l'Automazione del Marketing
14 oreLangGraph è un framework di orchestrazione basato su grafi che consente workflow condizionali e multistep per LLM e strumenti, ideale per automatizzare e personalizzare pipeline di contenuti.
Questo training interattivo guidato da un istruttore (online o in sede) è rivolto a marketer, strategi del contenuto e sviluppatori di automazione di livello intermedio che desiderano implementare campagne email dinamiche e ramificate e pipeline di generazione di contenuti utilizzando LangGraph.
Alla fine di questo training, i partecipanti saranno in grado di:
- Progettare workflow di contenuti e email strutturati su grafi con logica condizionale.
- Integrare LLM, API e fonti di dati per la personalizzazione automatizzata.
- Gestire stato, memoria e contesto attraverso campagne multistep.
- VaLUtARE, monitorare ed ottimizzare le prestazioni dei workflow e gli esiti della consegna.
Formato del Corso
- Lecture interactive e discussioni di gruppo.
- Laboratori pratici per l'implementazione di workflow email e pipeline di contenuti.
- Esercizi basati su scenari sulla personalizzazione, segmentazione e logica ramificata.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso, si prega di contattarci per organizzare.
Le Chat Enterprise: Private ChatOps, Integrations & Admin Controls
14 oreLe Chat Enterprise is a private ChatOps solution that provides secure, customizable, and governed conversational AI capabilities for organizations, with support for RBAC, SSO, connectors, and enterprise app integrations.
This instructor-led, live training (online or onsite) is aimed at intermediate-level product managers, IT leads, solution engineers, and security/compliance teams who wish to deploy, configure, and govern Le Chat Enterprise in enterprise environments.
By the end of this training, participants will be able to:
- Set up and configure Le Chat Enterprise for secure deployments.
- Enable RBAC, SSO, and compliance-driven controls.
- Integrate Le Chat with enterprise applications and data stores.
- Design and implement governance and admin playbooks for ChatOps.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Cost-Effective LLM Architectures: Mistral at Scale (Performance / Cost Engineering)
14 oreMistral is a high-performance family of large language models optimized for cost-effective production deployment at scale.
This instructor-led, live training (online or onsite) is aimed at advanced-level infrastructure engineers, cloud architects, and MLOps leads who wish to design, deploy, and optimize Mistral-based architectures for maximum throughput and minimum cost.
By the end of this training, participants will be able to:
- Implement scalable deployment patterns for Mistral Medium 3.
- Apply batching, quantization, and efficient serving strategies.
- Optimize inference costs while maintaining performance.
- Design production-ready serving topologies for enterprise workloads.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Productizing Conversational Assistants with Mistral Connectors & Integrations
14 oreMistral AI is an open AI platform that enables teams to build and integrate conversational assistants into enterprise and customer-facing workflows.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level product managers, full-stack developers, and integration engineers who wish to design, integrate, and productize conversational assistants using Mistral connectors and integrations.
By the end of this training, participants will be able to:
- Integrate Mistral conversational models with enterprise and SaaS connectors.
- Implement retrieval-augmented generation (RAG) for grounded responses.
- Design UX patterns for internal and external chat assistants.
- Deploy assistants into product workflows for real-world use cases.
Format of the Course
- Interactive lecture and discussion.
- Hands-on integration exercises.
- Live-lab development of conversational assistants.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Enterprise-Grade Deployments with Mistral Medium 3
14 oreMistral Medium 3 is a high-performance, multimodal large language model designed for production-grade deployment across enterprise environments.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level AI/ML engineers, platform architects, and MLOps teams who wish to deploy, optimize, and secure Mistral Medium 3 for enterprise use cases.
By the end of this training, participants will be able to:
- Deploy Mistral Medium 3 using API and self-hosted options.
- Optimize inference performance and costs.
- Implement multimodal use cases with Mistral Medium 3.
- Apply security and compliance best practices for enterprise environments.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Mistral for Responsible AI: Privacy, Data Residency & Enterprise Controls
14 oreMistral AI is an open and enterprise-ready AI platform that provides features for secure, compliant, and responsible AI deployment.
This instructor-led, live training (online or onsite) is aimed at intermediate-level compliance leads, security architects, and legal/ops stakeholders who wish to implement responsible AI practices with Mistral by leveraging privacy, data residency, and enterprise control mechanisms.
By the end of this training, participants will be able to:
- Implement privacy-preserving techniques in Mistral deployments.
- Apply data residency strategies to meet regulatory requirements.
- Set up enterprise-grade controls such as RBAC, SSO, and audit logs.
- Evaluate vendor and deployment options for compliance alignment.
Format of the Course
- Interactive lecture and discussion.
- Compliance-focused case studies and exercises.
- Hands-on implementation of enterprise AI controls.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Multimodal Applications with Mistral Models (Vision, OCR, & Document Understanding)
14 oreMistral models are open-source AI technologies that now extend into multimodal workflows, supporting both language and vision tasks for enterprise and research applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level ML researchers, applied engineers, and product teams who wish to build multimodal applications with Mistral models, including OCR and document understanding pipelines.
By the end of this training, participants will be able to:
- Set up and configure Mistral models for multimodal tasks.
- Implement OCR workflows and integrate them with NLP pipelines.
- Design document understanding applications for enterprise use cases.
- Develop vision-text search and assistive UI functionalities.
Format of the Course
- Interactive lecture and discussion.
- Hands-on coding exercises.
- Live-lab implementation of multimodal pipelines.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.