Struttura del corso

1. Architettura LLM e Tecniche Fondamentali

  • Confronto tra modelli a Decodifica Unica (stile GPT) e modelli a Codifica-Decodifica (stile BERT).
  • Approfondimento sui Multi-Head Self-Attention, l'encoding posizionale e la tokenizzazione dinamica.
  • Campionamento avanzato: temperatura, top-p, ricerca a fascio, bias sulle logit e penalità sequenziali.
  • Analisi comparativa dei modelli principali: GPT-4o, Claude 3 Opus, Gemini 1.5 Flash, Mistral 8×22B, LLaMA 3 70B e varianti quantizzate per edge.

2. Ingegneria delle Prompt Aziendali

  • Stratificazione delle prompt: prompt di sistema, prompt contestuale, prompt utente e post-elaborazione della prompt.
  • Tecniche per la Chain-of-Thought, ReACT e auto-CoT con variabili dinamiche.
  • Progettazione strutturata delle prompt: schema JSON, modelli Markdown, chiamate di funzione YAML.
  • Strategie di mitigazione dell'iniezione di prompt: sanitizzazione, limiti di lunghezza, valori predefiniti di fallback.

3. Strumenti AI per gli Sviluppatori

  • Panoramica e uso comparativo di GitHub Copilot, Gemini Code Assist, Claude SDKs, Cursor e Cody.
  • Best practices per l'integrazione con IntelliJ (Scala) e VSCode (JS/Python).
  • Benchmarking interlinguistico per coding, generazione di test e rifattoring.
  • Personalizzazione delle prompt per strumento: alias, finestre contestuali, riutilizzo di snippet.

4. Integrazione e Orchestrazione API

  • Implementazione della chiamata di funzione OpenAI, schemi API Gemini e Claude SDK end-to-end.
  • Gestione delle limitazioni di rate, gestione degli errori, logica di retry e metratura del fatturato.
  • Costruzione di wrapper specifici per linguaggio:
    • Scala: Akka HTTP
    • Python: FastAPI
    • Node.js/TypeScript: Express
  • Componenti di LangChain: Memoria, Catene, Agenti, Strumenti, conversazione multi-turn e concatenamento di fallback.

5. Generazione Augmentata da Recupero (RAG)

  • Parsing di documenti tecnici: Markdown, PDF, Swagger, CSV con LangChain/LlamaIndex.
  • Segmentazione semantica e deduplicazione intelligente.
  • Lavoro con gli embeddings: MiniLM, Instructor XL, embedding di OpenAI, embedding locale di Mistral.
  • Gestione dei database vettoriali: Weaviate, Qdrant, ChromaDB, Pinecone – ranking e tuning del vicino più vicino.
  • Implementazione di fallback a basso livello di confidenza per modelli LLM alternativi o recuperatori.

6. Sicurezza, Privacy e Distribuzione

  • Mascheramento PII, controllo della contaminazione delle prompt, sanitizzazione del contesto e crittografia dei token.
  • Tracciatura di prompt/output: tracce di audit e ID univoci per ogni chiamata LLM.
  • Configurazione di server LLM self-hosted (Ollama + Mistral), ottimizzazione GPU e quantizzazione 4-bit/8-bit.
  • Distribuzione basata su Kubernetes: Helm charts, autoscaling e ottimizzazione del warm start.

Laboratori Hands-On

  1. Rifattoring JavaScript basato su Prompt
    • Prompting multi-step: rilevare code smells → proporre rifattoring → generare test unitari → documentazione inline.
  2. Generazione di Test Scala
    • Creazione di test basati su proprietà utilizzando Copilot vs Claude; misurare la copertura e la generazione di casi limite.
  3. Wrapper AI Microservice
    • Endpoint REST che accetta prompt, le inoltra all'LLM tramite chiamata di funzione, registra i risultati e gestisce la logica di fallback.
  4. Pipeline RAG Completa
    • Documenti simulati → indicizzazione → embedding → recupero → interfaccia di ricerca con metriche di ranking.
  5. Distribuzione Multi-Modello
    • Configurazione containerizzata con Claude come modello principale e Ollama come fallback quantizzato; monitoraggio tramite Grafana con soglie di avviso.

Consegnabili

  • Repository Git condiviso contenente esempi di codice, wrapper e test delle prompt.
  • Report di benchmark: latenza, costo dei token, metriche di copertura.
  • Dashboard Grafana preconfigurata per il monitoraggio dell'interazione LLM.
  • Documentazione tecnica completa in PDF e libreria di prompt versionate.

Risoluzione dei problemi

Riepilogo e Passi Successivi

Requisiti

  • Familiarità con almeno un linguaggio di programmazione (Scala, Python o JavaScript).
  • Conoscenza di Git, progettazione di API REST e flussi di lavoro CI/CD.
  • Comprensione di base dei concetti di Docker e Kubernetes.
  • Interesse nell'applicare tecnologie AI/LLM all'ingegneria software aziendale.

Pubblico di Riferimento

  • Ingegneri Software e Sviluppatori AI
  • Architetti Tecnici e Progettisti di Soluzioni
  • DevOps Engineers che implementano pipeline AI
  • Team R&D che esplorano lo sviluppo assistito da AI
 35 ore

Numero di Partecipanti


Prezzo per partecipante

Recensioni (1)

Corsi in Arrivo

Categorie relative