Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
1. Architettura LLM e Tecniche Fondamentali
- Confronto tra modelli a Decodifica Unica (stile GPT) e modelli a Codifica-Decodifica (stile BERT).
- Approfondimento sui Multi-Head Self-Attention, l'encoding posizionale e la tokenizzazione dinamica.
- Campionamento avanzato: temperatura, top-p, ricerca a fascio, bias sulle logit e penalità sequenziali.
- Analisi comparativa dei modelli principali: GPT-4o, Claude 3 Opus, Gemini 1.5 Flash, Mistral 8×22B, LLaMA 3 70B e varianti quantizzate per edge.
2. Ingegneria delle Prompt Aziendali
- Stratificazione delle prompt: prompt di sistema, prompt contestuale, prompt utente e post-elaborazione della prompt.
- Tecniche per la Chain-of-Thought, ReACT e auto-CoT con variabili dinamiche.
- Progettazione strutturata delle prompt: schema JSON, modelli Markdown, chiamate di funzione YAML.
- Strategie di mitigazione dell'iniezione di prompt: sanitizzazione, limiti di lunghezza, valori predefiniti di fallback.
3. Strumenti AI per gli Sviluppatori
- Panoramica e uso comparativo di GitHub Copilot, Gemini Code Assist, Claude SDKs, Cursor e Cody.
- Best practices per l'integrazione con IntelliJ (Scala) e VSCode (JS/Python).
- Benchmarking interlinguistico per coding, generazione di test e rifattoring.
- Personalizzazione delle prompt per strumento: alias, finestre contestuali, riutilizzo di snippet.
4. Integrazione e Orchestrazione API
- Implementazione della chiamata di funzione OpenAI, schemi API Gemini e Claude SDK end-to-end.
- Gestione delle limitazioni di rate, gestione degli errori, logica di retry e metratura del fatturato.
-
Costruzione di wrapper specifici per linguaggio:
- Scala: Akka HTTP
- Python: FastAPI
- Node.js/TypeScript: Express
- Componenti di LangChain: Memoria, Catene, Agenti, Strumenti, conversazione multi-turn e concatenamento di fallback.
5. Generazione Augmentata da Recupero (RAG)
- Parsing di documenti tecnici: Markdown, PDF, Swagger, CSV con LangChain/LlamaIndex.
- Segmentazione semantica e deduplicazione intelligente.
- Lavoro con gli embeddings: MiniLM, Instructor XL, embedding di OpenAI, embedding locale di Mistral.
- Gestione dei database vettoriali: Weaviate, Qdrant, ChromaDB, Pinecone – ranking e tuning del vicino più vicino.
- Implementazione di fallback a basso livello di confidenza per modelli LLM alternativi o recuperatori.
6. Sicurezza, Privacy e Distribuzione
- Mascheramento PII, controllo della contaminazione delle prompt, sanitizzazione del contesto e crittografia dei token.
- Tracciatura di prompt/output: tracce di audit e ID univoci per ogni chiamata LLM.
- Configurazione di server LLM self-hosted (Ollama + Mistral), ottimizzazione GPU e quantizzazione 4-bit/8-bit.
- Distribuzione basata su Kubernetes: Helm charts, autoscaling e ottimizzazione del warm start.
Laboratori Hands-On
-
Rifattoring JavaScript basato su Prompt
- Prompting multi-step: rilevare code smells → proporre rifattoring → generare test unitari → documentazione inline.
-
Generazione di Test Scala
- Creazione di test basati su proprietà utilizzando Copilot vs Claude; misurare la copertura e la generazione di casi limite.
-
Wrapper AI Microservice
- Endpoint REST che accetta prompt, le inoltra all'LLM tramite chiamata di funzione, registra i risultati e gestisce la logica di fallback.
-
Pipeline RAG Completa
- Documenti simulati → indicizzazione → embedding → recupero → interfaccia di ricerca con metriche di ranking.
-
Distribuzione Multi-Modello
- Configurazione containerizzata con Claude come modello principale e Ollama come fallback quantizzato; monitoraggio tramite Grafana con soglie di avviso.
Consegnabili
- Repository Git condiviso contenente esempi di codice, wrapper e test delle prompt.
- Report di benchmark: latenza, costo dei token, metriche di copertura.
- Dashboard Grafana preconfigurata per il monitoraggio dell'interazione LLM.
- Documentazione tecnica completa in PDF e libreria di prompt versionate.
Risoluzione dei problemi
Riepilogo e Passi Successivi
Requisiti
- Familiarità con almeno un linguaggio di programmazione (Scala, Python o JavaScript).
- Conoscenza di Git, progettazione di API REST e flussi di lavoro CI/CD.
- Comprensione di base dei concetti di Docker e Kubernetes.
- Interesse nell'applicare tecnologie AI/LLM all'ingegneria software aziendale.
Pubblico di Riferimento
- Ingegneri Software e Sviluppatori AI
- Architetti Tecnici e Progettisti di Soluzioni
- DevOps Engineers che implementano pipeline AI
- Team R&D che esplorano lo sviluppo assistito da AI
35 ore
Recensioni (1)
Conoscenza dell'istruttore nell'uso avanzato del copilota & Sessione pratica sufficiente ed efficace
Tan - ViTrox Technologies Sdn Bhd
Corso - Intermediate GitHub Copilot
Traduzione automatica