Struttura del corso
Modulo 1: Python Core per i Workflow ML
• Avvio del corso e setup dell'ambiente
Allineamento degli obiettivi e configurazione di un ambiente Python ML riproducibile
• Elementi essenziali del linguaggio Python (corsa veloce)
Rivedere la sintassi, il controllo del flusso, le funzioni e i pattern comunemente utilizzati nelle codebase ML
• Strutture dati per ML
Liste, dizionari, set e tuple per feature, etichette e metadati
• Comprehensions e strumenti funzionali
Esprimere trasformazioni utilizzando le comprehensions e le funzioni di ordine superiore
• Python orientato agli oggetti per sviluppatori ML
Classi, metodi, composizione e decisioni di progettazione pratiche
• dataclasses e modellazione leggera
Contenitori tipizzati per configurazione, esempi e risultati
• Decoratori e gestori di contesto
Timing, caching, logging e pattern di esecuzione sicura delle risorse
• Lavorare con file e percorsi
Gestione robusta dei dataset e formati di serializzazione
• Eccezioni e programmazione difensiva
Scrivere script ML che falliscono in modo sicuro e trasparente
• Moduli, pacchetti e struttura del progetto
Organizzare codebase ML riutilizzabili
• Typing e qualità del codice
Suggerimenti di tipo, documentazione e struttura amichevole con lint
Modulo 2: Python Numerico, SciPy e Gestione dei Dati
• Fondamenti di NumPy per il calcolo vettorizzato
Operazioni efficienti su array e codifica consapevole delle prestazioni
• Indicizzazione, slicing, broadcasting e shape
Manipolazione sicura di tensori e ragionamento sulla forma
• Algebra lineare essenziale con NumPy e SciPy
Operazioni stabili su matrici e decomposizioni utilizzate in ML
• Approfondimento su SciPy
Statistica, ottimizzazione, fitting di curve e matrici sparse
• Pandas per dati tabulari ML
Pulizia, join, aggregazione e preparazione di dataset
• Approfondimento su scikit-learn
Interfaccia degli estimatori, pipeline e workflow riproducibili
• Essenziali della visualizzazione
Tracciati diagnostici per l'esplorazione dei dati e il comportamento del modello
Modulo 3: Pattern di Programmazione per la Costruzione di Applicazioni ML
• Dalla notebook a un progetto mantenibile
Ristrutturazione del codice esplorativo in pacchetti strutturati
• Gestione della configurazione
Parametri esterni e validazione all'avvio
• Logging, avvisi e osservabilità
Logging strutturato per sistemi ML debuggabili
• Componenti riutilizzabili con OOP e composizione
Progettazione di trasformatori e predittori estensibili
• Pattern di progettazione pratici
Pattern Pipeline, Factory o Registry, Strategy e Adapter
• Validazione dei dati e controlli dello schema
Prevenzione di problemi di dati silenziosi
• Prestazioni e profiling
Identificazione di collo di bottiglia e applicazione di tecniche di ottimizzazione
• I/O dei modelli e interfacce di inferenza
Persistenza sicura e interfacce di predizione pulite
• Mini build end-to-end
Pipeline ML stile produzione con configurazione e logging
Modulo 4: Apprendimento Statistico per Tabular, Testo e Immagini
• Fondamenti della valutazione
Divisioni di training e validazione, cross-validation onesta e metriche allineate agli obiettivi aziendali
• Apprendimento tabulare avanzato
GLMs regolarizzati, ensemble di alberi e preprocessing senza leakage
• Calibrazione e incertezza
Platt scaling, regressione isotonica, bootstrap e conformal prediction
• Metodi classici di NLP
Trade-off di tokenizzazione, TF-IDF, modelli lineari e Naive Bayes
• Modellazione tematica
Fondamenti LDA e limitazioni pratiche
• Computer vision classica
HOG, PCA e pipeline basate su feature
• Analisi degli errori
Rilevamento del bias, rumore delle etichette e correlazioni spurie
• Laboratori pratici
Pipeline tabulare senza leakage
Confronto e interpretazione di baseline testuali
Baseline visiva classica con analisi strutturata delle fallimenti
Modulo 5: Reti Neurali per Tabular, Testo e Immagini
• Padronanza del ciclo di addestramento
Cicli PyTorch puliti con AMP, clipping e riproducibilità
• Ottimizzazione e regolarizzazione
Inizializzazione, normalizzazione, ottimizzatori e scheduler
• Precisione mista e scaling
Accumulazione di gradienti e strategie di checkpointing
• Reti neurali tabulari
Embeddings categoriche, feature crosses e studi di ablation
• Reti neurali testuali
Embeddings, CNN, BiLSTM o GRU e gestione delle sequenze
• Reti neurali visive
Fondamenti CNN e architetture stile ResNet
• Laboratori pratici
Framework di addestramento riutilizzabile
Confronto tra reti neurali tabulari e boosting
CNN con augmentation e sperimentazione di scheduling
Modulo 6: Architetture Neurali Avanzate
• Strategie di transfer learning
Pattern di congelamento e scioglimento, tassi di apprendimento discriminatori
• Architetture di transformer per testo
Interni dell'auto-attenzione e approcci di fine-tuning
• Backbone visivi e predizione densa
ResNet, EfficientNet, Vision Transformers e concetti U-Net
• Architetture tabulari avanzate
TabTransformer, FT-Transformer e reti Deep and Cross
• Considerazioni sulle serie temporali
Divisioni temporali e rilevamento di shift delle covariate
• Tecniche di PEFT e efficienza
LoRA, distillation e trade-offs di quantizzazione
• Laboratori pratici
Fine-tuning di un transformer testuale preaddestrato
Fine-tuning di un modello visivo preaddestrato
Confronto tra trasformatore tabulare e GBDT
Modulo 7: Sistemi AI Generativi
• Fondamenti di prompting
Prompting strutturato e generazione controllata
• Fondamenti di LLM
Tokenizzazione, tuning delle istruzioni e mitigazione delle allucinazioni
• Generazione Augmentata con Recupero
Chunking, embeddings, ricerca ibrida e metriche di valutazione
• Strategie di fine-tuning
LoRA e QLoRA con controlli sulla qualità dei dati
• Modelli di diffusione
Intuizione di diffusione latente e adattamento pratico
• Dati tabulari sintetici
CTGAN e considerazioni sulla privacy
• Laboratori pratici
Mini-applicazione stile produzione RAG
Validazione delle uscite strutturate con esecuzione forzata dello schema
Sperimentazione di diffusione facoltativa
Modulo 8: Agenti AI e MCP
• Design del ciclo degli agenti
Osserva, pianifica, agisci, rifletti e persisti
• Architetture degli agenti
ReAct, plan-and-execute e coordinamento multi-agente
• Gestione della memoria
Approcci episodici, semantici e scratchpad
• Integrazione di strumenti e sicurezza
Contratti di strumenti, sandboxing e difese contro l'iniezione di prompt
• Framework di valutazione
Tracce riproducibili, suite di compiti e test di regressione
• MCP e interoperabilità basata su protocolli
Progettazione di server MCP con esposizione sicura degli strumenti
• Laboratori pratici
Costruire un agente da zero
Esposizione di strumenti tramite server stile MCP
Creare un'impalcatura di valutazione con vincoli di sicurezza
Requisiti
I partecipanti dovrebbero avere una conoscenza operativa della programmazione Python.
Questo programma è destinato a professionisti tecnici intermedi o avanzati.
Recensioni (2)
l'ecosistema ML non riguarda solo MLFlow, ma anche Optuna, Hyperopt, Docker e Docker-Compose
Guillaume GAUTIER - OLEA MEDICAL
Corso - MLflow
Traduzione automatica
Ho trovato molto piacevole partecipare alla formazione su Kubeflow, che si è svolta a distanza. Questa formazione mi ha permesso di consolidare le mie conoscenze sui servizi AWS, K8s e tutte le tool DevOps associate a Kubeflow, che costituiscono le basi necessarie per affrontare l'argomento in modo appropriato. Desidero ringraziare Malawski Marcin per la sua pazienza e professionalità nel fornire formazione e consigli sulle best practice. Malawski affronta l'argomento da diverse angolazioni, utilizzando diversi strumenti di distribuzione come Ansible, EKS kubectl e Terraform. Ora sono definitivamente convinto che mi sto muovendo nel campo d'applicazione giusto.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Corso - Kubeflow
Traduzione automatica