Contattataci

Struttura del corso

Ambiente iOS ML e configurazione dello sviluppo

  • Architettura ML su dispositivo di Apple: CoreML, Vision, Speech, NaturalLanguage
  • Configurazione dell'ambiente di sviluppo: Anaconda, Python, Xcode e Swift
  • Introduzione a coremltools e alla pipeline di conversione iOS ML
  • Lab 1: Validare l'ambiente macOS/Swift, configurare Python/Anaconda e verificare l'integrazione della riga di comando di Xcode

Addestramento di modelli personalizzati con Python e librerie ML popolari

  • Selezione del modello: quando usare Keras/TensorFlow rispetto a scikit-learn o libsvm
  • Preprocessing dei dati, loop di addestramento e metriche di valutazione in Python
  • Integrazione di Anaconda e Spyder per uno sviluppo e debugging efficiente dei modelli
  • Gestione dei modelli legacy: importazione di reti Caffe tramite coremltools
  • Lab 2: Addestrare un modello di classificazione/regressione personalizzato in Python (Keras/scikit-learn) ed esportarlo in .h5/.pkl

Conversione dei modelli in CoreML e integrazione iOS

  • Utilizzo di coremltools per convertire modelli TensorFlow, Keras, scikit-learn, libsvm e Caffe in .mlmodel
  • Ispezione dei modelli CoreML in Xcode: layer, input/output, precisione e livelli di ottimizzazione
  • Caricamento dei modelli CoreML in Swift: MLModel, MLFeatureProvider e inferenza asincrona
  • Lab 3: Convertire un modello addestrato in Python in CoreML, ispezionarlo in Xcode e caricarlo in un playground Swift

Costruzione dell'intelligenza iOS con CoreML e Vision

  • Framework Vision: rilevamento facciale, rilevamento oggetti, riconoscimento testo e scansione codici a barre
  • Integrazione con CoreGraphics: preprocessing delle immagini, mascheramento ROI e rendering degli overlay
  • GameplayKit: applicazione di alberi di comportamento AI, pathfinding e logica di gioco insieme al ML nell'app
  • Ottimizzazione dell'inferenza in tempo reale: pipeline multi-modello, caching e gestione della memoria
  • Lab 4: Implementare una funzione di analisi immagine in tempo reale utilizzando Vision + modello CoreML personalizzato + overlay CoreGraphics

Riconoscimento vocale, NLP e integrazione Siri

  • Framework Speech: riconoscimento vocale in tempo reale, vocabolario personalizzato e iniezione di modelli linguistici
  • Framework NaturalLanguage: tokenizzazione, analisi del sentiment, NER e identificazione della lingua
  • SiriKit e Shortcuts: aggiunta di comandi vocali, intent personalizzati e supporto Siri su dispositivo
  • Privacy e sicurezza: sandboxing di CoreML, crittografia dei dati e compromessi tra inferenza su dispositivo e nel cloud
  • Lab 5: Aggiungere comandi vocali, analisi del testo e Siri Shortcuts all'app iOS

Progetto finale e deploy dell'app

  • Flusso di lavoro end-to-end: addestramento Python → conversione CoreML → UI Swift → deployment iOS
  • Profiling delle prestazioni: Instruments, diagnostica CoreML e quantizzazione dei modelli (FP16/INT8)
  • Linee guida App Store per le app ML: limiti di dimensione, manifest privacy e gestione dati su dispositivo
  • Progetto finale: Distribuire un'app iOS completa con un modello CoreML personalizzato, elaborazione Vision, funzionalità speech/NLP e integrazione Siri
  • Revisione, Q&A e prossimi passi: Scalabilità verso SwiftUI, Core ML multimodale e MLOps per iOS

Per richiedere una traccia del corso personalizzata per questa formazione, vi preghiamo di contattarci.

Requisiti

  • Esperienza comprovata nella programmazione in Swift (Xcode, SwiftUI/UIKit, async/await, closure)
  • Non è richiesto alcun background precedente nel machine learning o nella data science
  • La familiarità con le basi della riga di comando e la sintassi di Python è utile

Destinatari

  • Sviluppatori iOS e Mobile
  • Ingegneri del software che si orientano verso l'AI su dispositivo
  • Responsabili tecnici che valutano strategie di deployment ML su iOS
 14 ore

Numero di Partecipanti


Prezzo per partecipante

Recensioni (1)

Corsi in Arrivo

Categorie relative