Grazie per aver inviato la tua richiesta! Uno dei nostri team membri ti contatterà a breve.
Grazie per aver inviato il tuo prenotazione! Uno dei nostri team membri ti contatterà a breve.
Struttura del corso
Introduzione alla fusione di dati multi-sensore
- Importanza della fusione di dati nella navigazione autonoma
- Sfide dell'integrazione multi-sensore
- Applicazioni della fusione di dati nella percezione in tempo reale
Tecnologie dei sensori e caratteristiche dei dati
- LiDAR: generazione ed elaborazione di nuvole di punti
- Telecamera: acquisizione di dati visivi ed elaborazione delle immagini
- RADAR: rilevamento di oggetti e stima della velocità
- Unità di Misura Inerziale (IMU): tracciamento del movimento
Fondamenti della fusione di dati
- MathematicaBasi teoriche: filtri di Kalman, inferenza bayesiana
- Tecniche di associazione e allineamento dei dati
- Gestione del rumore e dell'incertezza dei sensori
Algoritmi di fusione per la navigazione autonoma
- Filtro di Kalman e Filtro di Kalman Esteso (EKF)
- Filtro particellare per sistemi non lineari
- Filtro di Unscented Kalman (UKF) per dinamiche complesse
- Associazione dei dati utilizzando Nearest Neighbor e Joint Probabilistic Data Association (JPDA)
Implementazione pratica Sensor Fusion
- Integrazione dei dati LiDAR e telecamera per il rilevamento di oggetti
- Fusione dei dati RADAR e telecamera per la stima della velocità
- Combinazione dei dati GPS e IMU per una localizzazione accurata
Elaborazione e sincronizzazione dei dati in tempo reale
- Metodi di marcatura temporale e sincronizzazione dei dati
- Gestione della latenza e ottimizzazione delle prestazioni in tempo reale
- Gestione dei dati provenienti da sensori asincroni
Tecniche avanzate e sfide
- Approcci di deep learning per la fusione di dati
- Integrazione di dati multimodali ed estrazione di caratteristiche
- Gestione dei guasti dei sensori e dei dati degradati
Valutazione e ottimizzazione delle prestazioni
- Metriche quantitative per la valutazione dell'accuratezza della fusione
- Analisi delle prestazioni in diverse condizioni ambientali
- Miglioramento della robustezza e della tolleranza agli errori del sistema
Casi di studio e applicazioni reali
- Tecniche di fusione nei prototipi di veicoli autonomi
- Distribuzione di successo di algoritmi di fusione di sensori
- Workshop: implementazione di una pipeline di fusione multi-sensore
Riepilogo e prossimi passi
Requisiti
- Esperienza con la programmazione Python
- Conoscenza delle tecnologie di base dei sensori (ad es. LiDAR, telecamere, RADAR)
- Familiarità con ROS ed elaborazione dati
Pubblico di riferimento
- Specialisti di sensor fusion che lavorano su sistemi di navigazione autonoma
- Ingegneri AI focalizzati sull'integrazione multi-sensore e l'elaborazione dei dati
- Ricercatori nel campo della percezione dei veicoli autonomi
21 Ore