Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à la fusion de données multi-capteurs
- Importance de la fusion de données dans la navigation autonome
- Défis de l’intégration multi-capteurs
- Applications de la fusion de données dans la perception en temps réel
Technologies de capteurs et caractéristiques des données
- LiDAR : génération et traitement de nuages de points
- Caméra : capture de données visuelles et traitement d’images
- RADAR : détection d’objets et estimation de la vitesse
- Unités de mesure inertielles (IMU) : suivi du mouvement
Principes fondamentaux de la fusion de données
- MathematicaBases théoriques : filtres de Kalman, inférence bayésienne
- Techniques d’association et d’alignement des données
- Gestion du bruit et de l’incertitude des capteurs
Algorithmes de fusion pour la navigation autonome
- Filtre de Kalman et filtre de Kalman étendu (EKF)
- Filtre de particules pour les systèmes non linéaires
- Filtre de Kalman non parfumé (UKF) pour les dynamiques complexes
- Association de données utilisant le plus proche voisin et l’association probabiliste conjointe des données (JPDA)
Implémentation pratique Sensor Fusion
- Intégration des données LiDAR et caméra pour la détection d’objets
- Fusion des données RADAR et caméra pour l’estimation de la vitesse
- Combinaison des données GPS et IMU pour une localisation précise
Traitement et synchronisation des données en temps réel
- Méthodes d’horodatage et de synchronisation des données
- Gestion de la latence et optimisation des performances en temps réel
- Gestion des données provenant de capteurs asynchrones
Techniques avancées et défis
- Approches d’apprentissage profond pour la fusion de données
- Intégration de données multi-modales et extraction de caractéristiques
- Gestion des défaillances des capteurs et des données dégradées
Évaluation et optimisation des performances
- Indicateurs quantitatifs d’évaluation de la précision de la fusion
- Analyse des performances dans différentes conditions environnementales
- Amélioration de la robustesse et de la tolérance aux pannes du système
Études de cas et applications réelles
- Techniques de fusion dans les prototypes de véhicules autonomes
- Déploiement réussi d’algorithmes de fusion de capteurs
- Atelier : implémentation d’un pipeline de fusion multi-capteurs
Résumé et prochaines étapes
Pré requis
- Expérience en programmation Python
- Connaissance des technologies de base des capteurs (par exemple, LiDAR, caméras, RADAR)
- Familiarité avec ROS et le traitement des données
Public cible
- Spécialistes de la fusion de capteurs travaillant sur des systèmes de navigation autonomes
- Ingénieurs en IA axés sur l'intégration multi-capteurs et le traitement des données
- Chercheurs dans le domaine de la perception des véhicules autonomes
21 Heures