Stage - Localisation cartographique par Deep Learning H/F

2019-10-21T19:42:34.063

Information clé

Optique, optronique
Recherche, conception et développement
Etudiant
100 rue de paris 91300 massy, Ile De France, FRANCE
Stage, Temps complet, 6 mois
BAC+5
Jeune diplômé/Première expérience
Anglais Courant
MSY-19-DT-R&T-57183-78187

Description de la mission

Au cours des dernières décennies, la géolocalisation des équipements est devenue un prérequis indispensable au déploiement de nombreux services, en lien principalement avec la mobilité des individus et la navigation des systèmes autonomes.
Malgré la multiplication des systèmes de positionnement global par satellite (GNSS), la résilience du service n'est pas assurée (canyon urbain, brouillage, défaut de couverture) et la plupart des solutions de récupération – centrales inertielles, odométrie visuelle, etc. – dérivent temporellement. On parle alors de positionnement relatif, par opposition au positionnement absolu d'un GPS.
Une alternative aux GNSS consiste à mettre en correspondance l'observation du contexte immédiat avec une cartographie géo-référencée. De nombreuses études ont ainsi cherché à aligner une vue rasante ou oblique, avec une image aérienne ou satellitaire de référence. Le développement de descripteurs robustes au changement de point de vue, comme VDAL, mais surtout l'essor des modèles neuronaux profonds d'appariement, permettent d'envisager le développement de ce type de solutions.
Sur la base d'une étude bibliographique et algorithmique détaillée, l'objectif du stage consiste à proposer puis développer un réseau de neurones convolutionnel capable d'apparier une vue rasante couleur, dans le domaine visible, avec une cartographie de référence. Ce stage fait suite à une première étude se limitant aux seules cartographies aériennes et satellitaires. Il s'agira de poursuivre sur les axes suivants :

  • • Etendre le domaine d'appariement aux cartographies symboliques, de type IGN, GoogleStreetMap / OpenStreetMap.
  • • Corréler les fonctions de coût de l'appariement des vues rasantes et cartographiques, avec la distance au centre de la cartographie considérée, pour améliorer l'estimation de position.
  • • Sur opportunité, étudier la généralisation des résultats aux contextes intérieurs (vue rasante et plan de bâtiments par exemple).
  • • Prendre en considération les besoins d'intégration futurs, notamment le nombre de paramètres des architectures Deep considérées.
  • • Retourner une mesure de confiance pour envisager l'hybridation des résultats avec d'autres senseurs (hors stage).

Votre profil

Vous êtes actuellement formation scientifique spécialisée en Automatique, Mathématique, Techniques d'Apprentissage et/ou Traitement du signal
Compétences techniques : Traitement du Signal et des Images, Deep Learning, Python
Qualités requises : Rigueur, Capacités d'analyse, Synthèse

Entité de rattachement

Safran Electronics & Defense

Safran est un groupe international de haute technologie opérant dans les domaines de la propulsion et des équipements aéronautiques, de l'espace et de la défense. Implanté sur tous les continents, le Groupe emploie plus de 92 000 collaborateurs pour un chiffre d'affaires de 21 milliards d'euros en 2018. Safran occupe, seul ou en partenariat, des positions de premier plan mondial ou européen sur ses marchés. Pour répondre à l'évolution des marchés, le Groupe s'engage dans des programmes de recherche et développement qui ont représenté en 2018 des dépenses d'environ 1,5 milliard d'euros.

Safran est classé dans le Top 100 Global Innovators de Thomson Reuters ainsi que dans le palmarès « Happy at work » des sociétés où il fait bon vivre. Le Groupe est en 4ème position du classement Universum des entreprises préférées des jeunes ingénieurs en France.

Safran Electronics & Defense est un leader mondial de solutions et de services en optronique, avionique, électronique et logiciels critiques, pour les marchés civils et de défense. La société équipe notamment plus de 1000 navires, 25 000 véhicules terrestres et 10 000 avions à travers le monde.

Appuyer sur Entrée pour valider ou Echap pour fermer