De la perception pour les véhicules aériens autonomes : Application pour la navigation basée vision et la modélisation d’environnement

Auteurs: 

M. Sanfourche, J. Delaune, G. Le Besnerais, H. de Plinval, J. Israel, Ph. Cornic,
A. Treil, Y. Watanabe, A. Plyer

De nos jours, des caméras et autres capteurs extéroceptifs équipent une large variété de véhicules autonomes comme les drones, les sondes spatiales ou les missiles. Excepté cette dernière application, l’utilisation de ces capteurs est cantonnée au recueil d’information et à l’observation.
Dans cet article, nous montrerons comment des capteurs de vision associés à des traitements de données appropriés permettent à un drone de naviguer en sécurité dans un environnement mal connu ou inconnu et où les systèmes de localisation externes (GPS, radiobalise) sont inutilisables. Des techniques de vision par ordinateur sont alors mises en œuvre pour extraire du flux de mesures provenant de ces capteurs des informations relatives à l’état du drone ou à celui de l’environnement situé à proximité du drone.
Nous commencerons par présenter comment des techniques de pilotage/guidage en boucle fermée exploitant une information de mouvement image permettent de poser un drone en sécurité ou de maintenir un stationnaire devant une cible donnée. Ensuite, seront décrites des solutions de navigation relative basée vision. Un premier volet est consacré à la navigation relative, c'est-à-dire à l’estimation de la trajectoire et d’un modèle de l’environnement sans référence géolocalisée. Le second volet se focalisera sur les techniques destinées à fournir des mesures de localisation absolue (type GPS) par recalage des données du drone sur une carte existante. Enfin, nous décrirons des fonctions de cartographie de l’environnement. Dans la quasi totalité des cas exposés par la suite, des données réelles acquises par un drone ou par un capteur manipulé à la main sont utilisées pour la validation des algorithmes.
Nos recherches montrent que les solutions de navigation basée vision gagneront à exploiter de nouveaux capteurs 3D développés sous le paradigme de la co-conception (adapté le capteur à la fonction par échanges entre spécialistes des traitements et spécialistes de l’optique) et de nouvelles architectures de calcul massivement parallèles.

Fichier attachéTaille
AL04-04.pdf5.17 Mo
Tags: