Résumé
Mesurer en temps réel la pose d’une caméra relativement à des repères tridimensionnels identifiés dans une image vidéo est un, sinon le pilier fondamental de la réalité augmentée. Nous proposons de résoudre ce problème dans des environnements bâtis, à l’aide de la vision par ordinateur. Nous montrons qu’un système de positionnement plus précis que le GPS, et par ailleurs plus stable, plus rapide et moins coûteux en mémoire que d’autres systèmes de positionnement visuel introduits dans la littérature, peut être obtenu à condition de faire coopérer diverses méthodes de statistique fine (détection a contrario des points de fuite de l’image), d’apprentissage profond (proposition de boites contenant des façades, élaboration d’un descripteur de façades basé sur un réseau de neurones convolutifs), d’inférence bayésienne (recalage par espérance-maximisation d’un modèle géométrique et sémantique compact des façades identiées) et de sélection de modèle (analyse des mouvements de la caméra par suivi de plans texturés). Nous décrivons de plus une méthode de modélisation in situ, qui permet d’obtenir de manière fiable, de par leur confrontation immédiate à la réalité, des modèles 3D utiles au calcul de pose tel que nous l’envisageons.
Mémoire
Version papier : hdr_gsimon_print.pdf
Version écran : hdr_gsimon_links.pdf
Vidéos
[1] Wayne Piekarski and Bruce H. Thomas. Tinmith-Metro: New Outdoor Techniques for Creating City Models with an Augmented Reality Wearable Computer. In ISWC 2001, pages 31-38, 2001.