Localization and Mapping for Visual-Inertial Odometry

Loading...
Thumbnail Image

URL

Journal Title

Journal ISSN

Volume Title

Perustieteiden korkeakoulu | Master's thesis

Date

2020-06-16

Department

Major/Subject

Computer Science

Mcode

SCI3042

Degree programme

Master’s Programme in Computer, Communication and Information Sciences

Language

en

Pages

75

Series

Abstract

Many applications, for example, augmented reality, pedestrian navigation, and robot navigation, require accurate tracking of the orientation and location of a device. Simultaneous localization and mapping (SLAM) is a technique for building a map of an environment while simultaneously estimating the movement of a device in it. %Visual SLAM is SLAM using only visual (camera) data. Another technique, visual-inertial odometry, combines visual data from cameras with measurements from an inertial measurement unit to provide sequential tracking. The two techniques complement each other. Visual-inertial odometry is robust and locally accurate but can only track incremental motion, which means that the estimated trajectory inevitably drifts. Visual SLAM, on the other hand, can utilize its map to correct drift in situations where previously seen areas are revisited. In this thesis, we extend a visual-inertial odometry system, PIVO, with a SLAM module in order to improve the performance of PIVO in situations where a map can be utilized. The SLAM module periodically receives frames and pose estimates from PIVO and uses them to first update its internal map using bundle adjustment, and then return a corrected pose to PIVO. Internally, the SLAM module improves the position estimates of PIVO in two ways. When in already mapped areas, it uses its map to prevent any drift from occurring and when revisiting previously seen areas after periods of exploration, it corrects long term drift by performing loop closures. We compare the tracking accuracy of PIVO to that of PIVO combined with our SLAM module and show that our system outperforms PIVO in scenarios where previously seen areas are revisited. We thus conclude that adding localization and mapping capabilities to the existing visual-inertial odometry framework of PIVO improves its performance.

Att estimera sin egen rörelse är viktigt i många applikationer inom till exempel robotik, självkörande bilar och förstärkt verkliget. Visuell samtidig lokalisering och kartbygge (SLAM) är en teknik där en kamera används för att kartlägga och samtidigt estimera sin egen rörelse i ett område. En annan teknik, visuell tröghetsodometri, utför rörelseestimering genom att kombinera kameradata med mätningar från en tröghetssensor. Teknikerna komplementerar varandra - visuell tröghetsodometri är robust men kan endast mäta inkrementell rörelse, vilket leder till att systemets positionsuppskattning driver över tid. SLAM, å andra sidan, kan använda sin egen karta för att förhindra driv i situationer där tidigare sedda områden av kartan återbesöks. I detta examensarbete lägger vi till en SLAM-modul till ett existerande visuellt tröghetsodometrisystem, PIVO, för att förbättra dess estimeringsprecision i situationer där kartan från SLAM-modulen kan utnyttjas. SLAM-modulen får med jämna mellanrum bilder och positioner från odometrin och anväder dessa för att uppdatera sin interna karta och sedan returnera uppdaterade positionsuppskattningar till odometrin. Internt förbättrar SLAM-modulen positionsuppskattningen på två sätt. Kartan används för att förhindra drivande i redan sedda områden medan långsiktigt driv korrigeras då systemet återvänder till tidigare besökta områden. Vi jämför precisionen på PIVO med precisionen på PIVO kominerad med vår SLAM-modul och visar att SLAM-modulen märkbart förbättrar PIVOs resultat i situationer där tidigare sedda områden återbesöks. Vi kan alltså dra slutsatsen att lokalisering och kartbygge förbättrar PIVOs prestanda.

Description

Supervisor

Solin, Arno

Thesis advisor

Seiskari, Otto
Kannala, Juho

Keywords

computer vision, simultaneous localization and mapping, visual-inertial odometry, visual place recognition

Other note

Citation