Lück, Benjamin (2013)
Kamera-IMU Sensorfusion für mobile Geräte.
Technische Universität Darmstadt
Bachelorarbeit, Bibliographie
Kurzbeschreibung (Abstract)
Für eine Vielzahl von Anwendungen ist es notwendig, die Trajektorie eines in der Hand geführten Smartphones zu bestimmen. Dafür werden die Daten der im Smartphone eingebauten Sensoren und der Kamera verarbeitet. Die Sensoren werden durch die Kamera unterstützt, da diese sich für die alleinige Bestimmung der Trajektorie nicht eignen. Die Kamera und die Sensoren werden mittels eines Schachbrettmusters bzw. mit der Allan Varianz Methode kalibriert. Mit der Inertiale Messeinheit - Inertial Measurement Unit (IMU)- und des Magnetfeldsensors wurde die Lage des Smartphones adäquat bestimmt. Im Anschluss wurde versucht, mittels der kalibrierten Sensoren die Trajektorie zu bestimmen. Dabei trat das Problem auf, dass die Sensoren nicht korrekt kalibriert werden konnten; es ist weiterhin offen. Die implementierten Computer Vision Algorithmen konnte hingegen die Trajektorie mit der Kamera des Smartphones bestimmen. Zuerst wurde dafür das Verfahren des Feature Matching angewandt, welches sich jedoch als zu langsam herausstellte, um die geforderte Echtzeitfähigkeit auf dem Smartphone zu erreichen. Daher wurde auf die Methode des Feature Trackings zurückgegriffen. Dieses Verfahren ist um Faktor 10 - 20 (abgerundet) schneller und es konnte erreicht werden, dass die Bilder mit ca. 12 Frames per Second (FPS) verarbeitet werden. Die durch die Computer Vision Algorithmen estimierten Trajektorien weisen Abweichungen auf, repräsentieren aber die durchgeführten Bewegungen sehr gut. Eine weitere offene Fragestellung war, mit welcher Art von Filter die Kamera- mit den Sensordaten fusioniert werden können. Es wurden grundlegende Filtermechanismen implementiert, welche die Sensordaten vereinigen, um die Lage des Smartphone zu bestimmen. Ferner wurde mit einem Kalman Filter die Trajektorie, welche mit der Methode des Feature Tracking bestimmt wurde, verbessert und geglättet.
Typ des Eintrags: | Bachelorarbeit |
---|---|
Erschienen: | 2013 |
Autor(en): | Lück, Benjamin |
Art des Eintrags: | Bibliographie |
Titel: | Kamera-IMU Sensorfusion für mobile Geräte |
Sprache: | Deutsch |
Publikationsjahr: | 2013 |
Kurzbeschreibung (Abstract): | Für eine Vielzahl von Anwendungen ist es notwendig, die Trajektorie eines in der Hand geführten Smartphones zu bestimmen. Dafür werden die Daten der im Smartphone eingebauten Sensoren und der Kamera verarbeitet. Die Sensoren werden durch die Kamera unterstützt, da diese sich für die alleinige Bestimmung der Trajektorie nicht eignen. Die Kamera und die Sensoren werden mittels eines Schachbrettmusters bzw. mit der Allan Varianz Methode kalibriert. Mit der Inertiale Messeinheit - Inertial Measurement Unit (IMU)- und des Magnetfeldsensors wurde die Lage des Smartphones adäquat bestimmt. Im Anschluss wurde versucht, mittels der kalibrierten Sensoren die Trajektorie zu bestimmen. Dabei trat das Problem auf, dass die Sensoren nicht korrekt kalibriert werden konnten; es ist weiterhin offen. Die implementierten Computer Vision Algorithmen konnte hingegen die Trajektorie mit der Kamera des Smartphones bestimmen. Zuerst wurde dafür das Verfahren des Feature Matching angewandt, welches sich jedoch als zu langsam herausstellte, um die geforderte Echtzeitfähigkeit auf dem Smartphone zu erreichen. Daher wurde auf die Methode des Feature Trackings zurückgegriffen. Dieses Verfahren ist um Faktor 10 - 20 (abgerundet) schneller und es konnte erreicht werden, dass die Bilder mit ca. 12 Frames per Second (FPS) verarbeitet werden. Die durch die Computer Vision Algorithmen estimierten Trajektorien weisen Abweichungen auf, repräsentieren aber die durchgeführten Bewegungen sehr gut. Eine weitere offene Fragestellung war, mit welcher Art von Filter die Kamera- mit den Sensordaten fusioniert werden können. Es wurden grundlegende Filtermechanismen implementiert, welche die Sensordaten vereinigen, um die Lage des Smartphone zu bestimmen. Ferner wurde mit einem Kalman Filter die Trajektorie, welche mit der Methode des Feature Tracking bestimmt wurde, verbessert und geglättet. |
Freie Schlagworte: | Acceleration sensors, Sensor fusion, Inertial sensors, Mobile devices, Feature matching, Camera tracking, Optical tracking |
Zusätzliche Informationen: | 70 p. |
Fachbereich(e)/-gebiet(e): | 20 Fachbereich Informatik 20 Fachbereich Informatik > Graphisch-Interaktive Systeme |
Hinterlegungsdatum: | 12 Nov 2018 11:16 |
Letzte Änderung: | 12 Nov 2018 11:16 |
PPN: | |
Export: | |
Suche nach Titel in: | TUfind oder in Google |
Frage zum Eintrag |
Optionen (nur für Redakteure)
Redaktionelle Details anzeigen |