Schwald, Bernd (2006)
Punktbasiertes 3D-Tracking starrer und dynamischer Modelle mit einem Stereokamerasystem für Mixed Reality.
Technische Universität Darmstadt
Dissertation, Erstveröffentlichung
Kurzbeschreibung (Abstract)
Virtual Reality (VR) und Augmented Reality (AR) sowie die verschiedenen Zwischenformen, die unter dem Begriff Mixed Reality (MR) zusammengefasst sind, haben vor allem eines gemeinsam: Tracking, das heißt die Verfolgung von Objekten oder Personen in Echtzeit, bildet einen wesentlichen technologischen Bestandteil zahlreicher MR-Anwendungen. Während im VR-Bereich Tracking ein wichtiges Instrument ist, um Anwendungen immersiver zu machen und eine natürlichere Interaktion mit den virtuellen Welten zu ermöglichen, ist Tracking für AR von elementarer Bedeutung, da vor allem der Blickpunkt und die Ausrichtung des Betrachters bekannt sein müssen, um eine Überlagerung der realen Sicht zu ermöglichen. Im Rahmen dieser Arbeit wurden verschiedene Algorithmen für videobasiertes, räumliches Tracking entwickelt. Alle Algorithmen basieren auf der bereits durch ein Stereokamerasystem rekonstruierten Menge von 3D-Punkten und ermöglichen Verfolgung von Objekten und/oder Personen in Echtzeit (3D-Tracking). Die Algorithmen sind auch an Systeme anpassbar, die aus einfachen Hardwarekomponenten bestehen. Dazu zählen insbesondere Stereokamerasysteme mit zwei einfachen Kameras. Ein Schwerpunkt dieser Arbeit besteht in der Eignung der Algorithmen für Infrarottrackingsysteme, bei denen die rekonstruierten 3D-Punkte die Koordinaten einheitlicher, kugelförmiger, also nicht unterscheidbarer, Marker sind. Weitere Grundlagen für die gesamte Verarbeitungspipeline eines solchen Trackingsystems, wie Kalibrierung der Kameras und Bildverarbeitung, Rekonstruktion der 3D-Punkte, sowie die Filterung der durch das Tracking bestimmten Transformationen sind hinsichtlich der Zusammenhänge mit den entwickelten Algorithmen kurz dargestellt. Die Trackingalgorithmen sind in verschiedene Bereiche unterteilt: Dies sind unter anderem die Verfolgung einzelner Punkte, die Verfolgung einer beliebigen Anzahl relativ zueinander fest (starr) positionierter Punkte oder die Verfolgung einer sich verändernden (dynamischen) Anordnung von Punkten. Die verschiedenen Arten von Konstellationen von 3D-Punkten werden in dieser Arbeit als Modelle bezeichnet, die jeweils eine effiziente und zuverlässige Verfolgung unterstützen. Neben dem eigentlichen Tracking wird ebenfalls das Initialisieren, beziehungsweise das Anlernen der Modelle, beschrieben. Ein Algorithmus für das Anlernen starrer Modellen wird dargestellt, bei dem das Modell während der Anlernphase frei bewegt werden kann. Die Erweiterung eines 3D-Punktes durch ein Punktmodell, welches Zusatzinformationen trägt, wie zum Beispiel dessen vorausgegangene Positionen oder bestimmte Indizes, wird so eingeführt, dass es für alle hier entwickelten Trackingalgorithmen verwendbar ist. Dies unterstützt die Möglichkeit verschiedene Modelltypen innerhalb eines Trackingframeworks zu kombinieren. Neben der Entwicklung der Theorie für die Algorithmen ist der direkte Bezug zu praktischen Anwendungen dargestellt, unter anderem anhand des Medarpa Projekts. Insbesondere die durch die Anwendungen vorgegebenen Anforderungen an die Algorithmen werden dabei berücksichtigt.
Typ des Eintrags: | Dissertation | ||||
---|---|---|---|---|---|
Erschienen: | 2006 | ||||
Autor(en): | Schwald, Bernd | ||||
Art des Eintrags: | Erstveröffentlichung | ||||
Titel: | Punktbasiertes 3D-Tracking starrer und dynamischer Modelle mit einem Stereokamerasystem für Mixed Reality | ||||
Sprache: | Deutsch | ||||
Referenten: | Encarnação, Prof. Dr. José Luis ; Zachmann, Prof. Dr. Gabriel | ||||
Berater: | Encarnação, Prof. Dr. José Luis | ||||
Publikationsjahr: | 28 September 2006 | ||||
Ort: | Darmstadt | ||||
Datum der mündlichen Prüfung: | 12 September 2006 | ||||
URL / URN: | urn:nbn:de:tuda-tuprints-7346 | ||||
Kurzbeschreibung (Abstract): | Virtual Reality (VR) und Augmented Reality (AR) sowie die verschiedenen Zwischenformen, die unter dem Begriff Mixed Reality (MR) zusammengefasst sind, haben vor allem eines gemeinsam: Tracking, das heißt die Verfolgung von Objekten oder Personen in Echtzeit, bildet einen wesentlichen technologischen Bestandteil zahlreicher MR-Anwendungen. Während im VR-Bereich Tracking ein wichtiges Instrument ist, um Anwendungen immersiver zu machen und eine natürlichere Interaktion mit den virtuellen Welten zu ermöglichen, ist Tracking für AR von elementarer Bedeutung, da vor allem der Blickpunkt und die Ausrichtung des Betrachters bekannt sein müssen, um eine Überlagerung der realen Sicht zu ermöglichen. Im Rahmen dieser Arbeit wurden verschiedene Algorithmen für videobasiertes, räumliches Tracking entwickelt. Alle Algorithmen basieren auf der bereits durch ein Stereokamerasystem rekonstruierten Menge von 3D-Punkten und ermöglichen Verfolgung von Objekten und/oder Personen in Echtzeit (3D-Tracking). Die Algorithmen sind auch an Systeme anpassbar, die aus einfachen Hardwarekomponenten bestehen. Dazu zählen insbesondere Stereokamerasysteme mit zwei einfachen Kameras. Ein Schwerpunkt dieser Arbeit besteht in der Eignung der Algorithmen für Infrarottrackingsysteme, bei denen die rekonstruierten 3D-Punkte die Koordinaten einheitlicher, kugelförmiger, also nicht unterscheidbarer, Marker sind. Weitere Grundlagen für die gesamte Verarbeitungspipeline eines solchen Trackingsystems, wie Kalibrierung der Kameras und Bildverarbeitung, Rekonstruktion der 3D-Punkte, sowie die Filterung der durch das Tracking bestimmten Transformationen sind hinsichtlich der Zusammenhänge mit den entwickelten Algorithmen kurz dargestellt. Die Trackingalgorithmen sind in verschiedene Bereiche unterteilt: Dies sind unter anderem die Verfolgung einzelner Punkte, die Verfolgung einer beliebigen Anzahl relativ zueinander fest (starr) positionierter Punkte oder die Verfolgung einer sich verändernden (dynamischen) Anordnung von Punkten. Die verschiedenen Arten von Konstellationen von 3D-Punkten werden in dieser Arbeit als Modelle bezeichnet, die jeweils eine effiziente und zuverlässige Verfolgung unterstützen. Neben dem eigentlichen Tracking wird ebenfalls das Initialisieren, beziehungsweise das Anlernen der Modelle, beschrieben. Ein Algorithmus für das Anlernen starrer Modellen wird dargestellt, bei dem das Modell während der Anlernphase frei bewegt werden kann. Die Erweiterung eines 3D-Punktes durch ein Punktmodell, welches Zusatzinformationen trägt, wie zum Beispiel dessen vorausgegangene Positionen oder bestimmte Indizes, wird so eingeführt, dass es für alle hier entwickelten Trackingalgorithmen verwendbar ist. Dies unterstützt die Möglichkeit verschiedene Modelltypen innerhalb eines Trackingframeworks zu kombinieren. Neben der Entwicklung der Theorie für die Algorithmen ist der direkte Bezug zu praktischen Anwendungen dargestellt, unter anderem anhand des Medarpa Projekts. Insbesondere die durch die Anwendungen vorgegebenen Anforderungen an die Algorithmen werden dabei berücksichtigt. |
||||
Alternatives oder übersetztes Abstract: |
|
||||
Freie Schlagworte: | Object tracking, Stereo camera systems, Marker based tracking, Mixed realities, Virtual and augmented reality (VR/AR), 3D Reconstruction, Infrared based technology | ||||
Zusätzliche Informationen: | 166 S. |
||||
Sachgruppe der Dewey Dezimalklassifikatin (DDC): | 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik | ||||
Fachbereich(e)/-gebiet(e): | 20 Fachbereich Informatik 20 Fachbereich Informatik > Graphisch-Interaktive Systeme |
||||
Hinterlegungsdatum: | 17 Okt 2008 09:22 | ||||
Letzte Änderung: | 21 Nov 2023 09:30 | ||||
PPN: | |||||
Referenten: | Encarnação, Prof. Dr. José Luis ; Zachmann, Prof. Dr. Gabriel | ||||
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: | 12 September 2006 | ||||
Export: | |||||
Suche nach Titel in: | TUfind oder in Google |
Frage zum Eintrag |
Optionen (nur für Redakteure)
Redaktionelle Details anzeigen |