Willert, Volker (2021)
Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie.
In: at – Automatisierungstechnik, 2013, 61 (4)
doi: 10.26083/tuprints-00019434
Artikel, Zweitveröffentlichung, Verlagsversion
Es ist eine neuere Version dieses Eintrags verfügbar. |
Kurzbeschreibung (Abstract)
Der Beitrag befasst sich mit der Navigation von autonomen mobilen Robotern anhand von Videodaten. Es wird ein Ansatz zur Verbesserung visueller Odometriealgorithmen vorgestellt, der die Idee der Einflussnahme auf die Bilddaten durch ein aktives Kamerasystem aufgreift, ohne tatsächlich eine Aktorik zu benutzen. Es wird gezeigt, dass durch virtuelle Fixationen das räumliche Muster des Bildflusses so verändert werden kann, dass die daraus berechneten Kamerabewegungen genauer werden. Zur Berechnung der Kamerabewegung wird der aktive 7-Punkt-Algorithmus eingeführt. Anhand von statistischen Auswertungen wird abgeleitet, welche Fixationspunkte dazu besonders geeignet sind und ein Verfahren beschrieben, wie geeignete Fixationspunkte ausgewählt werden können. Desweiteren wird ein Vergleich zwischen dem virtuell-aktiven Ansatz und einem genauen visuellen Odometrieverfahren auf aktuellem Stand der Technik gegeben.
Typ des Eintrags: | Artikel | ||||
---|---|---|---|---|---|
Erschienen: | 2021 | ||||
Autor(en): | Willert, Volker | ||||
Art des Eintrags: | Zweitveröffentlichung | ||||
Titel: | Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie | ||||
Sprache: | Deutsch | ||||
Publikationsjahr: | 2021 | ||||
Publikationsdatum der Erstveröffentlichung: | 2013 | ||||
Verlag: | De Gruyter | ||||
Titel der Zeitschrift, Zeitung oder Schriftenreihe: | at – Automatisierungstechnik | ||||
Jahrgang/Volume einer Zeitschrift: | 61 | ||||
(Heft-)Nummer: | 4 | ||||
DOI: | 10.26083/tuprints-00019434 | ||||
URL / URN: | https://tuprints.ulb.tu-darmstadt.de/19434 | ||||
Zugehörige Links: | |||||
Herkunft: | Zweitveröffentlichungsservice | ||||
Kurzbeschreibung (Abstract): | Der Beitrag befasst sich mit der Navigation von autonomen mobilen Robotern anhand von Videodaten. Es wird ein Ansatz zur Verbesserung visueller Odometriealgorithmen vorgestellt, der die Idee der Einflussnahme auf die Bilddaten durch ein aktives Kamerasystem aufgreift, ohne tatsächlich eine Aktorik zu benutzen. Es wird gezeigt, dass durch virtuelle Fixationen das räumliche Muster des Bildflusses so verändert werden kann, dass die daraus berechneten Kamerabewegungen genauer werden. Zur Berechnung der Kamerabewegung wird der aktive 7-Punkt-Algorithmus eingeführt. Anhand von statistischen Auswertungen wird abgeleitet, welche Fixationspunkte dazu besonders geeignet sind und ein Verfahren beschrieben, wie geeignete Fixationspunkte ausgewählt werden können. Desweiteren wird ein Vergleich zwischen dem virtuell-aktiven Ansatz und einem genauen visuellen Odometrieverfahren auf aktuellem Stand der Technik gegeben. |
||||
Alternatives oder übersetztes Abstract: |
|
||||
Status: | Verlagsversion | ||||
URN: | urn:nbn:de:tuda-tuprints-194346 | ||||
Sachgruppe der Dewey Dezimalklassifikatin (DDC): | 600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften und Maschinenbau | ||||
Fachbereich(e)/-gebiet(e): | 18 Fachbereich Elektrotechnik und Informationstechnik 18 Fachbereich Elektrotechnik und Informationstechnik > Institut für Automatisierungstechnik und Mechatronik 18 Fachbereich Elektrotechnik und Informationstechnik > Institut für Automatisierungstechnik und Mechatronik > Regelungsmethoden und Robotik (ab 01.08.2022 umbenannt in Regelungsmethoden und Intelligente Systeme) |
||||
Hinterlegungsdatum: | 16 Sep 2021 12:57 | ||||
Letzte Änderung: | 23 Sep 2021 13:52 | ||||
PPN: | |||||
Export: | |||||
Suche nach Titel in: | TUfind oder in Google |
Verfügbare Versionen dieses Eintrags
- Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie. (deposited 16 Sep 2021 12:57) [Gegenwärtig angezeigt]
Frage zum Eintrag |
Optionen (nur für Redakteure)
Redaktionelle Details anzeigen |