TU Darmstadt / ULB / TUbiblio

Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte

Fischer, Arthur (2012)
Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte.
Technische Universität Darmstadt
Bachelorarbeit, Bibliographie

Kurzbeschreibung (Abstract)

In der heutigen Zeit steigt die Anzahl intelligenter Systeme rapide an und klassische Eingabemethoden, wie Mäuse und Tastaturen, verlieren mehr und mehr an Bedeutung. Neue und zielbasierte Interaktionssysteme, wie Gestik und Sprache, erlauben eine natürlichere Steuerung von verschiedenen Geräten in diesen Umgebungen. Allerdings sind diese anfällig für Ungenauigkeiten bei der Eingabe durch den Benutzer, sowie für Fehldeutungen der Intention des Benutzers durch das System. Im Rahmen dieser Arbeit wird untersucht, wie Gestik und Sprache verwendet werden können, um in multimodalen und intelligenten Systemen eine intentionsbasierte Interaktion zu realisieren. Dabei wird gezeigt, wie die Kombination beider Eingabemethoden jeweilige Unsicherheiten beseitigt und die Intentionserkennung verbessert werden kann. Zusätzlich wird gezeigt, wie unter der Berücksichtigung von Kontextinformationen, über den Zustand der Umgebung, die Fehldeutungen, seitens des Systems, signifikant reduziert werden können. Es wird gezeigt, wie die Spracheingaben des Benutzers, als unterstützende Eingaben, die virtuelle Repräsentation der Umgebung innerhalb des Systems beeinflussen und Ungenauigkeiten der Zeigegesten kompensieren können. Anhand eines prototypischen Systems werden die dargestellten Konzepte untersucht. Zusätzlich hat eine kleine Gruppe von Testpersonen dieses prototypische System auf ihre Benutzbarkeit geprüft. Die Evaluation dieser Testreihe hat die erwartete Verbesserung der Intentionserkennug bestätigt.

Typ des Eintrags: Bachelorarbeit
Erschienen: 2012
Autor(en): Fischer, Arthur
Art des Eintrags: Bibliographie
Titel: Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte
Sprache: Deutsch
Publikationsjahr: 2012
Kurzbeschreibung (Abstract):

In der heutigen Zeit steigt die Anzahl intelligenter Systeme rapide an und klassische Eingabemethoden, wie Mäuse und Tastaturen, verlieren mehr und mehr an Bedeutung. Neue und zielbasierte Interaktionssysteme, wie Gestik und Sprache, erlauben eine natürlichere Steuerung von verschiedenen Geräten in diesen Umgebungen. Allerdings sind diese anfällig für Ungenauigkeiten bei der Eingabe durch den Benutzer, sowie für Fehldeutungen der Intention des Benutzers durch das System. Im Rahmen dieser Arbeit wird untersucht, wie Gestik und Sprache verwendet werden können, um in multimodalen und intelligenten Systemen eine intentionsbasierte Interaktion zu realisieren. Dabei wird gezeigt, wie die Kombination beider Eingabemethoden jeweilige Unsicherheiten beseitigt und die Intentionserkennung verbessert werden kann. Zusätzlich wird gezeigt, wie unter der Berücksichtigung von Kontextinformationen, über den Zustand der Umgebung, die Fehldeutungen, seitens des Systems, signifikant reduziert werden können. Es wird gezeigt, wie die Spracheingaben des Benutzers, als unterstützende Eingaben, die virtuelle Repräsentation der Umgebung innerhalb des Systems beeinflussen und Ungenauigkeiten der Zeigegesten kompensieren können. Anhand eines prototypischen Systems werden die dargestellten Konzepte untersucht. Zusätzlich hat eine kleine Gruppe von Testpersonen dieses prototypische System auf ihre Benutzbarkeit geprüft. Die Evaluation dieser Testreihe hat die erwartete Verbesserung der Intentionserkennug bestätigt.

Freie Schlagworte: Business Field: Digital society, Research Area: Confluence of graphics and vision, Gesture recognition, Gesture based interaction, Speech recognition, Speech input, Context-awareness
Zusätzliche Informationen:

48 S.

Fachbereich(e)/-gebiet(e): 20 Fachbereich Informatik
20 Fachbereich Informatik > Graphisch-Interaktive Systeme
Hinterlegungsdatum: 12 Nov 2018 11:16
Letzte Änderung: 12 Nov 2018 11:16
PPN:
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen