TU Darmstadt / ULB / TUbiblio

Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte

Fischer, Arthur (2012):
Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte.
TU Darmstadt, [Bachelor Thesis]

Abstract

In der heutigen Zeit steigt die Anzahl intelligenter Systeme rapide an und klassische Eingabemethoden, wie Mäuse und Tastaturen, verlieren mehr und mehr an Bedeutung. Neue und zielbasierte Interaktionssysteme, wie Gestik und Sprache, erlauben eine natürlichere Steuerung von verschiedenen Geräten in diesen Umgebungen. Allerdings sind diese anfällig für Ungenauigkeiten bei der Eingabe durch den Benutzer, sowie für Fehldeutungen der Intention des Benutzers durch das System. Im Rahmen dieser Arbeit wird untersucht, wie Gestik und Sprache verwendet werden können, um in multimodalen und intelligenten Systemen eine intentionsbasierte Interaktion zu realisieren. Dabei wird gezeigt, wie die Kombination beider Eingabemethoden jeweilige Unsicherheiten beseitigt und die Intentionserkennung verbessert werden kann. Zusätzlich wird gezeigt, wie unter der Berücksichtigung von Kontextinformationen, über den Zustand der Umgebung, die Fehldeutungen, seitens des Systems, signifikant reduziert werden können. Es wird gezeigt, wie die Spracheingaben des Benutzers, als unterstützende Eingaben, die virtuelle Repräsentation der Umgebung innerhalb des Systems beeinflussen und Ungenauigkeiten der Zeigegesten kompensieren können. Anhand eines prototypischen Systems werden die dargestellten Konzepte untersucht. Zusätzlich hat eine kleine Gruppe von Testpersonen dieses prototypische System auf ihre Benutzbarkeit geprüft. Die Evaluation dieser Testreihe hat die erwartete Verbesserung der Intentionserkennug bestätigt.

Item Type: Bachelor Thesis
Erschienen: 2012
Creators: Fischer, Arthur
Title: Unterstützung von zielbasierter Interaktion durch gestenerkennende Zeigegeräte
Language: German
Abstract:

In der heutigen Zeit steigt die Anzahl intelligenter Systeme rapide an und klassische Eingabemethoden, wie Mäuse und Tastaturen, verlieren mehr und mehr an Bedeutung. Neue und zielbasierte Interaktionssysteme, wie Gestik und Sprache, erlauben eine natürlichere Steuerung von verschiedenen Geräten in diesen Umgebungen. Allerdings sind diese anfällig für Ungenauigkeiten bei der Eingabe durch den Benutzer, sowie für Fehldeutungen der Intention des Benutzers durch das System. Im Rahmen dieser Arbeit wird untersucht, wie Gestik und Sprache verwendet werden können, um in multimodalen und intelligenten Systemen eine intentionsbasierte Interaktion zu realisieren. Dabei wird gezeigt, wie die Kombination beider Eingabemethoden jeweilige Unsicherheiten beseitigt und die Intentionserkennung verbessert werden kann. Zusätzlich wird gezeigt, wie unter der Berücksichtigung von Kontextinformationen, über den Zustand der Umgebung, die Fehldeutungen, seitens des Systems, signifikant reduziert werden können. Es wird gezeigt, wie die Spracheingaben des Benutzers, als unterstützende Eingaben, die virtuelle Repräsentation der Umgebung innerhalb des Systems beeinflussen und Ungenauigkeiten der Zeigegesten kompensieren können. Anhand eines prototypischen Systems werden die dargestellten Konzepte untersucht. Zusätzlich hat eine kleine Gruppe von Testpersonen dieses prototypische System auf ihre Benutzbarkeit geprüft. Die Evaluation dieser Testreihe hat die erwartete Verbesserung der Intentionserkennug bestätigt.

Uncontrolled Keywords: Business Field: Digital society, Research Area: Confluence of graphics and vision, Gesture recognition, Gesture based interaction, Speech recognition, Speech input, Context-awareness
Divisions: 20 Department of Computer Science
20 Department of Computer Science > Interactive Graphics Systems
Date Deposited: 12 Nov 2018 11:16
Additional Information:

48 S.

Export:

Optionen (nur für Redakteure)

View Item View Item