TU Darmstadt / ULB / TUbiblio

Robot Skill Representation, Learning and Control with Probabilistic Movement Primitives

Paraschos, Alexandros (2017)
Robot Skill Representation, Learning and Control with Probabilistic Movement Primitives.
Technische Universität Darmstadt
Dissertation, Erstveröffentlichung

Kurzbeschreibung (Abstract)

Robotic technology has made significant advances in the recent years, yet robots have not been fully incorporated in our every day lives. Current robots are executing a set of pre-programmed skills, that can not adapt to environmental changes, and acquiring new skills is difficult and time consuming. Additionally, current approaches for robot control focus on accurately reproducing a task, but rarely consider safety aspects that could enable the robots to share the same environment with humans. In this thesis, we develop a framework that allows robots to rapidly acquire new skills, to adapt skills to environmental changes, and to be controlled accurately and in a safe manner.

Our framework is based on movement primitives, a well-established concept for representing modular and reusable robot skills. In this thesis, we introduce a novel movement primitive representation that not only models the shape of the movement but also its uncertainty in time. We choose to rely on probability theory, creating a mathematically sound framework that is capable of adapting skills to environmental changes as well as adapting the execution speed online. Our probabilistic framework allows training the robot with imitation learning, speeding up significantly the process of novel skill acquisition. Hence, our approach unifies all the significant properties of existing movement primitive representations and, additionally, provides new properties, such as conditioning and combination of primitives.

By modeling the variance of the trajectories, our framework enables standard probabilistic operations to be applied on movement primitives. First, we present a generalization operator that can modify a given trajectory distribution to new situations and has improved performance over the current approaches. Secondly, we define a novel combination operator for the co-activating of multiple primitives, enabling the resulting primitive to concurrently solve multiple tasks. Finally, we demonstrate that smoothly sequencing primitives is simply a special case of movement combination. All aforementioned operators for our model were derived analytically.

In noisy environments, coordinated movements have better recovery from perturbations when compared to controlling each degree of freedom independently. While many movement primitive representations use time as a reference signal for synchronization, our approach, in addition, synchronizes complete movement sequences in the full state of the robot. The skill's correlations are encoded in the covariance matrix of our probabilistic model that we estimate from demonstrations. Furthermore, by encoding the correlations between the state of the robot and force/torque sensors, we demonstrate that our approach has improved performance during physical interaction tasks.

A movement generation framework would have limited application without a control approach that can reproduce the learned primitives in a physical system. Therefore, we derive two control approaches that are capable of reproducing exactly the encoded trajectory distribution. When the dynamics of the system are known, we derive a model-based stochastic feedback controller. The controller has time-varying feedback gains that depend on the variance of the trajectory distribution. We compute the gains in closed form. When the dynamics of the system are unknown or are difficult to obtain, e.g., during physical interaction scenarios, we propose a model-free controller. This model-free controller has the same structure as the model-based controller, i.e. a stochastic feedback controller, with time-varying gains, where the gains can also be computed in closed form.

Complex robots with redundant degrees of freedom can in principle perform multiple tasks at the same time, for example, reaching for an object with a robotic arm while avoiding an obstacle. However, simultaneously performing multiple tasks using the same degrees of freedom, requires combining control signals from all the tasks. We developed a novel prioritization approach where we utilize the variance of the movement as a priority measure. We demonstrate how the task priorities can be obtained from imitation learning and how different primitives can be combined to solve unseen previously unobserved task-combinations. Due to the prioritization, we can efficiently learn a combination of tasks without requiring individual models per task combination. Additionally, existing primitive libraries can be adapted to environmental changes by means of a single primitive, prioritized to compensate for the change. Therefore, we avoid retraining the entire primitive library. The prioritization controller can still be computed in closed form.

Typ des Eintrags: Dissertation
Erschienen: 2017
Autor(en): Paraschos, Alexandros
Art des Eintrags: Erstveröffentlichung
Titel: Robot Skill Representation, Learning and Control with Probabilistic Movement Primitives
Sprache: Englisch
Referenten: Peters, Prof. Dr. Jan ; Neumann, Prof. Dr. Gerhard ; Calinon, Dr. Sylvain
Publikationsjahr: 2017
Ort: Darmstadt
Datum der mündlichen Prüfung: 26 Juni 2017
URL / URN: http://tuprints.ulb.tu-darmstadt.de/6947
Kurzbeschreibung (Abstract):

Robotic technology has made significant advances in the recent years, yet robots have not been fully incorporated in our every day lives. Current robots are executing a set of pre-programmed skills, that can not adapt to environmental changes, and acquiring new skills is difficult and time consuming. Additionally, current approaches for robot control focus on accurately reproducing a task, but rarely consider safety aspects that could enable the robots to share the same environment with humans. In this thesis, we develop a framework that allows robots to rapidly acquire new skills, to adapt skills to environmental changes, and to be controlled accurately and in a safe manner.

Our framework is based on movement primitives, a well-established concept for representing modular and reusable robot skills. In this thesis, we introduce a novel movement primitive representation that not only models the shape of the movement but also its uncertainty in time. We choose to rely on probability theory, creating a mathematically sound framework that is capable of adapting skills to environmental changes as well as adapting the execution speed online. Our probabilistic framework allows training the robot with imitation learning, speeding up significantly the process of novel skill acquisition. Hence, our approach unifies all the significant properties of existing movement primitive representations and, additionally, provides new properties, such as conditioning and combination of primitives.

By modeling the variance of the trajectories, our framework enables standard probabilistic operations to be applied on movement primitives. First, we present a generalization operator that can modify a given trajectory distribution to new situations and has improved performance over the current approaches. Secondly, we define a novel combination operator for the co-activating of multiple primitives, enabling the resulting primitive to concurrently solve multiple tasks. Finally, we demonstrate that smoothly sequencing primitives is simply a special case of movement combination. All aforementioned operators for our model were derived analytically.

In noisy environments, coordinated movements have better recovery from perturbations when compared to controlling each degree of freedom independently. While many movement primitive representations use time as a reference signal for synchronization, our approach, in addition, synchronizes complete movement sequences in the full state of the robot. The skill's correlations are encoded in the covariance matrix of our probabilistic model that we estimate from demonstrations. Furthermore, by encoding the correlations between the state of the robot and force/torque sensors, we demonstrate that our approach has improved performance during physical interaction tasks.

A movement generation framework would have limited application without a control approach that can reproduce the learned primitives in a physical system. Therefore, we derive two control approaches that are capable of reproducing exactly the encoded trajectory distribution. When the dynamics of the system are known, we derive a model-based stochastic feedback controller. The controller has time-varying feedback gains that depend on the variance of the trajectory distribution. We compute the gains in closed form. When the dynamics of the system are unknown or are difficult to obtain, e.g., during physical interaction scenarios, we propose a model-free controller. This model-free controller has the same structure as the model-based controller, i.e. a stochastic feedback controller, with time-varying gains, where the gains can also be computed in closed form.

Complex robots with redundant degrees of freedom can in principle perform multiple tasks at the same time, for example, reaching for an object with a robotic arm while avoiding an obstacle. However, simultaneously performing multiple tasks using the same degrees of freedom, requires combining control signals from all the tasks. We developed a novel prioritization approach where we utilize the variance of the movement as a priority measure. We demonstrate how the task priorities can be obtained from imitation learning and how different primitives can be combined to solve unseen previously unobserved task-combinations. Due to the prioritization, we can efficiently learn a combination of tasks without requiring individual models per task combination. Additionally, existing primitive libraries can be adapted to environmental changes by means of a single primitive, prioritized to compensate for the change. Therefore, we avoid retraining the entire primitive library. The prioritization controller can still be computed in closed form.

Alternatives oder übersetztes Abstract:
Alternatives AbstractSprache

Obwohl die Robotik in den letzten Jahren erhebliche Fortschritte gemacht hat, sind Roboter noch nicht vollständig Teil unseres täglichen Lebens. Heutige Roboter führen eine Reihe vorprogrammierter Fähigkeiten aus, welche nicht an Änderungen in der Umgebung angepasst werden können, und das Erlernen neuer Fähigkeiten ist schwierig und zeitaufwendig. Zudem fokussieren sich aktuelle Ansätze der Robotersteuerung darauf, eine genaue Wiedergabe der Aufgabe zu erreichen, aber betrachten selten Sicherheitsaspekte, welche es Robotern ermöglichen würden, die gleiche Umgebung mit Menschen zu teilen. In dieser Arbeit entwickeln wir ein Framework, das Robotern erlaubt neue Fähigkeiten schnell zu erwerben, diese Fähigkeiten an Änderungen in der Umgebung anzupassen und genau auf sichere Art und Weise kontrolliert zu werden.

Unser Framework basiert auf Bewegungsprimitiven, ein etabliertes Konzept zur Repräsentation modularer und wiederverwendbarer Roboterfähigkeiten. In dieser Arbeit präsentieren wir eine neuartige Repräsentation von Bewegungsprimitiven, welche nicht nur die Form der Bewegung, sondern auch ihre Unsicherheit in der Zeit modelliert. Durch unsere Entscheidung, Wahrscheinlichkeitstheorie zu verwenden, auf haben wir ein mathematisch solides Framework kreiert welches imstande ist, Fähigkeiten an Änderungen in der Umgebung sowie die Ausführungsgeschwindigkeit online anzupassen. Unser probabilistischer Ansatz erlaubt das Trainieren des Roboters mittels Lernen durch Nachahmung, was das Erwerben einer neuen Fähigkeit dramatisch beschleunigt. Somit vereint unser Ansatz alle signifikanten Eigenschaften bereits existierender Repräsentationen von Bewegungsprimitiven und stellt zusätzlich weitere Eigenschaften zur Verfügung wie z.~B. das Konditionieren und das Kombinieren von Primitiven.

Durch die Modellierung der Varianz der Trajektorien ermöglicht unser Framework die Anwendung von probabilistischen Operationen auf Bewegungsprimitive. Zunächst präsentieren wir einen Generalisierungsoperator der eine gegebene Trajektorienverteilung an eine neue Situation anpassen kann und verbesserte Leistungen auf bisherigen Ansätzen erzielt. Anschließend definieren wir einen neuartigen Kombinationsoperator zur Koaktivierung mehrerer Primitive, welcher dem resultierenden Primitiv ermöglicht gleichzeitig mehrere Aufgaben zu lösen. Zuletzt zeigen wir dass glattes Sequenzieren von Primitiven einfach ein Spezialfall des Bewegungskombinieren ist. Wir leiten alle zuvor genannten Operatoren für unser Modell analytisch her.

In verrauschten Umgebungen erholen sich koordinierte Bewegungen besser von Störungen im Vergleich zum unabhängigen Steuern eines jeden Freiheitsgrades. Während viele Ansätze für Bewegungsprimitive die Zeit als Referenzsignal zur Synchronisation verwenden, synchronisiert unser Ansatz zusätzlich komplette Bewegungssequenzen im ganzen Zustand des Roboters. Die Korrelationen der Fähigkeiten sind in der Kovarianzmatrix unseres probabilistischen Modells codiert, welches wir anhand von Demonstrationen schätzen. Außerdem zeigen wir, dass durch das Codieren der Korrelationen zwischen dem Zustand des Roboters und Kraft-/Drehmomentsensoren unser Ansatz verbesserte Performanz in physischen Interaktionsaufgaben hat.

Ein Bewegungsgenerierungsframework hätte nur begrenzte Anwendungsmöglichkeiten ohne einen Steuerungsansatz um die gelernten Primitive auf einem physikalischen System zu reproduzieren. Deshalb leiten wir zwei Regelungsstrategien her, welche fähig sind, die codierte Trajektorienverteilung exakt zu reproduzieren. Für den Fall, dass die Dynamik des Systems bekannt ist leiten wir einen modellbasierten stochastischen Regler her. Dieser Regler hat zeitveränderliche Verstärkungsfaktoren, welche von der Varianz der Trajektorienverteilung abhängen. Wir berechnen die Verstärkungsfaktoren in geschlossener Form. Für den Fall, dass die Dynamik des Systems allerdings unbekannt oder schwer zu berechnen ist, z.~B. in physikalischen Interaktionsszenarien, schlagen wir modellfreien Regler vor. Dieser modellfreie Regler hat die gleiche Struktur wie der modellbasierte Regler, d.~h. es handelt sich um einen stochastischen Regler mit zeitveränderlichen Verstärkungsfaktoren, dessen Verstärkungsfaktoren ebenfalls in geschlossener Form berechnet werden können.

Komplexe Roboter mit redundanten Freiheitsgraden können grundsätzlich mehrere Aufgaben zur gleichen Zeit durchführen, wie zum Beispiel nach einem Objekt zu reichen und währenddessen ein Hindernis zu vermeiden. Jedoch erfordert die gleichzeitige Durchführung mehrerer Aufgaben welche die gleichen Freiheitsgrade beanspruchen das Kombinieren der Steuersignale aller Aufgaben. In unserem Framework haben wir einen neuartigen Priorisierungsansatz entwickelt, bei dem wir die Varianz der Bewegung als Maß für ihre Priorität verwenden. Wir zeigen, wie die Aufgabenprioritäten durch Nachahmungslernen gewonnen werden können und wie unterschiedliche Primitive kombiniert werden können, um auch zuvor unbeobachtete Aufgabenkombinationen zu lösen. Dank der Priorisierung kann unser Ansatz effizient eine Kombination von Aufgaben lernen, ohne dass einzelne Modelle für jede Aufgabenkombination erforderlich sind. Zusätzlich können bereits bestehende Bibliotheken von Primitiven an Änderung in der Umgebung angepasst werden, indem ein einziges Primitiv priorisiert wird, um die Änderung zu kompensieren. Dadurch vermeiden wir das erneute Trainieren der gesamten Bibliothek von Primitiven. Die Priorisierungssteuerung kann in geschlossener Form berechnet werden.

Deutsch
URN: urn:nbn:de:tuda-tuprints-69474
Sachgruppe der Dewey Dezimalklassifikatin (DDC): 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Fachbereich(e)/-gebiet(e): 20 Fachbereich Informatik > Intelligente Autonome Systeme
20 Fachbereich Informatik
Hinterlegungsdatum: 10 Dez 2017 20:55
Letzte Änderung: 10 Dez 2017 20:55
PPN:
Referenten: Peters, Prof. Dr. Jan ; Neumann, Prof. Dr. Gerhard ; Calinon, Dr. Sylvain
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: 26 Juni 2017
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen