Robotics and Biology Laboratory

Learning a Repetitive In-Hand Manipulation Task on the Sensorized RBO Hand 2 Using Policy Search

Zusammenfassung

Marcel Radke, 2019

Motivation

Die RBO Hand 2 ist eine weiche Roboterhand mit hoher Nachgiebigkeit. Ihre Aktoren passen ihre Form passiv an verschiedene Objekte und die Umgebung an. Obwohl die Steuerung der pneumatischen Hand relativ einfach ist, ist sie zu komplexen Manipulationen in der Hand fähig: Kugeldrehung (Video), Stiftdrehung (Video). Die kürzlich hinzugefügten Dehnungssensoren aus Flüssigmetall haben die Möglichkeit geschaffen, ein besseres Feedback über den aktuellen Zustand der Hand zu erhalten. Das Ziel dieser Arbeit ist es, diese neuen Sensorinformationen zu nutzen, um die Ausführung verschiedener Manipulationsaufgaben in der Hand robuster zu machen.

Ergebnisse

Wir untersuchen, wie eine weiche Roboterhand ein gegriffenes Objekt zuverlässiger manipuliert, wenn wir die Position des Objekts in einem geschlossenen Regelkreis berücksichtigen. Wenn die Steuerung die Position ignoriert, häufen sich die Unsicherheiten und das Objekt fällt herunter. Wir gehen davon aus, dass die Information über die Position in der Verformung der Finger ausreichend enthalten ist, um sie zu klassifizieren, da sie sich aufgrund der Nachgiebigkeit an die Form des Objekts anpassen. Wir messen die Verformung mit Dehnungssensoren und klassifizieren diskrete Objektpositionen mit einer Genauigkeit von 100 % und Objektpositionen innerhalb von drei sich überlappenden Regionen mit einer Genauigkeit von 64 % bis 84 %. Wir zeigen für eine beispielhafte Manipulationsaufgabe in der Hand, dass eine sensorisierte weiche Roboterhand für die Regelung geeignet ist, indem wir ein Mapping trainieren, das einen Betätigungsbefehl aus den Sensordaten schätzt. Das Trainieren eines Mappings an den Grenzen einer bestimmten Handmanipulationsaufgabe ermöglicht es dem Regler, sich an ein Objekt anzupassen, das aufgrund von Unsicherheiten innerhalb der Grenzen rutscht. Wir trainieren das Mapping, indem wir die gewünschte Aufgabe mehrfach auf der realen Hardware ausführen. Wir entwerfen eine Kostenfunktion im Aufgabenraum, um die Regelung mit Hilfe von Reinforcement Learning zu erweitern.