Learning humanoid robots
Final Report Abstract
Humanoide Roboter erfreuen sich zunehmender Beliebtheit als Forschungsgegenstand. Im Projekt sind humanoide Roboter für drei Beispielanwendungen entstanden: Das Fußballspiel, die intuitive multimodale Kommunikation mit Menschen in einem Museum und Serviceaufgaben im Haushalt. Seit 1997 veranstaltet die RoboCup-Federation jährlich internationale Wettbewerbe im Roboterfußball, die sich zu einem Leitproblem der künstlichen Intelligenz-Forschung und der Robotik entwickelt haben. Im Projekt sind humanoide Fußballroboter der TeenSize-Klasse entstanden, die seit 2007 vier Mal den Wettbewerb gewonnen haben. Bei der Spielqualität setzten unsere Fußballroboter Maßstäbe. Sie bewegen sich flexibel durch kontinuierliches omnidirektionales Gehen, erkennen Instabilitäten und stabilisieren sich mit Fangschritten. Die Roboter verfügen über elementare Fähigkeiten, wie Schuss- und Torwartverhalten, die von komplexeren Fußballverhalten benutzt werden. Die Wahrnehmung der Spielsituation erfolgt über Kameras. Die Roboter sehen den Ball und andere Spieler und bestimmen ihre Position auf dem Spielfeld zuverlässig. Die Spieler eines Teams stimmen sich über die Rollenverteilung ab und tauschen sich über die Ballposition aus. Für eine Vielzahl von Komponenten dieses Systems wurden im Projekt Lernverfahren entwickelt. Beispielsweise wurden Parameter des omnidirektionalen Gangs durch optimierendes Lernen verbessert. Aus Motion-Capture-Daten wurde ein Modell der Roboterbewegung gelernt, das die Grundlage für die Planung einzelner Schritte bildet. Auch im Bereich der Wahrnehmung kamen Lernverfahren zum Einsatz. Für die Verifikation von Ball-Hypothesen wurde beispielsweise ein neuronaler Klassifikator entwickelt und für die Entscheidung des Torwarts über Zeitpunkt und Art der Parade wurde ein Modell der Ballbewegung bei Schüssen auf das Tor erlernt. Der TeenSize-Roboter Robotinho wurde 2007 mit einem Kommunikationskopf ausgestattet, der siebzehn bewegliche Gelenke hat. Robotinho nimmt seine Kommunikationspartner visuell mit zwei beweglichen Kameras und akustisch mit einem gerichteten Mikrofon wahr. Gesichter werden in Kamerabildern gefunden und auch dann verfolgt, wenn sie außerhalb des Sichtfelds sind. Sprache wird entsprechend einer situationsabhängigen Grammatik erkannt. Lernverfahren kamen beispielsweise bei der Schätzung der Kopfpostur und der monokularen Gestenerkennung zum Einsatz. Für den Test des Kommunikationsroboters als Museumsführer wurde ein multimodales Dialogsystem entwickelt. Der Roboter erklärt mehrere Ausstellungsstücke und sich selbst. Dabei generiert er verschiedene symbolische Gesten und lenkt die Aufmerksamkeit der Besucher durch Zeigegesten auf die Ausstellungstücke. Robotinho drückt seinen emotionalen Zustand mit Mimik und emotionaler Sprachsynthese aus und hält Blickkontakt zu mehreren Personen. Die Besucher können einfache Dialoge führen und dabei auswählen, welches Exponat in welcher Detailstufe erklärt wird. Im Jahr 2008 wurde Robotinho mit einem omnidirektionalen Fahrwerk ausgestattet, um sich schneller und sicher in Innenräumen bewegen zu können. Der Roboter erstellt Karten und lokalisiert sich mit einem Laser-Scanner, kann zielgerichtet navigieren und Hindernissen ausweichen. Robotinho wurden bei mehreren Demonstrationen mit naiven Benutzern getestet. Er kam bei drei RoboCup@Home-Wettbewerben zum Einsatz. Im Januar 2010 hat er an vier Tagen eine große Anzahl von Führungen im Deutschen Museum Bonn gegeben. Dabei hat sich gezeigt, dass der verfolgte multimodale Ansatz zur Mensch-Maschine-Kommunikation wirklich intuitiv ist. Im Projekt sind weiterhin zwei Roboter für komplexe Aufgaben im Haushalt entstanden, die robuste Mobilität, Objekt-Manipulation und intuitive Kommunikation mit Benutzern erfordern. Die Roboter verfügen über ein omnidirektionales Fahrwerk und einen anthropomorphen Oberkörper. Diese @Home-Roboter zeichnen sich durch Leichtbau und ein modulares Konzept aus und sind trotz der relativ geringen Kosten sehr leistungsfähig. Für die @Home-Roboter wurden im Projekt Sortwarekomponenten zur Kartierung der Roboterumgebung, zur Selbstlokalisierung, zur Pfadplanung und Navigation, zur Detektion, Verfolgung und Erkennung von Personen, zur Gestenerkennung, zur Detektion, Erkennung und Lageschätzung von Objekten, zur Greifplanung und Ausführung von Greif- Ablege- und Übergabebewegungen und ein Dialogsystem realisiert. Dabei kamen auch Lernverfahren zum Einsatz, wie beispielsweise eine Kombination aus Imitationslernen und Reinforcement-Lernen für Greifbewegungen. Seit 2009 beteiligt sich unser Team NimbRo mit großem Erfolg an internationalen RoboCup@Home-Wettbewerben, die wir 2011 erstmals gewonnen haben. Ein wesentliches Problem humanoider Fußballroboter ist immer noch die Stabilität des zweibeinigen Gangs. Während unsere Roboter relativ schnell und sicher omnidirektional auf ebenem Grund gehen können, bereitet die Wahrung der Balance bei Störungen immer noch Probleme. Mit unserem TeenSize-Roboter haben wir kürzlich einen Ansatz zur seitlichen Stabilisierung entwickelt, der auf einem Linear-Invertierten-Pendel beruht. Der Roboter sagt mit diesem Modell auf der Grundlage der geschätzten Neigung und Neigungsgeschwindigkeit vorher, wo und wann er den Fuß aufsetzen muss, um den gewünschten Bewegungszustand wieder zu erlangen. Im Rahmen des SPP „Autonomes Lernen“ wurde das Projekt "Autonomous Learning of Bipedal Walking Stabilization" bewilligt, in dem unser TeenSize-Roboter autonom bessere Modelle seiner Dynamik lernen soll, um auch bei höheren Geschwindigkeiten und Störungen in beliebiger Richtung die Balance beim Gang zu wahren. Eine weitere Stoßrichtung für künftige Forschungsarbeiten ist das Rennen. Hierfür sind Aktuatoren erforderlich, die elastisch sind und hohe Spitzenleistungen liefern. Wir haben erste Experimente mit Linearmotoren durchgeführt, die gemeinsam mit einer Feder ein auf der Stelle hüpfendes Teleskopbein antreiben. Momentan nehmen wir einen zweibeinigen Roboter in Betrieb, der pro Bein über ein Hüftgelenk, ein Kniegelenk und einen Linearaktuator mit Feder im Unterschenkel verfügt. Ziel ist, einen kleinen rennenden Roboter zu entwickeln. Eine weitere Idee für zukünftige Forschungsarbeiten ist, den im Projekt verwendeten hierarchischreaktiven Ansatz zur Verhaltenssteuerung zu einem hierarchischen Planungsansatz auszubauen. Hierbei sollen Pläne auf verschiedenen Abstraktionsstufen, die unterschiedlich schnell laufen, geplant werden, sodass jede Stufe nur eine geringe, konstante Anzahl von Aktionen enthält. Diese Vorgehensweise führt zu Plänen, die in unmittelbarer Zukunft detailliert ausgestaltet sind und konkret abgearbeitet werden können. Je weiter diese Pläne in die Zukunft reichen, desto gröber und abstrakter werden die geplanten Aktionen. Durch kontinuierliche Aktualisierung der Pläne werden die abstrakten Aktionen in dem Maße konkretisiert, in dem die Zeit bis zu ihrer Ausführung schwindet. Im Bereich der intuitiven multimodalen Kommunikation ist die Spracherkennung immer noch ein Problem, da das Mikrofon häufig einen Abstand zum Sprecher hat und Nebengeräusche ignoriert werden müssen. Auch beim Verständnis der Semantik hat das verwendete Spracherkennungssystem durch die für jeden Dialogzustand vordefinierte Grammatik noch Defizite. Die kürzlich von Apple für das iPhone 4S vorgestellte Dialogsoftware Siri zeigt, dass mehr möglich ist. Es wäre interessant, diese Technologie auch bei den Kommunikationsrobotern einzusetzen und durch zusätzliche Modalitäten (Gesten, Körpersprache, ...) zu erweitern. Ein interessanter Aspekt ist dabei die direkte physikalische Interaktion von Robotern und Menschen. Die @Home-Roboter sind in der Lage, einfache Tätigkeiten in semi-strukturierten Umgebungen durchzuführen, welche zu Demonstrationen verbunden werden können. Um sich tatsächlich im Haushalt nützlich zu machen, müssen die Roboter ein reichhaltigeres Modell ihrer Einsatzumgebung erstellen als das jetzt der Fall ist. Dies muss beispielsweise die Bewegungsmöglichkeiten artikulierter Objekte umfassen. Auch müssen mögliche Aktionen, die mit Objekten durchgeführt werden können, sowie deren Effekte repräsentiert werden. Um bessere Vorhersagen machen zu können, wäre beispielsweise ein Verständnis von naiver Physik nötig. Da die Roboter in hochdimensionalen Zustands-Aktions-Räumen kaum nur aus eigener Erfahrung lernen können und die Übertragung von menschlichen Vorbildern auf die Roboter aufgrund des Korrespondenzproblems schwierig ist, bietet sich hier das Lernen aus Teleoperation der Roboter an. Hierfür ist allerdings ein leistungsfähiges Teleoperationsinterface mit Kraftrückkopplung für Ganzkörperbewegungen nötig, was beispielsweise durch ein Exoskelett realisiert werden könnte. Humanoide Fußballroboter sind ein faszinierender Forschungsgegenstand und stoßen auf breites Interesse auch bei allgemein wissenschaftlich interessiertem Publikum. Inzwischen sind kleinere humanoide Roboter (Aldebaran Nao, Robotis DARwIn-OP) kommerziell erhältlich, die für das Fußballspiel geeignet sind. Für die TeenSize-Klasse sind solche Standard-Roboter allerdings noch nicht verfügbar. Um dies zu ändern, hat der Projektleiter gemeinsam mit einem Industriepartner bei der DFG ein Erkenntnistransfer-Projekt beantragt, dessen Gegenstand die Entwicklung eines leistungsfähigen offenen Robotersystems für die Humanoid-TeenSize-Klasse ist. Hier können die Erkenntnisse aus dem abgeschlossenen Projekt ideal einfließen. Bei den humanoiden Fußballrobotern handelt es sich um komplexe technische Systeme, die noch weit davon entfernt sind, für den Massenmarkt geeignet zu sein. Wenn Probleme bei Kalibrierung und Robustheit gelöst werden können, gibt es das Potential, neben dem Forschungsmarkt auch breitere Märkte, wie den Edutainment-Markt, zu erschließen. Für die Kommunikationsroboter ist eine Verwertung als mobiler Wegweiser in Bürokomplexen, Hotels, auf Bahnhöfen, etc. und natürlich als Museumsführer denkbar. Auch die @Home-Roboter können mittelfristig Anwendung im Servicebereich finden, z.B. damit hilfebedürftige Menschen weniger von Angehörigen und Pflegern abhängig sind, sondern sich mit Hilfe eines Roboters stärker selbst versorgen können.
Publications
- Hierarchical Reactive Control for Humanoid Soccer Robots. International Journal of Humanoid Robots (IJHR), 5(3): 375–396, 2008
Sven Behnke and Jörg Stückler
- Recognizing Complex, Parameterized Gestures from Monocular Image Sequences. In: Proceedings of 8th IEEE-RAS International Conference on Humanoid Robots (Humanoids), Daejeon, Korea, 2008
Tobias Axenbeck, Maren Bennewitz, Sven Behnke, and Wolfram Burgard
- Integrating Indoor Mobility, Object Manipulation and Intuitive Interaction for Domestic Service Tasks. In: Proceedings of 9th IEEE-RAS International Conference on Humanoid Robots (Humanoids), Paris, France, 2009
Jörg Stückler and Sven Behnke
- Improving Imitated Grasping Motions through Interactive Expected Deviation Learning. In: Proceedings of 10th IEEE-RAS International Conference on Humanoid Robots (Humanoids), Nashville, TN, 2010
Kathrin Gräve, Jörg Stückler, and Sven Behnke
- Intuitive Multimodal Interaction and Predictable Behavior for the Museum Tour Guide Robot Robotinho. In: Proceedings of 10th IEEE-RAS International Conference on Humanoid Robots (Humanoids), Nashville, TN, 2010
Matthias Nieuwenhuisen, Judith Gaspers, Oliver Tischler, and Sven Behnke
- Utilizing the Structure of Field Lines for Efficient Soccer Robot Localization. In: Proceedings of 14th International RoboCup Symposium, Singapore, 2010
Hannes Schulz, Weichao Liu, Jörg Stückler and Sven Behnke
- Towards Joint Attention for a Domestic Service Robot – Person Awareness and Gesture Recognition using Time-of-Flight Cameras. In: Proceedings of the IEEE International Conference on Robotics and Automation (IC-RA), Shanghai, China, 2011
David Droeschel, Jörg Stückler, Dirk Holz, and Sven Behnke