Mach mal,       Roboter!

Michael Heilemann    

Von Michael Heilemann, , 8197;, , 8197;, , 8197;, & 8197;

Sa, 06. Juni 2015

Bildung & Wissen

Menschliche Maschinen werden unser Leben erleichtern.                         Baden forscht an der Spitze mit.

Armar spricht nur Englisch. Deutsch zu lernen wäre für ihn kein Problem, aber Englisch ist nun mal die Sprache von Wissenschaft und Forschung. Wenn also Nikolaus Vahrenkamp, Mitarbeiter am Karlsruher Institut für Technologie (KIT), den Roboter zum Kühlschrank schicken will, damit er ihm Saft holt, muss er sagen: "Bring me the multivitamin juice from the fridge." Armar wiederholt dann den Befehl, dreht auf seinem Fahrgestell und nimmt mit seinen Augen die Küchenzeile ins Visier. Gemächlich rollt er zum Kühlschrank, leise, kaum hörbar surren seine Elektromotoren. Die fünf Finger von Armars rechter Hand ziehen am Griff, mit der linken hilft er nach. Die Tür öffnet sich mit einem sachten Ruck und der Roboter nimmt vorsichtig den Getränkekarton aus dem Seitenfach. Er fährt zurück zu Nikolaus Vahrenkamp und übergibt ihm den gewünschten Gegenstand.

Armar III a, so der exakte Name, hätte die Übung ebenso mit einem Ei vorführen können. Diese Menschmaschine aus Metall, Motoren, Mikroelektronik und einem Hirn aus mehreren Rechnern verfügt über eine beachtliche Feinmotorik, über eine erstaunliche räumliche Orientierung und Wahrnehmungsfähigkeit.

"What can you see now?", fragt Nikolaus Vahrenkamp, nachdem er Armar befohlen hat, zum Tisch zu gehen, wo mehrere Dinge liegen, die beim Frühstück eine Rolle spielen. Der Roboter schaut einen Moment hin und her, dann antwortet er: Kakaopulver, Kaffee, Kekse und einen Becher.

Bravo Armar, gut gemacht.

Die Küche, in der der Roboter zugange ist, ist natürlich keine echte Küche, sondern ein Laborraum des Lehrstuhls für humanoide Robotiksysteme am KIT. Dessen Leiter ist Tamim Asfour, der sozusagen der Vater der Roboterfamilie Armar ist. Der Wissenschaftler beschäftigt sich seit 15 Jahren mit humanoiden Robotern, in Karlsruhe steht bereits die dritte Generation, die Vorgänger sind nach München ins Deutsche Museum umgesiedelt.

Humanoide Roboter sind nach menschlichem Vorbild konstruiert – mit Kopf, Augen, Händen, Fingern und zwei Beinen (die hat Armar III a noch nicht). Sie haben Gelenke an Stellen, wo sie auch der Mensch hat. Sie können nicken, den Kopf drehen, die Augen bewegen. Wir können mit ihnen in unserer Sprache reden. Manche, wie die japanischen, vom Mangastil inspirierten humanoiden Roboter sehen sogar niedlich aus.

All das ist psychologisch wichtig, weil es uns ein Gefühl der Nähe vermittelt. Und es ist eben die menschliche Gestalt, mit der sich das am besten bewerkstelligen lässt, was Menschen in ihrer Alltagsumgebung so zu tun haben. Die Spülmaschine ausräumen, den Tisch decken oder einen Saft einschenken. All das kann Armar. Er ist dabei zwar noch ein bisschen langsam, hin und wieder geht auch noch etwas schief. Aber in Zukunft, davon ist Asfour überzeugt, werden humanoide Roboter unverzichtbare Helfer im Haushalt sein. Was sie zu tun haben, bringt der Mensch ihnen bei. Denn sie können lernen.

Das demonstriert Asfour am (leicht verbesserten) Zwilling des Küchen-Roboters. Armar III b ist rot bemalt und steht im Labor nebenan vor einem Tisch. Der Professor nimmt einen Schwamm und wischt über den Tisch – der Roboter beobachtet den Vorgang und tut das Gleiche. "Dabei ahmt er nicht nur nach, sondern abstrahiert zugleich", erklärt Asfour. Der Roboter bildet sozusagen eine Vorstellung davon, was Wischen bedeutet und dass man es in den verschiedensten Formen tun kann: langsamer und schneller, mit mehr oder weniger Druck, kreisend oder in Form einer Acht, auf ebener oder gewölbter Oberfläche. Dass man nicht nur Tische, sondern auch Pfannen wischen kann. "Er erstellt sich eine Bibliothek aus elementaren Fähigkeiten, die sich kombinieren und so auf unterschiedliche Situationen anwenden lassen." Eine solche Bibliothek ist natürlich nicht komplett "on board", also in Armars Rechnern gespeichert. Vielmehr holt er sich über WLAN aus einer Datenbank, was er in der Umgebung, in der er gerade tätig ist, braucht. Über Internet können auch mehrere Roboter kommunizieren und so eine Aufgabe gemeinsam erledigen. Asfour: "Wenn der eine ein Werkzeug benötigt, das gerade nicht in seinem Sichtbereich ist, kann der andere ihm mitteilen, wo es liegt."

Beim Lernen geht es aber nicht nur um bestimmte Fähigkeiten wie etwa Wischen, sondern um Weltwissen generell. "Der Roboter muss zum Beispiel lernen, was Milch ist, was man damit macht, trinken nämlich, dass man sie nicht werfen soll und auch nicht schneiden wie eine Gurke. Alles Dinge, die für den Menschen selbstverständlich sind. Dieses Wissen muss permanent aktualisiert, erweitert und verfeinert werden." Auch dabei könnten sich Roboter untereinander helfen: Sie könnten übers Internet ihr Wissen austauschen. Wenn der eine beispielsweise nicht weiß, wohin er das Müsli stellen soll, könnte ihm ein anderer mitteilen: Also, bei uns steht das immer neben dem Kaffee.

Bis dahin ist es aber noch ein sehr weiter Weg. In Karlsruhe geht es vorerst darum, die Armarfamilie weiterzuentwickeln. Die dritte Generation gibt es seit 2008, ein komplett neu entwickeltes Nachfolgemodell steht bereits in den Startlöchern: Armar IV ist vollhumanoid, hat also keinen fahrbaren Untersatz mehr, sondern geht auf zwei Beinen. Im Moment allerdings hängt er noch an einem Gestell. Die Füße fehlen, an denen arbeiten Asfour und sein Team gerade.  
Die Füße sind ähnlich konstruiert wie die Hände: mit vielen Sensoren und vor allem mit sogenannten aktiven, also beweglichen Zehen – eine Voraussetzung dafür, dass der Gang nicht roboterhaft stapfend, sondern möglichst natürlich erscheint. Armar IV hat 63 Gelenke – 20 mehr als sein Vorgänger. Mit Batterien ist er rund 70 Kilo schwer und mit 170 Zentimeter in etwa so groß wie ein Durchschnittsmensch.

Frage an Professor Tamim Asfour: Wie nah ist er nun am Menschen? "Sehr nah", was die Beweglichkeit anbetrifft. In punkto Kraft sieht es anders aus. Nur zwei bis drei Kilo kann der Roboter mit jedem Arm halten. Für einen Tetra Pak Saft ist das mehr als genug, aber nicht für eine Kiste Sprudel. Auch bei einem Wettrennen mit dem Menschen hätten humanoide Roboter nicht die geringste Chance. Asfour: "Was heutige Roboter noch nicht können, ist schnell und zugleich stabil laufen, also Störungen kompensieren, die Balance halten."

Zweibeiniges Laufen ist für das KIT ohnehin ein recht neues Feld. Die bisherigen Schwerpunkte in der Karlsruher Roboterforschung sind das Greifen, die Wahrnehmung der Umgebung, das Lernen durch Beobachtung des Menschen und die Interaktion mit dem Menschen. Andere Entwickler haben sich auf das Laufen spezialisiert. Asimo, der Roboter von Honda etwa, ist darin schon ziemlich gut, wie auf diversen Youtube-Videos zu sehen ist, er würde aber im Greifen beim Vergleich mit dem Karlsruher Roboter den Kürzeren ziehen, meint Asfour.

Mit Armar wird in Karlsruhe Grundlagenforschung betrieben, alle Komponenten sind "made in KIT", wie Tamim Asfour betont. Allein die Materialkosten eines Exemplars liegen bei rund 200 000 Euro, und kaufen kann man diesen Roboter natürlich auch nicht. Nao dagegen, der kleinkindgroße Roboter des französischen Herstellers Aldebaran, ist bereits für rund 6000 Euro zu haben. Er wird vor allem in Schulen eingesetzt, um Kinder für Robotik zu begeistern, oder als Forschungsplattform an Universitäten. Einige stehen auch in der Arbeitshalle des Instituts für Informatik in Freiburg. Doktorand Felix Burget drückt auf die Starttaste am Kopf des 58 Zentimeter kleinen Gesellen. "Wohin soll ich gehen?", fragt der. Burget nimmt ihn an der Hand, und der Nao watschelt los. Er lässt sich im Raum herumführen. Ein Druck auf eine andere Taste, und Nao setzt sich für ein Päuschen hin. "Das schont die Motoren", erklärt Burget. Dann führt er den Roboter zu einer dreistufigen Holztreppe, die Nao hochsteigt. Mit seinen taktilen Sensoren erkennt er den Stufenbeginn, setzt ein Bein nach oben und zieht das andere nach, sobald er das Gewicht verlagert hat – ein programmierter Bewegungsablauf. Oben sagt der Nao: "Ich hab’s geschafft, das war anstrengend." Und verneigt sich.

Technisch aufgerüstet, unter anderem mit einer 3-D-Kamera, und mit einem externen Rechner verbunden, können Naos noch viel mehr. Auf Youtube sind Videos von Freiburger Arbeiten zu sehen, in denen ein Roboter Xylophon spielt oder selbständig ein Kinderzimmer aufräumt, in dem Bälle verstreut liegen. Der Nao greift sie mit seiner dreifingrigen Hand und legt sie in eine Kiste. Wolfram Burgard, Professor am Institut für Informatik, will einen Praxisversuch starten: Zusammen mit dem Stuttgarter Fraunhofer Institut für Produktionstechnik möchte er Naos im Rahmen des Projekts Squirrel in einem Kindergarten einsetzen.

In der Halle der Freiburger Technischen Fakultät arbeitet auch der Informatikstudent Ingo Killmann, der als Wissenschaftliche Hilfskraft im Exzellenzcluster Brainlinks-Braintools beschäftigt ist. Hier sollen Roboter zur Praxisreife entwickelt werden, die Körperbehinderte unterstützen. Beim Trinken zum Beispiel. Killmann demonstriert, wie ein Roboterarm einen Becher zum Mund eines Menschen führt.

Gesteuert wird der künstliche Arm, der an einen Rollstuhl montiert werden könnte, durch Gehirnsignale des Gelähmten. In den Ablauf kann der Mensch korrigierend eingreifen und dem Roboter beispielsweise ein Stoppsignal geben, wenn die Flüssigkeit zu heiß ist, oder ein weiteres Go-Signal erteilen, wenn er nochmal trinken möchte.

Am Karlsruher Institut für Technologie arbeiten sie ebenfalls mit dieser Perspektive. In dem Labor, wo auch der Prototyp von Armar IV steht, liegt etwas, das wie eine Beinprothese aussieht – aber Teil eines sogenannten Exoskeletts ist, das Tamim Asfour gerade entwickelt. Das Vorhaben könnte aus einem Science-Fiction-Film stammen: Bei Exoskeletten handelt sich um Roboteranzüge, die als Kraftverstärker dienen – für Alte, Kranke und Schwache, für Gehbehinderte, aber auch für Menschen, die körperlich sehr belastende Arbeiten ausführen wie Bauarbeiter oder Pfleger. Asfour warnt allerdings vor Schlagzeilen im Stil von: Gelähmte können mit Roboterhilfe wieder laufen. "Bevor man über solche Anzüge für Rollstuhlfahrer oder Schlaganfallpatienten redet, muss man es schaffen, zweibeinige, humanoide Roboter in jeder Umgebung stabil laufen zu lassen. Beim heutigen Stand der Entwicklung geht das noch nicht. Sie kommen bei jeder kleinen Störung von außen aus dem Gleichgewicht und fallen um."

Was nicht heißt, dass Roboter nicht schon heute stabil rennen können. Ein Hit auf Youtube sind Wild Cat oder Big Dog, vierbeinige Laufmaschinen der zu Google gehörenden US-Firma Boston Dynamics, die in hohem Tempo durch die Gegend galoppieren, über Eisflächen schliddern oder stürzen und wieder aufstehen. Der zweibeinige, aufrechte Gang aber ist etwas sehr Besonderes. Wie der Mensch überhaupt – und humanoide Roboter auch, die ihn ja nachbilden, möglicherweise, als Androide, sogar sein Ebenbild sein sollen. Trotz der imponierenden Leistungen eines Armar: Die, wenn man so will, geistigen Fähigkeiten humanoider Roboter sind noch sehr begrenzt. Die körperlichen ebenso. Die menschlichen Gliedmaßen vereinen Kraft, Schnelligkeit, Präzision und Sensibilität auf kleinstem Raum. Die Biologie und ihre "wunderbare Performance" technisch umzusetzen, das sei extrem schwer, sagt Tamim Asfour.

Was die Evolution in Millionen Jahren vollbracht hat, kann der Mensch nicht in wenigen Jahrzehnten nachmachen.