Roboter: Die neuen universellen Helfer

Gruppenbild mit einem Mann und Robotern
© Uni Bremen / Alexis MaldonadoDas von Professor Michael Beetz geleitete KI-Labor der Universität Bremen gehört zu den führenden Robotik-Forschungszentren Europas.
Ein Roboter macht Popcorn
© Pressedienst für das Bundesland BremenDer Roboter PR2 kann Popcorn zubereiten.
Ein Roboter wendet Pfannkuchen
© Kai Uwe Bohn / Uni BremenHier sieht man den Roboter PR2 beim Pfannkuchenwenden.

Eine Zukunftsvision, die so fern nicht mehr ist: Roboter sollen schon bald dem Menschen zur Seite stehen und einfache Aufgaben übernehmen. Einen Tisch decken, Getränke reichen, Mahlzeiten zubereiten – wer Hilfe braucht, wäre dafür dankbar. Ein anderes Szenario ist das Durchführen chemischer Experimente im Labor. Ein Informatiker-Team der Universität Bremen um Professor Michael Beetz versucht, mit ganz neuen Ansätzen Roboter möglichst effizient „auszubilden“

Popcorn machen, Pfannkuchen backen, Pizza zubereiten: Wenn man nicht weiß, wie es geht, findet man in Büchern oder im Internet unzählige Rezepte dazu. „Wenigen ist bewusst, dass es sich beim Kochen um eine Abfolge sehr differenzierter Bewegungen handelt, die elegant ineinander übergehen“, sagt der Informatiker Professor Michael Beetz. „Der Mensch profitiert dabei nicht nur von dem, was er im Verlauf seines Lebens gelernt hat, sondern auch von dem Erfahrungsschatz aus 100 Millionen Jahren Evolution, der ihm ins Unterbewusstsein ‚eingepflanzt‘ ist.“

Menschliche Fähigkeiten beibringen

Der Wissenschaftler und seine 15-köpfige Arbeitsgruppe im Institut für Künstliche Intelligenz (IAI) der Universität Bremen haben sich zum Ziel gesetzt, Maschinen diese diffizilen menschlichen Fähigkeiten beizubringen. Durchaus mit Erfolg: Wenn die Uni-Roboter bei Vorführungen Pfannkuchen wenden oder Popcorn machen, sind Zuschauer in der Regel begeistert. Dabei sind die Bewegungen der „Köche“ noch sehr abrupt. Aber man bekommt eine Vorstellung davon, wie Maschinen eines Tages Menschen im Alltag helfen könnten.

Beetz koordiniert seit 2013 das von der Europäischen Union finanzierte Projekt „RoboHow“, an dem neben der Universität Bremen sieben weitere europäische Partner aus Forschung und Industrie mitarbeiten. Denn die Aufgabe ist nur durch eine Bündelung aller Kräfte zu erreichen: „Wir haben keine 100 Millionen Jahre Zeit, um Robotern das fehlerfreie Agieren beizubringen. Aufgrund einer rapide alternden Gesellschaft gibt es schon bald einen riesigen Bedarf an ‚maschinellen Handreichungen‘, damit Senioren länger selbstbestimmt in den eigenen vier Wänden bleiben können.“ Zudem sind die besagten Handgriffe auch in anderen Umgebungen und bei anderen Tätigkeiten gefragt. Etwa in der Forschung: Wenn bei der Seuchenbekämpfung Experimente mit gefährlichen Erregern im Labor durchgeführt werden, wären entsprechend „ausgebildete“ Roboter ebenso eine Hilfe wie am Meeresboden, wo sie tauchende Wissenschaftler ersetzen und Langzeit-Experimente durchführen könnten.

Wie bringt man Robotern die richtigen Bewegungen in einem beliebigen Umfeld bei? „Menschen können in unbekannter Umgebung eine Tasse Kaffee zubereiten. Elementare Bewegungsabläufe sind bei uns so tief verankert, dass wir nicht darüber nachdenken müssen“, erläutert Hagen Langer, der in Beetz’ Arbeitsgruppe seit Jahren dabei ist. „Beim Roboter muss beispielsweise jeder einzelne Motor im Armgelenk für jeden Sekundenbruchteil der Bewegung programmiert werden – Kraft, Geschwindigkeit, Neigung und vieles mehr. Das muss in Einklang mit den optischen Eindrücken gebracht werden, bei denen die Tasse oder der Tisch auch als solche erkannt und eingeordnet werden müssen.“ Langer kann Dutzende von Parametern nennen, die in einer Roboter-Software  berücksichtigt werden müssen, um menschenähnliche Bewegungen zu schaffen: „Ohne präzise Anweisungen bleibt die Maschine dumm.“

Der Roboter soll selber lernen

Weil das Programmieren aber ungemein aufwendig ist, verfolgen die Wissenschaftler im RoboHow-Projekt einen anderen Ansatz: Der Roboter soll sich das nötige Wissen selbst beibringen und von den Erfahrungen der Menschen, aber auch von „erfolgreichen“ Tätigkeiten anderer Roboter lernen. Dazu lehren ihn die Forscher das Lesen und Zuschauen. „Im Internet gibt es unzählige geschriebene Anleitungen oder Videos, wie man Dinge tut. Ein Beispiel dafür sind die Erklärvideos des Projektes ‚wikiHow‘ oder Anleitungen auf Youtube“, so Michael Beetz. Ein Ziel der Arbeit in der Bremer Uni und den anderen Forschungseinrichtungen ist deshalb, dass die Software in den Maschinen durch diesen „Anschauungsunterricht“ oder das „Übersetzen“ von schriftlichen Anleitungen ihr „Allgemeinwissen“ von selbst erweitert: „Für uns heißt das, eine Roboter-Software zu entwickeln, die Geschriebenes und Gesehenes in die eigene Steuerung ‚übersetzt‘“.

Zusätzlich füttern die Bremer Forscher die Roboter mit Daten, die Menschen bei Tätigkeiten in einer virtuellen Welt generieren. Wenn man den Forschern dabei zusieht, glaubt man einer Pantomime beizuwohnen: Mit einer Datenbrille vor den Augen und Joysticks in den Händen bewegen sie sich in einem leeren Raum. Tatsächlich agieren sie in diesem Moment in einer virtuellen Küche. Jede Bewegung wird durch Kameras beobachtet. „Die Tätigkeit wird mit allen wichtigen Parametern aufgezeichnet und in eine Sprache übersetzt, die der Roboter versteht. Er lernt so von den Menschen, die es ihm vormachen“, erläutert Hagen Langer.

Weitere Informationen: ai.uni-bremen.de