Verkörperte Intelligenz Robotik und KI als Zehnkampf der Ingenieurwissenschaften

Rennende Roboter? Noch kann die Maschine keine Energie speichern und später wieder freisetzen, denn mechanisch gesehen würde das etwa erfordern, Federn über die Gelenke einzubauen, was dann zu aktuell noch schwer regelbaren Schwingungen führen kann.

Bild: iStock, Devrimb
19.06.2023

Ein Roboter kann so klein sein wie eine Tablette oder so groß wie ein (selbstfahrendes) Auto, aussehen wie ein Mensch oder fliegen wie eine Drohne. „Ein Roboter“, sagt Angela Schoellig, Humboldt-Professorin an der Technischen Universität München, „ist die Fortsetzung dessen, was Menschen schon seit der Steinzeit tun – Werkzeuge entwickeln, um Aufgaben schneller oder besser auszuführen.“ An der TUM befasst sich eine ganze Reihe weltweiter Spitzenforschender mit unterschiedlichsten Herausforderungen der Robotik.

Ob in der Gastronomie, der Pflege oder im Einzelhandel: Der Fachkräftemangel ist im Alltag angekommen. Was liegt hier näher, als einem Roboter einen Teil dieser Arbeiten zu übertragen. Beispiel Restaurant: Ein Roboter steht hinter dem Tresen, beobachtet neue Kunden, läuft zum Tisch, wenn jemand bestellen will, nimmt die Bestellung auf und gibt sie weiter. Er serviert Essen und Getränke, hält einen kleinen Plausch und kassiert. Für den Professor Daniel Rixen hinkt das Szenario: „Wollen wir wirklich einen Roboter haben, der wie ein Mensch aussieht“, fragt der Professor aus dem Lehrstuhl für angewandte Mechanik der TUM, „oder eher eine wie auch immer geartete Maschine, die die Funktionalität des Menschen ersetzt oder besser macht?“

Kameras könnten im Restaurant den Menschen beobachten, erkennen, wenn Kunden einen Wunsch haben und über ein im Tisch integriertes Mikrofon bestellen. Und: Müssen die Getränke und das Essen wirklich durch einen humanoiden (dem Menschen ähnlichen) Roboter an den Tisch gebracht werden? „Das könnten ja auch Roboterarme machen, die von oben den Sekt und von der Seite das Steak auf den Tisch stellen“, meint Rixen.

Und schon hier deutet sich an: Wie ein Roboter aussieht, kann eine Rolle spielen, muss es aber nicht. Von Nanorobotern über Drohnen, selbstfahrende Autos bis hin zu Roboterarmen reicht das Spektrum. „Form follows function“ gilt nicht nur im Design, sondern auch in der Robotik. Gut regelbar sind Anwendungen, in denen der Roboter klare Aufgaben vorgesetzt bekommt. Etwa Paprikas im Treibhaus pflücken. „Der Paprika ist egal, ob sie von einem Menschen oder Roboter gepflückt wird“, sagt Rixen. Klar ist: Das Werkzeug der Neuzeit muss seinen Zweck erfüllen.

Der laufende Roboter: Ist er wirklich gewollt?

Professor Rixen, der unter anderem am humanoiden Roboter Lola forscht, weiß, was es bedeutet, einem zweibeinigen Roboter das Laufen beizubringen, besonders auf unebenem Grund. Sollen noch dazu Gläser transportiert werden, die nicht überschwappen dürfen, steigen die Anforderungen an einen humanoiden Ober im Restaurant weiter. „Lola wurde vor fünfzehn Jahren als steife Maschine gebaut, die sich präzise regeln lässt“, erläutert Rixen die Grundlagenforschung am Mechanik-Lehrstuhl. „Heute wissen wir, dass mehr Flexibilität und Nachgiebigkeit in den Gelenken wichtig ist.

Wenn Lola stolpert, kann man weniger als sieben Mal pro Sekunde effizient nachregeln“, so der Professor des Lehrstuhls, der für alles zuständig ist, was schwingt und sich bewegt. Konkret nutzen Algorithmen Bewegungsmessungen im Brustbereich, um Motoren und Gelenke zu steuern. Doch im Vergleich dazu spielt der in Jahrmillionen entwickelte Mensch noch immer in einer anderen Liga.

„Den ‚Muskel‘ eines Roboters so effizient machen wie den eines Menschen“ nennt Rixen den „heiligen Gral“ der Robotik. Noch kann die Maschine keine Energie speichern und später wieder freisetzen, wie beispielsweise die Achillessehne, die in der Lage ist, einen wichtigen Impuls für das Gehen des Menschen zu geben. Mechanisch gesehen würde das etwa erfordern, Federn über die Gelenke einzubauen, was dann zu aktuell noch schwer regelbaren Schwingungen führen kann.

Robotik: Der Zehnkampf der Ingenieurwissenschaften

„Der humanoide Roboter ist ein Forschungsideal“, sagt Prof. Alin Albu-Schaeffer. Der Robotik-Experte am Deutschen Zentrum für Luft- und Raumfahrt (DLR) und an der TUM spricht vom „Zehnkampf der Ingenieurwissenschaften“. Mechanik, Informatik, Medizin, Elektrotechnik, Ethik sind nur einige der wissenschaftlichen Disziplinen, deren Expertise bei der Entwicklung von Robotern gefragt ist. Nach dem Motto des Physikers Richard Feynman „What I do not understand I can not create“, forscht der Leiter des Instituts für Robotik und Mechatronik am DLR und Professor für Sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TUM an der technischen Umsetzung von Robotikkonzepten.

Um praktische Anwendungen geht es bei den so genannten Cobots: Der neue Ansatz der „kollaborierenden Roboter“ kam vor etwa zehn Jahren auf und hat einen Roboter im Fokus, der sich an der Größe, Kraft und Geschwindigkeit des Menschen orientiert. „Cobot-Arme“ wie etwa von den Firmen Franka Emika oder Kuka lernen komplexe Aufgaben, die später im Umfeld des Menschen zum Einsatz kommen.

Der Roboter der Zukunft ist etwas besser als der Mensch

Für Albu-Schaeffer ist klar: „Je menschlicher die Umgebung eines Roboters und je vielfältiger seine Aufgaben sein müssen, umso wichtiger ist, dass er humanoid ist." Und er nennt eine weitere Anforderung: „Dass er es schafft, etwas besser zu sein als der Mensch – etwa schneller zu laufen, präzisere Handgriffe zu machen oder zu fliegen“.

Zuhilfe kommen dem Cobot-Ansatz, den der Leiter des Munich Institute of Robotics and Machine Intelligence (MIRMI) Prof. Sami Haddadin mit auf den Weg gebracht hat, erhebliche Fortschritte in der künstlichen Intelligenz. Bild- und Spracherkennung bis hin zum Sprachgenerator ChatGPT und Echtzeittechnologien ermöglichen künftig weitere Entwicklungen, die unter anderem ein wichtiges Ziel vor Augen haben: Dass sich der Roboter in jeder Umgebung im Alltag zurechtfinden kann. Wichtigster Protagonist der Cobot-Technologie im MIRMI ist GARMI, ein Pflegeroboter aus dem TUM- Forschungszentrum Geriatronik in Garmisch-Partenkirchen, der für den Umgang mit pflegebedürftigen und älteren Menschen konzipiert ist.

Verkörperte Intelligenz: In komplexen Umgebungen zurechtfinden

Eine Schlüsselqualifikation von Robotern ist, dass sie intelligent werden – also autonom entscheiden können. „Der Roboter erfordert einen physischen Körper und künstliche Intelligenz“, sagt Prof. Albu-Schaeffer, der von verkörperter Intelligenz spricht. KI ist das Spezialgebiet von TUM-Professorin Angela Schoellig, die 2022 von der Universität Toronto zur TUM gewechselt ist.

Ihre Aufgabe: Maschinelles Lernen in Roboter integrieren, damit sie komplexere Aufgaben erledigen können. „Komplexer vor allem als Roboter, die in einer vorprogrammierten Bewegung den gesamten Tag das Gleiche machen“, sagt Schoellig in Anspielung auf die Fertigung von großen Stückzahlen in Industrieumgebungen. Der ideale Roboter wird sich in komplexen Umgebungen bewegen und selbst die Planung übernehmen. Er braucht nicht von Hand programmiert zu werden, ist lern- und anpassungsfähig.

ChatGPT auf die Hardware der Robotik übertragen

Angenommen, ein Roboter müsste in einem Gebäude selbständig einen bestimmten Raum auf einer definierten Etage finden. „Wenn ein Programmierer nicht alle Details auf dem Weg kennt, kann er das auch nicht vorher programmieren“, sagt die KI-Expertin Schoellig, Director Industry & International im MIRMI. Der Roboter muss sich also alleine zurechtfinden, Fähigkeiten erlernen, um den Aufzug zu erkennen, den Knopf zur richtigen Etage zu drücken, zu wissen, welchen Flur er nehmen und welche Tür er aufmachen muss. Viele einzelne Fähigkeiten gehören dazu – Gegenstände erkennen, nicht zu fest den Knopf im Aufzug drücken, Hindernissen ausweichen, bei Bedarf sogar nach dem Weg zu fragen. Und: Das erworbene Wissen an andere Roboter weiterzugeben. Letztlich funktioniert es ähnlich wie bei ChatGPT: „Viele haben etwas ins Internet gestellt. Das lernt nun ein neuronales Netz“, sagt Schoellig.

Wobei auch klar ist, dass ChatGPT einem Roboter augenblicklich noch nicht wirklich helfen kann: „KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“, relativiert auch Prof. Albu-Schaeffer die augenblickliche Bedeutung von Programmen wie ChatGPT für die Robotikforschung. Die besondere Herausforderung für die Robotik liegt zudem aktuell in der Vielfalt der Systeme. Setzen die Roboter unterschiedliche Machine-Learning-Modelle oder Sensoren ein, wird es aktuell noch schwierig, die Erkenntnisse zu übertragen und etwa via Cloud allen anderen Robotern zur Verfügung zu stellen.

Robotik: Werkzeuge entwickeln, um Aufgaben schneller und besser auszuführen

Bisher sind viele einzelne KI-basierte Fähigkeiten erforscht, allerdings für einen bestimmten Zweck: So hat Professorin Schoellig Flugroboter im Tagebau zum Einsatz gebracht, um nach Sprengungen die Größe der Steine kontinuierlich zu messen und später die Sprengsätze optimieren zu können. Zudem ist ein Roboter – The Thing genannt – entstanden, der Bälle schnappen oder Gegenstände auf einem Tablett ausbalancieren kann.

Ein Roboter ist in der Lage, aus einem Korb Produkte zu greifen und in richtiger Orientierung auf ein Fließband zu legen oder direkt einzubauen. Entsprechend wird es künftig weniger um die Frage geben, ob ein Roboter im Restaurant aussieht, sich bewegt und spricht wie ein Mensch, sondern vielmehr, ob er einen sinnvollen Beitrag dazu beiträgt, einen konkreten Zweck zu erfüllen.

Firmen zu diesem Artikel
Verwandte Artikel