Die neue Methode soll einen höheren Grad an Sicherheit bieten als bisherige Deep-Learning-Algorithmen und KI-basierte Steuerungen so auch in Hochrisikogebieten einsatzsicher machen.

Bild: DFKI

Projekt zum Einsatz von KI in Hochrisikogebieten Sichere, selbstlernende Robotersteuerung auf KI-Basis

13.10.2020

Viele Bereiche mit Potential für den Einsatz von KI sind zu risikobehaftet, um von Systemen gesteuert zu werden, die sich nicht verifizieren lassen. Die Bremer Forschungsbereiche des DFKI arbeiten deshalb an einer neuen Methode, um schnelles, eigenständiges Lernen und Verifikation zu kombinieren. Das Projekt VeryHuman soll einen humanoiden Roboter zum Laufen zu bringen.

Wenn es um die Vor- und Nachteile von selbstlernenden Systemen geht, ist es hilfreich, sich eine Person vorzustellen, die ein Projekt beginnt: In manchen Fällen führt ein instinktiver Ansatz zu den besten Resultaten, beispielsweise in der Kunst. In anderen Fällen kann es allerdings riskant sein, sich nur auf Schätzungen zu verlassen: Eine Mauer, auf der später ein Dach lasten soll, sollte beispielsweise auf Basis von Mathematik und Physik gebaut werden, und nicht allein nach Augenmaß und Erfahrung.

Ähnlich dazu haben sich selbstlernende Systeme als effektiv, schnell und vielversprechend für die Entwicklung von Künstlicher Intelligenz (KI) erwiesen. Allerdings kann eine KI-Anwendung dort, wo Risiken existieren und Verlässlichkeit wichtig ist, so beispielsweise beim sicheren Laufen eines humanoiden Roboters, nicht ausschließlich geschätzte Werte einsetzen, die durch subsymbolische Verfahren es aus dem Training in der Simulation gezogen wurden. Es muss mathematische, physikalische und statistische Modelle anwenden, um Korrektheit sicherzustellen.

Ziel: Selbstlernenden Kontrollmechanismus entwickeln

Die Kombination von subsymbolischen, selbstlernenden Algorithmen und solchen, die auf mathematischen Regeln und Abstraktionen basieren, hat sich als schwierig erwiesen. Die Entscheidungen, die von einem Programm getroffen werden, das Deep Learning einsetzt, basieren nicht auf symbolischen Berechnungen und können deshalb nicht durch logische Regeln erklärt werden.

Aus diesem Grund eint das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) die Erfahrung seiner zwei Forschungsbereiche in Bremen, um eine neue Methode für einen sicheren, selbstlernenden Kontrollmechanismus zu entwickeln. Im Projekt VeryHuman arbeiten das Robotics Innovation Center (RIC) unter Leitung von Prof. Dr. Dr. h.c. Frank Kirchner und der Forschungsbereich Cyber-Physical Systems (CPS) von Prof. Dr. Rolf Drechsler an einer Kombination der Vorteile beider Ansätze.

Das Ziel des vierjährigen Projekts, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird, ist eine neue Methode, die einen humanoiden Roboter dazu bringen soll, sicher und stabil zu laufen.

Neuer Ansatz für KI in Hochrisikogebieten

Wie der Name andeutet, ist es ein zentraler Aspekt des Projekts „VeryHuman – Lernen und Verifikation Komplexer Verhalten für Humanoide Roboter“, Steuerungssysteme auf Basis von Künstlicher Intelligenz näher an die Fähigkeiten des Menschen zu rücken.

Die Effektivität des neuen Ansatzes wird deshalb anhand eines humanoiden Roboters überprüft, der aufrecht und stabil gehen und, sollte die Methode sich als funktional herausstellen, auch komplexere Bewegungen ausführen soll. Allerdings betrifft die Problematik, das Verhalten selbstlernender Algorithmen zu verifizieren, auch zahlreiche weitere Bereiche der Künstlichen Intelligenz und wird dort kritisch, wo das Verhalten eines Systems eine Gefahr darstellen könnte. Deshalb sind die Implikationen eines KI-Systems, das seine Entscheidungen selbst mathematisch verifizieren kann, weitreichend.

Drei Herausforderungen stellen sich, wenn es um diese Art von KI-Anwendung geht: Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich nicht nur auf Trainingsdaten verlassen kann.

Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar, das System würde sich wie eine Black Box verhalten.

Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen Systems; der Schlüssel zu seiner Verifikation und der erfolgreichen Anwendung von Reinforcement Learning, bei dem das System dafür belohnt wird, das mathematisch korrekte Ergebnis zu erlangen.

Verbesserung des robotischen Systems durch symbolische Modelle

Das Ziel des Projekts VeryHuman ist deshalb die Abstraktion kinematischer Modelle vom robotischen System, die symbolisch validiert werden können. Diese Abstraktion ermöglicht die Definierung von Belohnungsfunktionen für das Reinforcement Learning und die mathematische Verifikation der Entscheidungen auf Basis der abstrahierten Modelle.

Durch Simulationen und Optimal-Control-Algorithmen (Berechnungen, die nach dem optimalen Weg für das Erreichen eines bestimmten Ziels suchen) kann das System, in diesem Fall der humanoide Roboter, fortlaufend durch das Wissen über die symbolischen Modelle verbessert werden und den aufrechten Gang oder sogar Rennen und Springen erlernen.

Vergleichsweise kann auch ein autonom fahrendes Auto in der Simulation lernen, wie es am besten die Bremse handhabt, während es weiß, wann es physisch zum Halten kommen muss, um in jedem Fall einen Unfall zu verhindern.

Während das Robotics Innovation Center des DFKI an den Lernfunktionen und der Steuerung des humanoiden Demonstrators arbeitet, beschäftigt sich der Forschungsbereich Cyber-Physical Systems mit der Abstraktion der mathematischen Modelle und der symbolischen Beschreibung des Verhaltens des Roboters unter Berücksichtigung der kinematischen und dynamischen Eigenschaften des Systems.

Das Projekt wurde im Juni gestartet und läuft für vier Jahre, gefördert vom Bundesministerium für Bildung und Forschung (BMBF) mit knapp 1,3 Millionen Euro.

Verwandte Artikel