Deep Learning nach biologischem Vorbild Von Fadenwürmern inspirierte KI lenkt autonomes Auto

Forscher konnten zeigen, dass ihr KI-Modell auch mit einer vergleichsweise niedrigen Anzahl an Neuronen in der Lage ist, ein autonomes Fahrzeug zu steuern.

Bild: TU Wien / Video: MIT

14.10.2020

Ein Forscherteam aus Österreich und den USA hat ein neues KI-Modell entwickelt, das sich einfache Fadenwürmer zum Vorbild nimmt. Mit nur wenigen Neuronen ist es in der Lage, sehr gute Ergebnisse beim Deep Learning zu erzielen – so gut, dass es ein autonomes Fahrzeug im Praxistest steuern konnte.

Künstliche Intelligenz ist längst in unserem Alltag angekommen – von der Suchmaschine bis zum selbstfahrenden Auto. Das hat mit der gewaltigen Rechenleistung zu tun, die in den vergangenen Jahren verfügbar geworden ist. Doch neue Ergebnisse aus Österreich zeigen nun, dass auch einfache und kleinere neuronale Netze bestimmte Aufgaben effizienter und zuverlässiger lösen können als bisher.

So hat ein Forschungsteam der TU Wien, des IST Austria und des US-amerikanischen MIT eine neue Art Künstlicher Intelligenz entwickelt, die sich an biologischen Vorbildern orientiert, etwa an einfachen Fadenwürmern. Das System soll dabei entscheidende Vorteile gegenüber bisherigen Deep-Learning-Modellen aufweisen: Es kommt viel besser mit unsauberen Eingabedaten zurecht und ist aufgrund seiner Einfachheit auch für Nicht-Experten verständlich.

„Die Natur zeigt uns, dass man in der Künstlichen Intelligenz noch vieles verbessern kann“, sagt Prof. Daniela Rus, Direktorin des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT. „Daher war es unser Ziel, die Komplexität massiv zu reduzieren und die Interpretierbarkeit des neuronalen Netzes zu verbessern.“

Neuronales Vorbild: Fadenwürmer

Ähnlich wie biologische Gehirne bestehen neuronale Netze aus vielen einzelnen Zellen. Wenn eine Zelle aktiv ist, sendet sie ein Signal an andere Zellen.

Alle Signale, die die nächste Zelle erhält, entscheiden gemeinsam darüber, ob diese Zelle ebenfalls aktiv wird. Auf welche Weise eine Zelle die Aktivität der nächsten genau beeinflusst, ist zunächst offen – diese Parameter werden in einem automatischen Lernprozess so lange angepasst, bis das neuronale Netzwerk eine bestimmte Aufgabe lösen kann.

„Schon seit Jahren dachten wir darüber nach, was man von der Natur lernen kann, um künstliche neuronale Netze zu verbessern“, sagt Prof. Radu Grosu, Leiter der Forschungsgruppe „Cyber-Physical Systems“ an der TU Wien. „Der Fadenwurm C. elegans zum Beispiel kommt mit einer verblüffend kleinen Zahl von Nervenzellen aus, und trotzdem zeigt er interessante Verhaltensmuster. Das liegt an der effizienten und harmonischen Art, wie sein Nervensystem Information verarbeitet.“

Das von den Wissenschaftlern entwickelte KI-Modell verarbeitet Signale innerhalb der einzelnen Zellen dabei mit anderen mathematischen Modellen als bisherige Deep-Learning-Modelle, wie Ramin Hasani, Postdoc am Institut für Computer Engineering der TU Wien und am MIT, erklärt. „Außerdem wurde nicht jede Zelle mit jeder anderen verbunden – auch das macht das Netz einfacher.“

Praxistest: Spurhalten von autonomem Fahrzeug

Um das neue System zu testen, wählte das Team eine Aufgabe aus dem Straßenverkehr: das Spurhalten beim autonomen Fahren. Das neuronale Netz bekommt hier als Input ein Kamerabild der Straße und soll daraus automatisch entscheiden, ob nach rechts oder nach links gelenkt werden muss.

„Für Aufgaben wie autonomes Fahren verwendet man heute oft Deep-Learning-Modelle mit Millionen an Parametern“, sagt Mathias Lechner, Alumnus der TU Wien und PhD-Student am IST Austria. „Unser neuer Zugang macht es allerdings möglich, die Größe des Netzwerks um zwei Größenordnungen zu reduzieren. Unsere Systeme kommen mit 75.000 trainierbaren Parametern aus.“

Das Modell besteht dabei aus zwei Teilen. Der Kamera-Input wird zunächst von einem sogenannten konvolutionalen Netzwerk verarbeitet, das die visuellen Daten nur wahrnimmt, um in den Pixeln strukturelle Bildeigenschaften zu erkennen. Das Netzwerk entscheidet, welche Teile des Kamerabilds interessant beziehungsweise wichtig sind und gibt dann Signale an den eigentlich entscheidenden Teil des Netzwerks weiter: an das Kontrollsystem, das dann das Fahrzeug lenkt.

Training: Videos von Autofahrten

Beide Teilsysteme werden zunächst gemeinsam trainiert. Viele Stunden an Verkehrsvideos von menschgesteuerten Autofahrten in der Gegend von Boston wurden gesammelt und in das Netzwerk gespeist, gemeinsam mit der Information, wie das Auto in den jeweiligen Situationen gesteuert werden soll. Das wurde so lange fortgeführt, bis das System die richtige Verknüpfung von Bild und Lenkrichtung gelernt hatte und selbstständig auch mit neuen Situationen umgehen konnte.

Das Kontrollsystem des neuronalen Netzwerks, genannt „Neural Circuit Policy“ oder NCP, übersetzt die Daten aus dem visuellen Netz in einen Steuerungsbefehl und besteht nur aus 19 Zellen. „Diese NCPs sind um drei Größenordnungen kleiner, als es mit bisherigen State-of-the-Art-Modellen möglich wäre“, sagt Lechner.

Und Hasani ergänzt: „Unser Modell erlaubt uns, genau zu untersuchen, worauf das Netzwerk beim Fahren seine Aufmerksamkeit richtet. Es konzentriert sich auf ganz bestimmte Bereiche des Kamerabildes: auf den Straßenrand und den Horizont.“ Dieses Verhalten sei höchst erwünscht und zugleich einzigartig bei Systemen, die auf Künstlicher Intelligenz beruhen.

„Außerdem haben wir gesehen, dass sich die Rolle jeder einzelnen Zelle bei jeder einzelnen Entscheidung identifizieren lässt“, berichtet Hasani weiter. „Wir können die Funktion der Zellen verstehen und ihr Verhalten erklären. Dieses Maß an Interpretierbarkeit ist in größeren Deep-Learning-Modellen unmöglich.“

Robustheit: Analyse von künstlich verschlechterten Bildern

„Um zu testen, wie robust unsere NCPs im Vergleich zu bisherigen Deep-Learning-Modellen sind, haben wir die Bilder künstlich verschlechtert und analysiert, wie gut das System mit Bildrauschen zurechtkommt“, erklärt Lechner. Während das für andere Deep-Learning-Netzwerke ein unlösbares Problem wäre, zeige sich das neue System sehr widerstandsfähig gegenüber Artefakten beim Input. „Diese Eigenschaft ist eine direkte Folge des neuartigen Modells und seiner Architektur.“

Einfache Interpretierbarkeit und Robustheit stellen damit die zwei entscheidenden Vorteile des KI-Modells dar. Aber das sei nicht alles, sagt Hasani: „Durch unsere neuen Methoden können wir die Dauer des Trainings reduzieren und schaffen die Möglichkeit, Künstliche Intelligenz in relativ einfachen Systemen zu implementieren. Unsere NCPs machen imitierendes Lernen in einem weiten Anwendungsbereich möglich, von automatisierter Arbeit in Lagerhallen bis hin zur Bewegungssteuerung von Robotern.“

Zur Originalpublikation

Zum Code-Repository

Verwandte Artikel