Mit der Kraft der Gedanken Mensch-Roboter-Interaktion durch Embedded-Brain-Reading

In der gestengesteuerten Interaktion kann der Roboter anhand eines Negativ-Feedbacks im EEG des Menschen aus dem eigenen Fehlverhalten lernen.

Bild: DFKI
15.06.2018

Wie lassen sich Gedanken für die Interaktion mit Robotern nutzen? Mit dieser Frage beschäftigen sich Wissenschaftler des DFKI und der Universität Bremen. Gemeinsam entwickeln sie Schlüsseltechnologien, durch die Roboter auf Basis der Gehirnaktivitäten des Menschen intuitiv und effektiv steuerbar sind. Die Systeme können zugleich menschliche Gedanken interpretieren und daraus lernen.

Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Embedded-Brain-Reading wird diese neue Technologie genannt. Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern entwickelte ganzheitliche Ansatz „embedded Brain Reading“ (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher z.B. bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.

Mehrere Aktivitäten durch Reize detektieren

Beim Embedded-Brain-Reading dienen ereigniskorrelierte Potentiale (engl.: event related potentials, ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern. In ihrem Aufsatz „Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection – Relevance for Neuroscience and Clinical Applications“, der im Fachjournal Frontiers in Neuroscience erschien, untersuchen die Wissenschaftlerinnen Elsa Andrea Kirchner und Su Kyoung Kim, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Es zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter „dual-task“-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer sondern mehreren Aktivitäten nachgeht. Dabei ist die Detektionsleistung umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern beispielsweise auch über den Aufmerksamkeitszustand eines Patienten geben.

Roboter lernen durch menschlichen Negativ-Feedback aus eigenem Fehlverhalten

Zu den ereigniskorrelierten Potenzialen gehört das sogenannte fehlerkorrelierte Potential (engl.: error-related potential). Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, ist Gegenstand des in dem Fachjournal Scientific Reports - Nature erschienenen Papers „Intrinsic interactive reinforcement learning – Using error-related potentials for real world human-robot interaction“. Darin beschreiben die Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center und der Universität Bremen Su Kyoung Kim, Elsa Andrea Kirchner, Arne Stefes und Frank Kirchner ein am DFKI entwickeltes Verfahren des Maschinellen Lernens, bei dem ein Roboter aus dem eigenen Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen lernen kann. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen. Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, da er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential zum Beispiel nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.

Exoskelett bewegt den Arm in Echtzeit

Die Verwendung physiologischer Daten zur Verbesserung der Funktionalität und Benutzerfreundlichkeit in technischen Rehabilitationssystemen ist jedoch an die Möglichkeit ihrer Verarbeitung gebunden. Diese muss in Echtzeit erfolgen, um eine möglichst natürliche Unterstützung der Bewegungen zu realisieren. Zudem braucht es mobile und miniaturisierte Verarbeitungssysteme, die in die Rehabilitationseinrichtung eingebettet werden können. In dem Paper „A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction“, das in dem Fachjournal Sensors publiziert wurde, stellen Wissenschaftlerinnen und Wissenschaftler des DFKI und der Universität Bremen ein kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage vor. Dabei setzen sie auf sogenannte Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise, die parallele Verarbeitungsoperationen ermöglichen und daher große Datenmengen in kürzester Zeit verarbeiten können. Um diese für die Robotik nutzbar zu machen, entwickelten die Forscher zudem das Software-Framework reSPACE. Dieses definiert die verschiedenen anwendungsspezifischen Rechenoperationen, die nach dem Baukastenprinzip zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Durch die Echtzeit-Auswertung von EEG-Daten kann das entwickelte System zum Beispiel die Regelung eines Exoskeletts unterstützen. Die FPGAs bewältigen die dabei anfallende riesige Datenmenge innerhalb weniger Nanosekunden – nur so kann das Exoskelett genau im richtigen Moment die Armbewegung unterstützen.

Bildergalerie

  • Mithilfe des am DFKI entwickelten Brain-Reading-Systems lassen sich Roboter auf Basis der Gehirnaktivitäten intuitiv und effektiv steuern.

    Mithilfe des am DFKI entwickelten Brain-Reading-Systems lassen sich Roboter auf Basis der Gehirnaktivitäten intuitiv und effektiv steuern.

    Bild: DFKI

Verwandte Artikel