Sie sind hier: HomeThemenSmart ComponentsSonstige

Brain Reading & Steuerung mit FPGAs: Künstliche Intelligenz liest Gedanken und steuert Roboter

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) und die Arbeitsgruppe Robotik der Universität Bremen entwickeln ein echtzeitfähiges, adaptives embedded Brain Reading, das menschliche Gedanken liest, interpretiert und damit Roboter steuert.

Roboter-Steuerung Bildquelle: © DFKI GmbH

Mithilfe des am DFKI entwickelten Brain-Reading-Systems lassen sich Roboter auf Basis der Gehirnaktivitäten intuitiv und effektiv steuern.

Per Elektroenzephalografie detektierte Potentialänderungen im Gehirn war gestern. Im von den Wissenschaftlern entwickelten Ansatz »eBR« (embedded Brain Reading) wird Gehirnaktivität nicht nur gemessen, sondern auch interpretiert. Damit sind erstmals Handlungsabsichten und die kognitive Auslastung von Personen ermittelbar. Dabei wird ausschließlich eine passive Beobachtung der Gehirnaktivitäten verwendet, sodass kein Brain-Computer-Interface (BCI) nötig ist.

Neben dem EEG verwendet das System die Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse und integriert die Gehirnaktivität in die Steuerung technischer Systeme.

Ereigniskorrelierte Potentiale (Event Related Potentials) im EEG sind Input-Quellen, die als Reaktion auf interne Zustandsänderungen oder externe Reize entstehen. Die Forscher Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim untersuchen, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. ERPs waren auch unter »dual-task«-Bedingungen Erkennbar, also wenn Menschen mehrere Aktivitäten gleichzeitig ausüben. Besonders gut erkennbar sind die ERPs, je höher, bedeutender und seltener ein bei einer Aufgabe hervorgerufener Reiz ist. Dies unterstützt z.B. die Steuerung eines Exoskeletts, auch gibt die ERP-Erkennung im Rahmen einer rehabilitativen Therapie Aufschluss über den Aufmerksamkeitszustand eines Patienten.

Gedankenlesender Roboter Bildquelle: © DFKI GmbH

In der gestengesteuerten Interaktion kann der Roboter anhand eines Negativ-Feedbacks im EEG des Menschen aus dem eigenen Fehlverhalten lernen.

Machine-Learning durch Negative-Feedback-Schleifen.

Ein neues, von Wissenschaftlern des Robotics Innovation Centers der Uni Bremen entwickeltes Machine-Learning-Verfahren befähigt Roboter ferner dazu, aus eigenem Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen zu lernen. Er kann menschliche Gesten unterscheiden lernen und  ausführbaren Aktionen zuordnen. Ob die Zuordnung richtig war, erfährt er anhand der EEG-Messung beim Menschen. Der Mensch muss also nicht bewusst eine Rückmeldung an den Roboter geben, sondern dieser hat sie bereits aus der unterbewussten Ebene erhalten. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt.

FPGAs ermöglichen mobile Echtzeitdatenverarbeitung

Um diese Daten verarbeiten zu können, bedarf es mobiler, miniaturisierter Verarbeitungssysteme, die von Forschern des Deutsche Forschungszentrums für Künstliche Intelligenz  (DFKI) und der Uni Bremen gemeinsam entwickelt wurde. Ihr kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage setzt Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise ein, die parallele Verarbeitungsoperationen ermöglichen und sehr große Datenmengen in kurzer Zeit verarbeiten können.

Ein eigens entwickeltes Softwareframework definiert die nötigen Rechenoperationen, die zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Die riesigen Datenmengen werden dabei von den FPGAs so schnell (in Nanosekunden) bewältigt, dass z.B. ein Exoskelett »instantan« im richtigen Moment Armbewegungen unterstützen kann. Vom 12. bis 15. Juni 2018stellt das DFKI in Halle 27, Stand F62 auf der CEBIT-Expo das Projekt Recupera REHA vor.