Kein Zwinkern bleibt uninterpretiert: Software schließt von Augenbewegungen auf Charaktermerkmale

Forscher aus Deutschland und Australien haben ein Software-System entwickelt, das die Persönlichkeit eines Menschen anhand seiner Augenbewegungen erkennt. Es könnte die Zusammenarbeit zwischen Mensch und Computer oder Roboter auf ein neues Niveau heben.

Die neue Software wertet Augenbewegungen aus, um auf die Charakterzüge einer Person zu schließen. Bildquelle: © www.publicdomainpictures.net mit CC0-Public-Domain-Lizenz

Die neue Software wertet Augenbewegungen aus, um auf die Charakterzüge einer Person zu schließen.

Menschen erkennen Gesten und deuten Blicke blitzschnell und fast automatisch. Computer und Roboter schaffen dies nicht. Wissenschaftler aus aller Welt erforschen deshalb, wie sich die Zusammenarbeit von Mensch und Computer sozialer, effizienter und flexibler gestalten ließe. Informatiker aus Saarbrücken und Stuttgart haben nun zusammen mit Psychologen aus Australien einen Schritt nach vorne getan: Das von ihnen entwickelte Software-System verarbeitet die Augenbewegungen einer Person, um zu berechnen, ob diese verletzlich, gesellig, verträglich, gewissenhaft oder neugierig ist.

»Mit unseren Augen erfassen wir nicht nur die Umgebung, sie sind auch das Fenster zu unserer Seele. Denn sie verraten, wer wir sind, wie wir uns fühlen und was wir machen«, erklärt Andreas Bulling, der in Saarbrücken am Max-Planck-Institut für Informatik und am Exzellenzcluster der Universität des Saarlandes die Forschungsgruppe »Perceptual User Interfaces« leitet. Mit Wissenschaftlern in Stuttgart und Australien hat Bulling ein eigenes Software-System so trainiert, dass es Augenbewegungen auswerten und darüber auf die Charakterzüge einer Person schließen kann. Das Forscher-Team nutzte dafür spezielle Rechenverfahren des maschinellen Lernens.

Um die Daten für das Training und die Evaluierung zu bekommen, wirkten an der Flinders University in Australien 50 Studenten, darunter 42 Frauen und acht Männer, im Durchschnittsalter von 22 Jahren mit. Nach ihrer Ankunft im Labor statteten die Forscher die Studenten mit einem »Eye Tracker« aus. Er filmte die Augenbewegungen der Probanden, während sie rund zehn Minuten über den Campus schlenderten und sich einen Kaffee oder andere Artikel im Campus-Laden kauften. Danach baten die Wissenschaftler die Studenten, die Brillen abzulegen und spezielle Fragebögen auszufüllen, um so auf herkömmliche Art und Weise die Persönlichkeit und den Grad der Neugierde zu bestimmen.

»Um die aufgenommenen Augendaten unabhängig von der jeweiligen Dauer der Aufnahme zu analysieren, haben wir mit einem verschiebbaren Zeitfenster gearbeitet, weil so keine Charakteristika abgeschwächt werden«, erläutert Bulling. Aus jedem der sich ergebenden Zeitfenster gewannen die Forscher 207 Merkmale. Zu diesen gehörten Statistiken über Blickfixierungen ebenso wie die Blinzel-Rate. Basierend darauf und auf den Informationen aus den Fragebögen fassten die Forscher pro Persönlichkeitszug rund 100 Entscheidungsbäume zu einem Klassifikator zusammen und trainierten ihn. Das Ergebnis: Im anschließenden Test mit bisher noch nicht verwendetem Datenmaterial wiesen sie nach, dass das Software-System sicher Charakterzüge wie emotionale Labilität, Geselligkeit, Verträglichkeit und Gewissenhaftigkeit erkennt.

»Das so gewonnene Wissen über nonverbales Verhalten können wir auch auf Roboter übertragen, so dass sie sich wie Menschen benehmen. Solche Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar«, verdeutlicht Bulling den Nutzen der Forschungsergebnisse. Gemeinsam mit Sabrina Hoppe von der Universität Stuttgart, Tobias Loetscher von der University of South Australia in Adelaide und Stephanie Morey von der Flinders University, ebenfalls in Adelaide, hat Andreas Bulling die Ergebnisse in dem Aufsatz »Eye Movements During Everyday Behavior Predict Personality Traits« diskutiert, den die Forscher im Journal »Frontiers in Human Neuroscience« veröffentlicht haben. Das Projekt wurde finanziert aus Mitteln des australischen Forschungsrats, des Exzellenzclusters »Multimodal Computing and Interaction« an der Universität des Saarlandes und durch ein Promotionsstipendium der Stiftung des deutschen Volkes.