Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Emotionserkennung per Brain-Computer-Interface

Brain-Computer Interface
Typisches Mensch-Technik-Szenario: Probandin (links) beim Test eines Software-Prototypen. (Quelle: Ludmilla Parsyak/Fraunhofer IAO)

Im Umgang mit Technik spielen Emotionen eine wichtige Rolle. Allerdings können aktuell selbst intelligente Systeme noch nicht angemessen auf menschliche Emotionen reagieren. Im Projekt EMOIO erforscht das Fraunhofer IAO gemeinsam mit dem Institut für Arbeitswissenschaft und Technologiemanagement IAT der Universität Stuttgart, wie neurowissenschaftliche Verfahren genutzt werden können, um Emotionen aus den Hirnströmen der Nutzer abzuleiten und zu interpretieren. Die identifizierten Emotionen sollen dann über eine Gehirn-Computer- Schnittstelle (engl. Brain-Computer Interface, BCI) einem technischen System zur Verfügung gestellt werden, welches Design und Verhalten damit gezielter an die individuellen Bedürfnisse des Nutzers anpassen kann.

 

Bei einer ersten Demonstration wurden einer Testperson Bilder mit emotionalen Inhalten wie beispielsweise Tierbabys oder Kriegsszenen gezeigt. Während der Bildbetrachtung wurden die Hirnströme der Testperson mittels Elektroenzephalographie und Nahinfrarotspektroskopie erfasst und in Echtzeit von einem Algorithmus analysiert. Der Algorithmus sucht in den aufgezeichneten Signalen nach Mustern, die in verschiedenen vorangehenden Studien als charakteristisch für positive und negative Emotionen identifiziert wurden. Auf diese Art und Weise klassifiziert der Algorithmus die Reaktion der Testperson auf ein Bild innerhalb weniger Sekunden als positiv oder negativ. Das Klassifikationsergebnis kann dann an ein beliebiges technisches System weitergeleitet werden.

 

Welcher Gefühlszustand von dem Algorithmus ermittelt wurde, ist nicht nur für technische Systeme relevant, sondern auch für den Nutzer selber interessant. Daher wurde am Fraunhofer IAO eine mobile App entwickelt, die dem Nutzer die klassifizierte Emotion live anzeigt. Visualisiert werden in der App zum einen die aktuelle Emotion in Form eines Emoticons, zum anderen der Zeitverlauf des emotionalen Zustands in Form eines dynamischen Liniendiagramms. Eine zukünftige Version der App soll dahingehend weiterentwickelt werden, dass der Nutzer die emotionalen Erlebnisse, die ihm angezeigt werden, annotieren und mit Kontextinformationen ergänzen kann, z. B. den Ort, eine Situationsbeschreibung oder ein Foto.

 

Siehe auch:

http://www.iao.fraunhofer.de/lang-de/zusammenarbeit/labors-ausstattung/1665-neurolab-labor-fuer-neuroarbeitswissenschaft.html

Zurück