Live-Demonstration zur Emotionserkennung per Brain-Computer-Interface
Im Projekt EMOIO, das vom Bundesministerium für Bildung und Forschung gefördert wird, entwickeln Wissenschaftlerinnen und Wissenschaftler des Fraunhofer IAO eine emotionssensitive, neuro-adaptive Gehirn-Computer-Schnittstelle. Eine erste Live-Demonstration wurde auf dem BMBF-Zukunftskongress »Technik zum Menschen bringen« am 26. und 27. Juni 2017 in Bonn erstmals vorgeführt.
Im Umgang mit Technik spielen Emotionen eine wichtige Rolle. Allerdings können aktuell selbst intelligente Systeme noch nicht angemessen auf menschliche Emotionen reagieren. Im Projekt EMOIO erforscht das Fraunhofer IAO gemeinsam mit dem Institut für Arbeitswissenschaft und Technologiemanagement IAT der Universität Stuttgart, wie neurowissenschaftliche Verfahren genutzt werden können, um Emotionen aus den Hirnströmen der Nutzer abzuleiten und zu interpretieren. Die identifizierten Emotionen sollen dann über eine Gehirn-Computer-Schnittstelle (engl. Brain-Computer Interface, BCI) einem technischen System zur Verfügung gestellt werden, welches Design und Verhalten damit gezielter an die individuellen Bedürfnisse des Nutzers anpassen kann.
Erste Live-Demonstration auf dem BMBF-Zukunftskongress
Gemeinsam mit den Projektpartnern Universitätsklinikum Tübingen, Brain Products GmbH und NIRx Medizintechnik GmbH haben das Fraunhofer IAO und das IAT der Universität Stuttgart auf dem BMBF-Zukunftskongress »Technik zum Menschen bringen« eine erste Live-Demo des entwickelten Brain-Computer-Interface (BCI) vorgestellt. Dabei wurden einer Testperson Bilder mit emotionalen Inhalten wie beispielsweise Tierbabys oder Kriegsszenen gezeigt. Während der Bildbetrachtung wurden die Hirnströme der Testperson mittels Elektroenzephalographie und Nahinfrarotspektroskopie erfasst und in Echtzeit von einem Algorithmus analysiert. Der Algorithmus sucht in den aufgezeichneten Signalen nach Mustern, die in verschiedenen vorangehenden Studien als charakteristisch für positive und negative Emotionen identifiziert wurden. Auf diese Art und Weise klassifiziert der Algorithmus die Reaktion der Testperson auf ein Bild innerhalb weniger Sekunden als positiv oder negativ. Das Klassifikationsergebnis kann dann an ein beliebiges technisches System weitergeleitet werden.
Mobile App zeigt aktuelle Gefühlslage per Emoticon an
Welcher Gefühlszustand von dem Algorithmus ermittelt wurde, ist nicht nur für technische Systeme relevant, sondern auch für den Nutzer selber interessant. Daher wurde am Fraunhofer IAO eine mobile App entwickelt, die dem Nutzer die klassifizierte Emotion live anzeigt. Visualisiert werden in der App zum einen die aktuelle Emotion in Form eines Emoticons, zum anderen der Zeitverlauf des emotionalen Zustands in Form eines dynamischen Liniendiagramms. Eine zukünftige Version der App soll dahingehend weiterentwickelt werden, dass der Nutzer die emotionalen Erlebnisse, die ihm angezeigt werden, annotieren und mit Kontextinformationen ergänzen kann, z. B. den Ort, eine Situationsbeschreibung oder ein Foto.
Kontakt
Kathrin Pollmann
Human-Computer Interaction
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-2347
kathrin.pollmann@iao.fraunhofer.de
Dr. Mathias Vukelic
Human-Computer Interaction
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-5138
mathias.vukelic@iao.fraunhofer.de
http://www.iao.fraunhofer.de/lang-de/zusammenarbeit/labors-ausstattung/1665-neur...
Brain-Computer-Interface
© Fraunhofer IAO
None
Criteria of this press release:
Business and commerce, Journalists, Scientists and scholars
Information technology, Media and communication sciences, Psychology
transregional, national
Research projects, Transfer of Science or Research
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).