Bahnbrechender Forschungserfolg: Informatikerinnen und Informatikern des Cognitive Systems Lab der Universität Bremen ist es jetzt in einem internationalen Projekt gelungen, eine so genannte Neurosprachprothese zu realisieren. Damit kann vorgestellte Sprache akustisch hörbar gemacht werden – ohne Verzögerung in Echtzeit. Die Entwicklung kann Menschen helfen, die aufgrund neuronaler Erkrankungen verstummt sind und ohne fremde Hilfe nicht mit der Außenwelt kommunizieren können.
Große Forschungserfolge bedürfen internationaler Zusammenarbeit: Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Das Ziel: Sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen. Dieses Ziel ist nun erreicht worden: „Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen“, freut sich Professorin Tanja Schultz, die Leiterin des CSL. „Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung!“ Das aufsehenerregende Forschungsergebnis wurde jetzt in dem angesehenen Wissenschaftsjournal „Nature Communications Biology“ veröffentlicht.
Die innovative Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Dieses System wurde von Miguel Angrick am CSL entwickelt. Als Eingabe erhält es die neuronalen Signale der Nutzenden, die sich vorstellen zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung an die Nutzenden aus. „Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache“, so Angrick.
Studie mit freiwilliger Epilepsiepatientin
Die in „Nature Communications Biology“ veröffentlichte Arbeit basiert auf einer Studie mit einer freiwilligen Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden und die sich zur klinischen Überwachung im Krankenhaus aufhielt. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System mittels maschineller Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. „Im zweiten Schritt wurde dieser Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt“, erläutert Miguel Angrick. „Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, wird auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt.“ Dies lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind zu denen für geflüsterte und vorgestellte Sprache.
Wichtige Rolle des Bremer Cognitive Systems Lab
„Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten“, erläutert Professorin Tanja Schultz den Hintergrund für die intensiven Forschungsaktivitäten auf diesem Gebiet, bei denen das Cognitive Systems Lab der Universität Bremen eine weltweit beachtete Rolle spielt. „Die Echtzeitsynthese akustischer Sprache direkt aus gemessener neuronaler Aktivität könnte natürliche Gespräche ermöglichen und die Lebensqualität von Menschen deutlich verbessern, deren Kommunikationsmöglichkeiten stark eingeschränkt sind.“
Die bahnbrechende Neuerung ist das Ergebnis einer langjährigen Kooperation, die im Rahmen des Forschungsprogramms „Multilaterale Zusammenarbeit in Computational Neuroscience“ gemeinsam vom Bundesministerium für Bildung und Forschung (BMBF) und der amerikanischen National Science Foundation (NSF) finanziert wird. Diese Kooperation mit Professor Dean Krusienski (ASPEN Lab, Virginia Commonwealth University) wurde gemeinsam mit dem ehemaligen Mitarbeiter des CSL, Dr. Christian Herff, im Rahmen des erfolgreichen Projektes RESPONSE (REvealing SPONtaneous Speech processes in Electrocorticography) aufgebaut. Sie wird aktuell mit CSL-Mitarbeiter Miguel Angrick im Projekt ADSPEED (ADaptive Low-Latency SPEEch Decoding and synthesis using intracranial signals) fortgesetzt. Dr. Christian Herff ist mittlerweile Assistenzprofessor an der Universität Maastricht.
Link zur Originalpublikation: https://www.nature.com/articles/s42003-021-02578-0
Weitere Informationen:
www.uni-bremen.de/csl
www.uni-bremen.de
Fragen beantwortet:
Prof. Dr.-Ing. Tanja Schultz
Universität Bremen / Cognitive Systems Lab
Fachbereich Mathematik/Informatik
Telefon: +49 421 218-64270
E-Mail: tanja.schultz@uni-bremen.de
Prof. Dr.-Ing. Tanja Schultz
Universität Bremen / Cognitive Systems Lab
Fachbereich Mathematik/Informatik
Telefon: +49 421 218-64270
E-Mail: tanja.schultz@uni-bremen.de
https://www.nature.com/articles/s42003-021-02578-0
Informatikerinnen und Informatiker der Universität haben eine Neurosprachprothese realisiert. Damit ...
CSL / Universität Bremen
Criteria of this press release:
Business and commerce, Journalists, Scientists and scholars, Students, Teachers and pupils, all interested persons
Electrical engineering, Information technology, Language / literature, Medicine
transregional, national
Research projects, Research results
German
Informatikerinnen und Informatiker der Universität haben eine Neurosprachprothese realisiert. Damit ...
CSL / Universität Bremen
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).