Ein Forscherteam der New York City University (NYU) School of Medicine und des Max-Planck-Instituts für empirische Ästhetik hat eine neue Arbeitsteilung zwischen den beiden Hemisphären in unserem Gehirn beim Verstehen von Wörtern und Geräuschen entdeckt – ein Ergebnis, das neue Einblicke in die Verarbeitung von Sprache bietet und Wege aufzeigt, wie Störungen des Hörvermögens behandelt werden können.
„Unsere Ergebnisse eröffnen ein neues Verständnis der Arbeitsteilung zwischen rechter und linker Hemisphäre“, sagt Adeen Flinker, Hauptautor der Studie und Assistenzprofessor an der Abteilung für Neurologie der NYU School of Medicine. „Beide Hirnhälften übernehmen beim Zuhören gleichzeitig stattfindende, aber unterschiedliche Aufgaben. Während die linke Hemisphäre misst, wie Geräusche sich zeitlich verändern – zum Beispiel beim langsameren oder schnelleren Sprechen –, ist die rechte Seite stärker auf Frequenzänderungen ausgerichtet, die mit Veränderungen in der Tonhöhe zusammenhängen."
Klinische Beobachtungen aus dem 19. Jahrhundert haben bereits gezeigt, dass Schäden an der linken Hemisphäre, jedoch nicht an der rechten, die Sprachverarbeitung beeinträchtigen. Bisher konnten Wissenschaftler eine Reihe von Hypothesen über die Aufgaben der linken und rechten Hemisphäre beim Sprechen, beim Verstehen von Sprache und bei anderen kognitiven Vorgängen aufstellen. Weiterhin diskutiert werden jedoch die neuronalen Mechanismen, die den zerebralen Asymmetrien zugrunde liegen.
In der Studie, die in der Zeitschrift Nature Human Behavior erschienen ist, verfolgten die Wissenschaftler das übergeordnete Ziel, die grundlegenden Mechanismen der Sprachanalyse vertiefend zu erforschen, auch mit dem Hintergrund, neue Diagnose- und Behandlungswerkzeuge für Sprachstörungen zu entwickeln.
Dafür manipulierten die Forscher Sprachaufzeichnungen für eine Reihe von insgesamt fünf Studien, bei denen menschliches Verhalten sowie Gehirnaktivitäten erforscht wurden. In den Studien kamen dabei sowohlMagnetenzephalographie (MEG), welche die Messungen von winzigen durch die Hirnaktivität erzeugten Magnetfeldern erlaubt, als auch Elektrokortikographie (ECoG), die Aufnahmen direkt aus dem Gehirn der Patienten ermöglicht, zum Einsatz.
„Wir hoffen, dass dieser Ansatz einen Rahmen dafür bietet, um die Ähnlichkeiten und Unterschiede zwischen der menschlichen und nicht-menschlichen Verarbeitung von Kommunikationssignalen aufzuzeigen“, ergänzt Flinker.
Flinker, A., Doyle, W. K., Mehta, A. D., Devinsky, O., Poeppel, D. (2019). Spectrotemporal modulation provides a unifying framework for auditory cortical asymmetries. Nature Human Behaviour. doi: 10.1038/s41562-019-0548-z
Arbeitsteilung im Gehirn beim Hören entdeckt
MPIEA / Felix Bernoully
None
Criteria of this press release:
Journalists, Scientists and scholars
Biology, Medicine, Psychology
transregional, national
Research results, Scientific Publications
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).