idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
10/27/2025 11:40

Sich auf eine Stimme zu konzentrieren, erfordert sowohl Zuhören als auch Ignorieren

Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften

    Stellen Sie sich vor, Sie unterhalten sich auf einer Party und versuchen, Ihrer Freundin zuzuhören, die Ihnen von ihrem Tag erzählt, während andere Leute gleichzeitig reden, lachen und feiern – schwierig, nicht wahr? Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet. Forscher*innen des MPI CBS haben untersucht, was im Gehirn passiert, wenn wir versuchen, uns auf einen Sprecher zu konzentrieren und einen anderen zu ignorieren.

    Stellen Sie sich vor, Sie unterhalten sich auf einer Party und versuchen, Ihrer Freundin zuzuhören, die Ihnen von ihrem Tag erzählt, während andere Leute gleichzeitig reden, lachen und feiern – schwierig, nicht wahr? Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet. Forscher*innen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften und der Universität Leipzig haben in Zusammenarbeit mit Kolleg*innen des Max-Planck-Instituts für Empirische Ästhetik und der Universität Lübeck untersucht, was im Gehirn passiert, wenn wir versuchen, uns auf einen Sprecher zu konzentrieren und einen anderen zu ignorieren. In der neuen Studie, die jetzt im Journal of Neuroscience veröffentlicht wurde, zeigen sie, dass die Verarbeitung sowohl der Stimme, der wir Aufmerksamkeit schenken, als auch der Stimme, die wir ignorieren, eine entscheidende Rolle dabei spielt, wie gut wir Sprache verstehen.

    In einer Studie mit 43 Teilnehmenden präsentierten Vivien Barchet und Gesa Hartwigsen zwei gesprochene Sätze gleichzeitig – einen, auf den man sich konzentrieren sollte, und einen, den man ignorieren sollte – und zeichneten die Gehirnaktivität der Teilnehmer*innen mittels EEG auf. Sie analysierten, wie stark sich das Gehirn mit den akustischen Mustern und den sprachlichen Mustern jeder Stimme synchronisierte.

    Die Ergebnisse zeigen einen schwierigen Balanceakt:

    • Eine stärkere neuronale Verfolgung des Zielsprechers war mit einem besseren Verständnis verbunden.

    • Überraschenderweise korrelierte eine gewisse Verfolgung der Geräusche des ignorierten Sprechers (jedoch nicht seiner Worte) mit einer besseren Leistung, was darauf hindeutet, dass ein gewisses geringfügiges Bewusstsein für irrelevante Stimmen dabei helfen kann, auditive Ströme zu trennen.

    • Wenn das Gehirn jedoch begann, die Bedeutung oder die Worte des ignorierten Sprechers zu verfolgen, nahm das Verständnis der Zielsprache ab.

    Diese Ergebnisse deuten darauf hin, dass erfolgreiches Zuhören in lauten Umgebungen davon abhängt, den relevanten Strom zu verstärken und gleichzeitig den ablenkenden Strom zu unterdrücken, bevor er semantisch verarbeitet wird. Eine erste akustische Analyse des ablenkenden Stroms scheint jedoch die Segmentierung beider Ströme zu verbessern.

    Das bedeutet, dass Ihr Gehirn, wenn Sie sich auf einer lebhaften Party unterhalten, nicht einfach alle anderen ausblendet. Es nimmt weiterhin einige Geräusche von anderen Sprechern auf, um zu verfolgen, wer gerade spricht, aber wenn Sie beginnen, deren Worte zu verstehen, verlieren Sie wahrscheinlich den Fokus auf Ihre Freundin.


    Contact for scientific information:

    Alice Vivien Barchet
    Doctoral researcher
    barchet@cbs.mpg.de
    Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig

    Prof. Gesa Hartwigsen
    Gruppenleiterin
    hartwigsen@cbs.mpg.de
    Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig


    Original publication:

    Alice Vivien Barchet, Andrea Bruera, Jasmin Wend, Johanna M. Rimmele, Jonas Obleser and Gesa Hartwigsen
    „Attentional engagement with target and distractor streams predicts speech comprehension in multitalker environments“
    Journal of Neuroscience https://www.jneurosci.org/content/early/2025/10/23/JNEUROSCI.0657-25.2025/tab-ar...


    More information:

    https://www.cbs.mpg.de/2411604/20251027


    Images

    Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet.
    Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als ...
    Source: cottonbro/pexels.com
    Copyright: Pexels.com

    Die Forschenden zeichneten die Gehirnaktivität der Studienteilnehmer*innen mittels EEG auf und analysierten, wie stark sich das Gehirn mit den akustischen Mustern und den sprachlichen Mustern jeder Stimme synchronisierte.
    Die Forschenden zeichneten die Gehirnaktivität der Studienteilnehmer*innen mittels EEG auf und analy ...
    Source: MPI CBS
    Copyright: MPI CBS


    Criteria of this press release:
    Journalists
    Language / literature, Medicine
    transregional, national
    Research results
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).