idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
27.10.2025 11:40

Sich auf eine Stimme zu konzentrieren, erfordert sowohl Zuhören als auch Ignorieren

Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften

    Stellen Sie sich vor, Sie unterhalten sich auf einer Party und versuchen, Ihrer Freundin zuzuhören, die Ihnen von ihrem Tag erzählt, während andere Leute gleichzeitig reden, lachen und feiern – schwierig, nicht wahr? Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet. Forscher*innen des MPI CBS haben untersucht, was im Gehirn passiert, wenn wir versuchen, uns auf einen Sprecher zu konzentrieren und einen anderen zu ignorieren.

    Stellen Sie sich vor, Sie unterhalten sich auf einer Party und versuchen, Ihrer Freundin zuzuhören, die Ihnen von ihrem Tag erzählt, während andere Leute gleichzeitig reden, lachen und feiern – schwierig, nicht wahr? Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet. Forscher*innen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften und der Universität Leipzig haben in Zusammenarbeit mit Kolleg*innen des Max-Planck-Instituts für Empirische Ästhetik und der Universität Lübeck untersucht, was im Gehirn passiert, wenn wir versuchen, uns auf einen Sprecher zu konzentrieren und einen anderen zu ignorieren. In der neuen Studie, die jetzt im Journal of Neuroscience veröffentlicht wurde, zeigen sie, dass die Verarbeitung sowohl der Stimme, der wir Aufmerksamkeit schenken, als auch der Stimme, die wir ignorieren, eine entscheidende Rolle dabei spielt, wie gut wir Sprache verstehen.

    In einer Studie mit 43 Teilnehmenden präsentierten Vivien Barchet und Gesa Hartwigsen zwei gesprochene Sätze gleichzeitig – einen, auf den man sich konzentrieren sollte, und einen, den man ignorieren sollte – und zeichneten die Gehirnaktivität der Teilnehmer*innen mittels EEG auf. Sie analysierten, wie stark sich das Gehirn mit den akustischen Mustern und den sprachlichen Mustern jeder Stimme synchronisierte.

    Die Ergebnisse zeigen einen schwierigen Balanceakt:

    • Eine stärkere neuronale Verfolgung des Zielsprechers war mit einem besseren Verständnis verbunden.

    • Überraschenderweise korrelierte eine gewisse Verfolgung der Geräusche des ignorierten Sprechers (jedoch nicht seiner Worte) mit einer besseren Leistung, was darauf hindeutet, dass ein gewisses geringfügiges Bewusstsein für irrelevante Stimmen dabei helfen kann, auditive Ströme zu trennen.

    • Wenn das Gehirn jedoch begann, die Bedeutung oder die Worte des ignorierten Sprechers zu verfolgen, nahm das Verständnis der Zielsprache ab.

    Diese Ergebnisse deuten darauf hin, dass erfolgreiches Zuhören in lauten Umgebungen davon abhängt, den relevanten Strom zu verstärken und gleichzeitig den ablenkenden Strom zu unterdrücken, bevor er semantisch verarbeitet wird. Eine erste akustische Analyse des ablenkenden Stroms scheint jedoch die Segmentierung beider Ströme zu verbessern.

    Das bedeutet, dass Ihr Gehirn, wenn Sie sich auf einer lebhaften Party unterhalten, nicht einfach alle anderen ausblendet. Es nimmt weiterhin einige Geräusche von anderen Sprechern auf, um zu verfolgen, wer gerade spricht, aber wenn Sie beginnen, deren Worte zu verstehen, verlieren Sie wahrscheinlich den Fokus auf Ihre Freundin.


    Wissenschaftliche Ansprechpartner:

    Alice Vivien Barchet
    Doctoral researcher
    barchet@cbs.mpg.de
    Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig

    Prof. Gesa Hartwigsen
    Gruppenleiterin
    hartwigsen@cbs.mpg.de
    Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig


    Originalpublikation:

    Alice Vivien Barchet, Andrea Bruera, Jasmin Wend, Johanna M. Rimmele, Jonas Obleser and Gesa Hartwigsen
    „Attentional engagement with target and distractor streams predicts speech comprehension in multitalker environments“
    Journal of Neuroscience https://www.jneurosci.org/content/early/2025/10/23/JNEUROSCI.0657-25.2025/tab-ar...


    Weitere Informationen:

    https://www.cbs.mpg.de/2411604/20251027


    Bilder

    Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als Cocktailparty-Problem bezeichnet.
    Die Herausforderung, einem Sprecher zuzuhören, wenn mehrere Personen gleichzeitig sprechen, wird als ...
    Quelle: cottonbro/pexels.com
    Copyright: Pexels.com

    Die Forschenden zeichneten die Gehirnaktivität der Studienteilnehmer*innen mittels EEG auf und analysierten, wie stark sich das Gehirn mit den akustischen Mustern und den sprachlichen Mustern jeder Stimme synchronisierte.
    Die Forschenden zeichneten die Gehirnaktivität der Studienteilnehmer*innen mittels EEG auf und analy ...
    Quelle: MPI CBS
    Copyright: MPI CBS


    Merkmale dieser Pressemitteilung:
    Journalisten
    Medizin, Sprache / Literatur
    überregional
    Forschungsergebnisse
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).