In einem überfüllten Raum, in dem sich viele Menschen unterhalten, wie z. B. bei einer Geburtstagsfeier im Kreise der Familie oder in einem belebten Restaurant, hat unser Gehirn die Fähigkeit, seine Aufmerksamkeit auf einen einzigen Sprecher zu richten. Dieses Szenario und die Art und Weise, wie das Gehirn Reize wie Sprache und Musik verarbeitet, sind Forschungsschwerpunkte von Edmund Lalor, Ph.D., Professor für Neurowissenschaften und Biomedizintechnik am University of Rochester Medical Center.

Nun hat sein Labor neue Erkenntnisse darüber gewonnen, wie das Gehirn in der Lage ist, bewusst nur einem Sprecher zuzuhören und zur selben Zeit andere Sprecher auszublenden. Voraussetzung dafür ist eine zusätzliche Gehirnaktivität, die ausschließlich auf die Worte des Sprechers ausgerichtet ist, der im Fokus der Höranstrengung steht.

„Unsere Ergebnisse deuten darauf hin, dass die Schallwellen der unterschiedlichen Sprecher bzw. Quellen ähnlich verarbeitet werden. Bei der weiteren Verarbeitung der Signale im Gehirn jedoch zeichnen sich deutliche Unterschiede ab. “

-Edmund Lalor, Ph.D.

Für die Studie, die jüngst im Journal of Neuroscience veröffentlicht wurde, wurde den Teilnehmern gleichzeitig zwei Geschichten erzählt. Ihre Aufmerksamkeit sollten sie jedoch nur einer der beiden Erzählungen widmen. Anhand von EEG-Hirnstromaufzeichnungen fanden die Forscher heraus, dass die Geschichte, der die Teilnehmer ihre Aufmerksamkeit schenken sollten, in sprachliche Einheiten, so genannte Phoneme, umgewandelt wurde.  Phoneme sind Klangeinheiten, die ein Wort von einem anderen unterscheiden können. Dies war bei der nicht im Fokus stehenden Geschichte nicht der Fall. „Diese Umwandlung ist der erste Schritt zum Verständnis der gehörten Geschichte“, so Lalor. „Klänge müssen bestimmten sprachlichen Kategorien wie Phonemen und Silben zugeordnet werden. Nur so können wir letztendlich feststellen, welche Wörter gesprochen werden – auch wenn sie unterschiedlich klingen, z. B. wenn sie von Menschen mit unterschiedlichem Akzent oder unterschiedlicher Stimmlage gesprochen werden.

Hören bei Hintergrundgeräuschen

Diese Arbeit ist eine Fortsetzung einer von Lalor geleiteten Studie aus dem Jahr 2015, die in der Zeitschrift Cerebral Cortex veröffentlicht wurde. Die Forschungsarbeit wurde vor Kurzem mit dem Misha Mahowald Prize for Neuromorphic Engineering 2021 ausgezeichnet. Sie trägt wesentlich zur Entwicklung besserer Hörgeräte bei.

John Foxe, Ph.D., Direktor des Del Monte Institute for Neuroscience, war Mitautor der Studie, die zeigte, dass es möglich ist, anhand von EEG-Gehirnwellensignalen festzustellen, wem eine Person in einer Umgebung mit mehreren Sprechern ihre Aufmerksamkeit schenkt. Diese Arbeit war insofern neuartig, als sie über den Standardansatz hinausging, die Auswirkungen auf die durchschnittlichen Gehirnsignale zu untersuchen. „Unsere Forschung hat gezeigt, dass wir – fast in Echtzeit – Signale entschlüsseln können, um genau herauszufinden, wem man seine Aufmerksamkeit schenkt“, so Lalor.

Quelle: Teoh ES, Ahmed F, Lalor EC. Attention differentially affects acoustic and phonetic feature encoding in a multispeaker environment. The Journal of Neuroscience. 2021;JN-RM-1455-20. DOI: https://doi.org/10.1523/JNEUROSCI.1455-20.2021.