Es ist ein Phänomen, das im Internet vielfach auf Videos zu sehen ist: Klatscht man vor der großen Pyramide der antiken Maya-Stätte Chichén Itzá in die Hände, reflektiert das Bauwerk diese mitnichten als ebensolches Händeklatschen. Das Echo ist vielmehr ein Laut, der an den Ruf des Quetzal-Vogels erinnert, der bei vielen Völkern der präkolumbischen Kulturen eine bedeutende Rolle spielte.
Dieser so genannte „Chirp“-Laut (englisch für tschilpen oder zwitschern) hat nun auch dabei geholfen, ein über 50 Jahre altes Rätsel der Neurowissenschaften zu lösen: Ab welchem Zeitpunkt und auf welche Art beginnt das menschliche Gehirn, bestimmte Töne von anderen zu trennen, wenn wir unsere Aufmerksamkeit auf sie richten? „Unser Co-Autor, Steven A. Hillyard aus San Diego, hatte bereits 1973 nachweisen können, dass die selektive Aufmerksamkeitslenkung auf verschiedene Pieptöne nach ungefähr 100 Millisekunden zu einem messbaren Effekt in der elektrischen Aktivität unseres Gehirns führt. Er konnte diese zeitliche Schwelle, ab der das Gehirn seine Aufmerksamkeit auf bestimmte akustische Reize lenken kann, in einem höher entwickelten Teil des Gehirns, dem auditorischen Cortex, messen“, erklärt Professor Daniel J. Strauss, Direktor der Systems Neuroscience & Neurotechnology Unit (SNNU), einer gemeinsamen Einrichtung der htw saar und der Universität des Saarlandes.
Dennoch wird seitdem in der Fachwelt darüber diskutiert, ob nicht schon an einem viel früheren Punkt der Hörbahn messbar ist, an dem das Gehirn bestimmte Töne, auf die es seine Aufmerksamkeit richtet, aus sich überlagernden Tönen herausfiltern kann, indem man die elektrische Aktivität des Gehirns misst. Schließlich hat ein akustischer Reiz schon viele Stationen hinter sich, wenn er durch die Ohrmuschel ins Gehör gelangt, in der Cochlea, der Gehörschnecke, in ein elektrisches Signal umgewandelt wurde und dann über Nervenbahnen weiter ins Gehirn gelangt, wo er dann interpretiert wird. Diese Frage konnten Daniel J. Strauss und seine Kolleginnen und Kollegen nun eindeutig beantworten: „Sogar die relativ einfach auf der Kopfhaut zu erfassende elektrische Aktivität des menschlichen Gehirns als neuronale Antwort auf den Klang wird bereits nach fünf Millisekunden deutlich durch Aufmerksamkeit moduliert“, erklärt Daniel J. Strauss. Das bedeutet nicht weniger, als dass unser Gehirn einen bestimmten Ton bereits in einem evolutionär sehr frühen Teil des Gehirns wahrnimmt, dem inferioren Colliculus, einem Teil des Hirnstamms.
An dieser Stelle kommen wieder die antiken Maya-Töne ins Spiel. Denn dem Forschungsteam ist diese außergewöhnliche Messung durch einen Twist des ursprünglichen Experiments von 1973 gelungen, indem sie den teilnehmenden Probanden auf einem Ohr Chirp-Laute eingespielt haben und auf dem anderen Ohr einen konventionellen Piepton wie in der 1973er Studie. „Chirp-Laute, die die Eigenschaft haben, dass ihre Frequenz mit der Zeit entweder zu- oder abnimmt, regen die gesamte Cochlea auf einmal an. Das macht die Chirp-Laute zu idealen Lauten, um die gesamte Signalverarbeitung entlang der Hörbahn – vom Hirnstamm bis zum Kortex – zu entschlüsseln“, erläutert der Neurowissenschaftler Strauss.
Sie haben in der Folge messen können, ab wann die elektrische Aktivität des Gehirns als Antwort auf die Chirp-Reize mit und ohne darauf gerichtete Aufmerksamkeit auseinanderläuft. Dies war bereits recht klar nach den besagten fünf Millisekunden der Fall, „ein Effekt, der jahrzehntelang kontrovers diskutiert wurde“, wie Daniel J. Strauss über diese Erkenntnis sagt. Durch den niederfrequenten Piepton wurde hingegen keinerlei Hirnstammaktivität in der elektrischen Aktivität sichtbar, geschweige denn irgendwelche Aufmerksamkeitseffekte.
Er konnte mit seinen Kolleginnen und Kollegen überdies nachweisen, dass das Gehirn mit präziseren und deutlich gleichförmigeren neuronalen Antworten reagiert, wenn eine Person bewusst auf die Chirp-Töne achtet. „Dies ist eine Synchronisierung, die entscheidend für die Verarbeitung von relevanten Geräuschen im Alltag ist und erklärt, auf welche Art diese ‚Aufmerksamkeitsantworten‘ entlang der Nervenbahn zustande kommen, was ebenfalls sehr kontrovers diskutiert wurde“, sagt Daniel J. Strauss über diese Beobachtung. „Unsere Ergebnisse zeigen, dass Aufmerksamkeit nicht erst in höheren Gehirnbereichen greift – sie verfeinert die Abbildung auf der Nervenbahn bereits bei der ersten Verarbeitung von Klängen im Gehirn, und zwar auch bei Tonsequenzen ohne prädiktiven Inhalt wie zum Beispiel bei Sprache“, erklärt der leitende Autor der Studie.
Da dies durch die „extern“ erfassbare elektrische Aktivität des Gehirns geschehen kann, könnte dies eine wertvolle Grundlagen für die Entwicklung neuartiger Hörgeräte oder Earbuds liefern, die aus der Aufmerksamkeit die Hörintention des Menschen ableiten und so die natürlichen „Aufmerksamkeitsfilter“ technisch unterstützen.
Originalpublikation
Daniel J. Strauss, Farah I. Corona–Strauss, Adrian Mai, Steven A. Hillyard, Unraveling the effects of selective auditory attention in ERPs: From the brainstem to the cortex, NeuroImage, Volume 316, 2025, 121295, ISSN 1053-8119, https://doi.org/10.1016/j.neuroimage.2025.121295.
Weitere Informationen:
Prof. Dr. Dr. Daniel J. Strauss
Tel.: (06841) 1624090
E-Mail: daniel.strauss(at)uni-saarland.de