Neuronale Oszillationen und Sprachverarbeitung

Wenn Wellen auf Wellen surfen
Wie das menschliche Gehirn aus einer Reihe von Klängen Bedeutung extrahiert, ist eine wichtige neurolinguistische Fragestellung. Für manche Forscher|innen sind Hirnwellen der Schlüssel zur Lösung des Rätsels.
Unterschiedliche Forschungsansätze versuchen, Antworten zu liefern: Sicher ist, dass die Komplexität der Befunde die Komplexität der im Gehirn involvierten Prozesse widerspiegelt.
Von Noémie Lushaj
Lektoriert von Michelle Donzallaz und Laurina Stählin
Illustriert von Paul Heuschmidt
Sprache kann laut dem Schweizer Linguist Ferdinand de Saussure (1959) als zeichenbasiertes System beschrieben werden. Zeichen bestehen aus zwei Teilen: Dem signifiant, einem Klangbild, und dem signifié, einem mentalen Konzept (de Saussure, 1959). Sprache ist nach dieser Auffassung also nichts anderes als eine Kopplung von Klängen und Gedanken. Beim Klangbild werden Informationen hierarchisch und auf verschiedenen Zeitskalen präsentiert: Silben, Wörter, Sätze (Ding, Melloni, Zhang, Tian, & Poeppel, 2015). Diese Informationen werden jedoch nicht als sauber getrennte linguistische Einheiten gesendet, sondern als kontinuierlichen phonologischen Fluss, wie eine Welle. Ein wichtiges Konzept in diesem Zusammenhang ist die sogenannte Sprach-Enveloppe. Unter diesem Begriff versteht man langsame, wellenartige Veränderungen der Amplitude entlang der temporalen Feinstruktur des Sprachsignals (Moon & Hong, 2014). Damit das Klangbild in Gedanken übersetzt werden kann, muss das Gehirn den kontinuierlichen Sprachfluss zunächst sinnvoll sequenzieren. Wie es das tut ist umstritten.
Für viele Forscher|innen könnten Wellen – dieses Mal Oszillationen, die im auditorischen Kortex messbar sind – eine entscheidende Rolle spielen. Diese Vermutung beruht auf dem Befund, dass kortikales Entrainment, das ist die Korrelation von Hirn- und Sprachwellen, mit dem Sprachverständnis korreliert (Ahissar et al., 2001). Davon abgeleitet gibt es die Hypothese, dass neuronale Oszillationen im Sprachverarbeitungsprozess instrumentell sind (Giraud & Poeppel, 2012). Allerdings ist es auch möglich, dass Hirnwellen Nebenprodukte oder Konsequenzen von Sprachwahrnehmung und -verständnis sind (Obleser, Herrmann, & Henry, 2012).
Cum hoc non est propter hoc
Korrelation impliziert keine Kausalität. Letztere zu beweisen oder auszuschliessen stellt eine grosse Herausforderung dar und in welchem Ausmass von kausalen oder von korrelativen Beziehungen bezüglich der Rolle von Hirnwellen gesprochen werden kann, hängt stark davon ab, wie Forschung durchgeführt wird.
Anhand des sogenannten degraded speech approachs konnte gezeigt werden, dass sich die Verständlichkeit von Sprache als Folge von Manipulationen des Sprachsignals verändert (Ahissar et al., 2001). Bei diesem Forschungsansatz sind korrelative Interpretationen allerdings nicht auszuschliessen. Ein anderer Faktor könnte nämlich den Effekt verursachen und der Zusammenhang könnte genauso in die andere Richtung gehen: Es ist ein Henne-Ei-Problem (Obleser et al., 2012). Eine weitere beliebte Herangehensweise, mit der Kausalität jedoch auch nicht nachgewiesen werden kann, ist der subsequent speech approach. Hier wurde gezeigt, dass kortikales Entrainment nach Ende des Sprachsignals anhält und die Wahrnehmung von weiteren sprachlichen Signalen beeinflusst (Kösem et al., 2017). Anhaltendes kortikales Entrainment kann aber auch in Tieren (Lakatos et al., 2013) und bei nicht-sprachlichen Lauten (Hickok, Farahbod, & Saberi, 2015) gefunden werden. Dieser Ansatz ist also nicht in der Lage zu beweisen, dass Hirnoszillationen spezifisch für die Verarbeitung von Sprache in dem menschlichen Gehirn wichtig sind.
Von allen Ansätzen kommt der extrinsic brain stimulation approach der Kausalität am nächsten. Für Herrmann, Strüber, Helfrich und Engel (2016) kann nämlich nur die direkte Beeinflussung von Hirnwellen ihre kausale Rolle beweisen. Mittlerweile haben mehrere Untersuchungen gezeigt, dass transkranielle elektrische Stimulation (tES) die Hirnaktivität sowie die Sprachverarbeitung steuern kann. So konnten Wilsch, Neuling, Obleser und Herrmann (2018) die Verständlichkeit von Sprache erhöhen, in dem sie die Hirnaktivität mit der Sprach-Enveloppe synchronisiert haben. Befunde wie dieser sprechen für einen kausalen Einfluss von Hirnwellen.
«There’s an orgy of data but very little understanding.» Poeppel, zitiert nach Rennie, 2018
Nicht der Weisheit letzter Schluss
Die Ergebnisse von tES-Untersuchungen sind vielversprechend, jedoch sind sie mit Vorsicht zu geniessen. Tatsächlich ist die Sache viel komplexer als bisher dargestellt, denn welche Hirnregionen und Frequenzbänder genau untersucht werden beeinflusst die Ergebnisse massiv. Grund dafür ist, dass unterschiedliche Hirnareale mit unterschiedlichen Stadien der Sprachverarbeitung assoziiert sind. Der primäre auditorische Kortex ist für die allgemeine Wahrnehmung von Signalen zuständig, während höhere Regionen in tiefere lexikalische, semantische und syntaktische Analysen der Sprache involviert sind (Jäncke, 2013). Diese These wird dadurch gestützt, dass Hirnwellen im sekundären auditorischen Kortex im Gegensatz zu Oszillatoren im primären auditorischen Kortex zwischen sprachlichen und nicht-sprachlichen Rhythmen unterscheiden können (Kubanek, Brunner, Gunduz, Poeppel, & Schalk, 2013). Zudem fanden Ding und Kollegen (2015), dass Hirnwellen im sekundären auditorischen Kortex den zeitlichen Verlauf von abstrakten hierarchischen grammatischen Strukturen verfolgen und somit ein Marker des Sprachverständnisses darstellen.
Ein weiterer Grund, wieso man nicht voreilig auf Kausalität schliessen sollte ist, dass die Anzahl an Studien, die tES verwenden noch sehr begrenzt ist. Die empirische Basis ist somit zum jetzigen Zeitpunkt noch nicht substantiell genug (Parkin, Ekhtiari, & Walsh, 2015). Deswegen sollte sich künftige Forschung auf diesen Punkt konzentrieren. Gleichzeitig sollten behaviorale Ansätze auf keinen Fall vernachlässigt werden. Nur wenn genaue Analysen von Aufgaben und von den resultierenden Verhaltensweisen mit neuronalen Manipulationen kombiniert werden, kann ein volles Bild entstehen, so Krakauer, Ghazanfar, Gomez-Marin, Maclver und Poeppel (2017).
«[…] trying to understand perception by studying only neurons is like trying to understand bird flight by studying only feathers: It just cannot be done. In order to understand bird flight, we have to understand aerodynamics; only then do the structure of feathers and the different shapes of birds’ wings make sense.» Marr, zitiert nach Noë & Thompson, 2002, p. 250
Warum das Warum wichtig ist
Wissenschaftliche Forschung durchzuführen und zu publizieren kostet viel Zeit, Geld und Ressourcen (Van Noorden, 2013). Deswegen ist es nicht nur legitim, sondern auch notwendig, sich ab und an zu fragen, welcher Beitrag überhaupt geleistet werden soll. Warum sollten wir uns im Bereich der Linguistik für neuronale Oszillationen interessieren?
Zum einen gibt es einen Nutzen im klinischen Bereich. Zum Beispiel könnten kortikale Reaktionen auf Sprache in der Diagnostik von Populationen, die sonst schwierig zu testen sind, wie Kinder oder Tiere, eine Anwendung finden (Ding et al., 2015). Darüber hinaus könnten Methoden der externen Hirnstimulation in der klinischen Sprachpathologie verwendet werden: Mehrere Forschungsgruppen haben schon zeigen können, dass tES Aphasie-Patienten|innen helfen kann, Sprache zu verstehen und wieder zu erwerben (Flöel, Rösser, Michka, Knecht, & Breitenstein, 2008; You, Kim, Chun, Yung, & Park, 2011).
Zum anderen haben neurolinguistische Befunde möglicherweise wichtige Implikationen für die Gültigkeit linguistischer Theorien. Beispielsweise wurde die einflussreiche Studie von Ding und Kollegen (2015) in Verbindung mit der Theorie der Universalgrammatik (UG) von Noam Chomsky (1957) gebracht, nach der das menschliche Gehirn über ein angeborenes grammatisches System verfügt (Devitt, 2015). Während diese Studie für manche das Vorhandensein einer UG im Gehirn zu bestätigen scheint, argumentieren andere, dass die Daten nicht ausreichen, um die Theorie von Chomsky vollständig zu beweisen, beziehungsweise zu widerlegen (Boutonnet, 2015).
«Chomsky isn’t more right (or wrong) because of this data.» Boutonnet, 2015
In Zukunft sollten Überlegungen über praktische Anwendungen von den Befunden weitergeführt, sowie Studien wenn möglich vermehrt in existierende Theorien eingebettet werden. Laut dem Forscher David Poeppel sollte dies helfen, die vorhandenen Daten besser zu verstehen und sinnvolle Forschungsziele zu entwickeln (Rennie, 2018).
Einen Blick ins Gehirn werfen
Bildgebende Verfahren, wie die Elektroenzephalographie (EEG), die Magnetoenzephalographie (MEG) und die funktionelle Magnetoresonanztomographie (fMRT), ermöglichen ein besseres Verständnis über den Ablauf sprachlicher Verarbeitungsprozesse. EEG misst die elektrische Aktivität an der Schädeloberfläche und MEG erfasst magnetische Felder (Liu, Ding, & He, 2006). Beide Verfahren erlauben Rückschlüsse auf die neuronalen Ursprünge der Aktivität. fMRT stellt Veränderungen der Hirnaktivität mit einer hohen räumlichen Auflösung dar (Liu et al., 2006). EEG und MEG haben dagegen eine sehr gute zeitliche Auflösung und bringen somit andere Vorteile mit sich, wobei die Verfahren bestenfalls miteinander kombiniert werden (Liu et al., 2006). Bei der Interpretation der Ergebnisse ist jedoch zu beachten, dass diese alleine nicht in der Lage sind, kausale Beziehungen zwischen unabhängigen und abhängigen Variablen zu etablieren (Rufener, Zaehle, Oechslin, & Meyer, 2016).
Anmerkung der Autorin
Ein Teil der Forschung, die zu diesem Artikel beigetragen hat wurde als Teil der Bachelorarbeit «The virtuous circle of neural language processing: Discussing the functional role of brain oscillations in speech perception and comprehension» (2019) in Neurolinguistik am Psychologischen Institut der Universität Zürich unter Betreuung von Prof. Dr. Alexis Hervais-Adelman durchgeführt.
Zum Weiterlesen
Boutonnet, B. (2015). No, Ding et al. didn’t prove Noam Chomsky right, but the bigger problem is how scientists reach the public. Medical Daily. Retrieved from https://www.medicaldaily.com/
Devitt, J. (2015). Chomsky was right, NYU researchers find: We do have a “grammar” in our head. New York University. Retrieved from https://www.nyu.edu/
Ding, N., Melloni, L., Zhang, H., Tian, X., & Poeppel, D. (2015). Cortical tracking of hierarchical linguistic structures in connected speech. Nature Neuroscience, 19(1), 158-167. doi: 10.1038/nn.4186
Literatur
Ahissar, E. (2001). Speech comprehension is correlated with temporal response patterns recorded from auditory cortex. Proceedings of the National Academy of Sciences, 98(23), 13367-13372. doi: 10.1073/pnas.201400998
Boutonnet, B. (2015). No, Ding et al. didn’t prove Noam Chomsky right, but the bigger problem is how scientists reach the public. Medical Daily. Retrieved from https://www.medicaldaily.com/no-ding-et-al-didnt-prove-noam-chomsky- right-bigger-problem-how-scientists-reach-365502
Chomsky, N. (1957). Syntactic structures. The Hague: Mouton.
Davenport, M., & Hannahs, S. J. (2013). Introducing phonetics and phonology (3rd ed.). New York: Routledge.
Devitt, J. (2015). Chomsky was right, NYU researchers find: We do have a “grammar” in our head. New York University. Retrieved from http://www.nyu.edu/about/news-publications/news/2015/december/chomsky- was-right-nyu-researchers-find-we-do-have-a-grammar-in-our-head.html
Ding, N., Melloni, L., Zhang, H., Tian, X., & Poeppel, D. (2015). Cortical tracking of hierarchical linguistic structures in connected speech. Nature Neuroscience, 19(1), 158-167. doi: 10.1038/nn.4186
Flöel, A., Rösser, N., Michka, O., Knecht, S., & Breitenstein, C. (2008). Noninvasive brain stimulation improves language learning. Journal of Cognitive Neuroscience, 20(8), 1415-1422. doi: 10.1162/jocn.2008.20098
Giraud, A.-L., & Poeppel, D. (2012). Cortical oscillations and speech processing: Emerging computational principles and operations. Nature Neuroscience, 15(4), 511-517. doi: 10.1038/nn.3063
Herrmann, C. S., Strüber, D., Helfrich, R. F., & Engel, A. K. (2016). EEG oscillations: From correlation to causality. International Journal of Psychophysiology, 103, 12-21. doi: 10.1016/j.ijpsycho.2015.02.003
Hickok, G., Farahbod, H., & Saberi, K. (2015). The rhythm of perception: Acoustic rhythmic entrainment induces subsequent perceptual oscillations. Psychological Science, 26(7), 1006-1013. doi: 10.1177/0956797615576533.
Jäncke, L. (2013). Lehrbuch kognitive Neurowissenschaften. Bern: Hogrefe.
Kösem, A., Bosker, H. R., Takashima, A., Meyer, A., Jensen, O., & Hagoort, P. (2017). Neural entrainment determines the words we hear. Current Biology, 28, 2867-2875. doi: 10.1016/j.cub.2018.07.023
Krakauer, J. W., Ghazanfar, A. A., Gomez-Marin, A., Maclver, M. A., & Poeppel, D. (2017). Neuroscience needs behavior: Correcting a reductionist bias. Neuron, 93, 480-490. doi: 10.1016/j.neuron.2016.12.041
Kubanek, J., Brunner, P., Gunduz, A., Poeppel, D., & Schalk, G. (2013). Tracking of speech envelope in human cortex. PLoS ONE, 8(1), e53398. doi: 10.1371/journal.pone.0053398
Lakatos, P., Musacchia, G., O’Connel, M. N., Falchier, A. Y., Javitt, D. C., & Schroeder, C. E. (2013). The spectrotemporal filter mechanism of auditory selective attention. Neuron, 77(4), 750-761. doi: 10.1016/j.neuron.2012.11.034.
Liu, Z., Ding, L., & He, B. (2006). Integration of EEG/MEG with MRI and fMRI in functional neuroimaging. IEEE Engineering in Medicine and Biology Magazine, 25(4), 46-53. doi: 10.1109/MEMB.2006.1657787
Lushaj, N. (2019). The virtuous circle of neural language processing: Discussing the functional role of brain oscillations in speech perception and comprehension.
Moon, I. J., & Hong, S. H. (2014). What is temporal fine structure and why is it important? Korean Journal of Audiology, 18(1), 1-7. doi: 10.7874/kja.2014.18.1.1
Noë, A., & Thompson, E. (eds.) (2002). Vision and mind: Selected readings in the philosophy of perception. Cambridge: MIT Press.
Obleser, J., Herrmann, B., & Henry, M. J. (2012). Neural oscillations in speech: Don’t be enslaved by the envelope. Frontiers in Human Neuroscience, 6, 250. doi: 10.3389/fnhum.2012.00250
Parkin, B. L., Ekhtiari, H., & Walsh, V. F. (2015). Non-invasive human brain stimulation in cognitive neuroscience: A primer. Neuron, 87, 932-945. doi: 10.1016/j.neuron.2015.07.032
Rufener, K. S., Zaehle, T., Oechslin, M. S., & Meyer, M. (2016). 40 Hz-Transcranial alternating current stimulation (tACS) selectively modulates speech perception. International Journal of Psychophysiology, 101, 18-24. doi: 10.1016/j.ijpsycho.2016.01.002
Wilsch, A., Neuling, T., Obleser, J., & Herrmann, C. S. (2018). Transcranial alternating current stimulation with speech envelopes modulates speech comprehension. NeuroImage, 172, 766-774. doi: 10.1016/j.neuroimage.2018.01.038
You, D. S., Kim, D.-Y., Chun, M. H., Jung, S. E., & Park, S. J. (2011). Cathodal transcranial direct current stimulation of the right Wernicke’s area improves comprehension in subacute stroke patients. Brain and Language, 119(1), 1-5. doi: 10.1016/j.bandl.2011.05.002