Forschungsbericht 2015 - Max-Planck-Institut für Kognitions- und Neurowissenschaften

Der Ton macht die Musik: Pfade und Mechanismen der Prosodiewahrnehmung

Autoren
Sammler, Daniela
Abteilungen
Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig; Otto-Hahn-Gruppe „Neuronale Grundlagen für Intonation in Sprache“
Zusammenfassung
Sprache ist mehr als nur Worte: Der Tonfall – die Prosodie – verrät oft mehr über die Absicht des Sprechers als die eigentliche Äußerung. Während die Hirnnetzwerke der linken Hemisphäre, die den Wortlaut dekodieren, bereits gut erforscht sind, gilt dies nicht für die Netzwerke, die Prosodie analysieren. In einem Projekt am Max-Planck-Institut für Kognitions- und Neurowissenschaften wurde die Bedeutung der Verbindungsbahnen der rechten Hemisphäre beim Prosodieverstehen untersucht und gezeigt, dass auch das Motorsystem eine wichtige Funktion dabei hat.

Sprache und Prosodie

Wie Menschen Sprache verstehen, ist von jeher ein Rätsel gewesen. In den letzten Jahrzehnten jedoch gelingt es den Neurowissenschaften zunehmend, dieses Rätsel zu lüften [1, 2]. Zurzeit bestätigen sich dank moderner bildgebender Analyseverfahren die Vermutungen großer Wissenschaftler des 19. Jahrhunderts: Nicht nur auf Sprache spezialisierte frontale und temporale Hirnregionen der linken Hemisphäre, sondern vor allem die dorsalen und ventralen Verbindungsbahnen zwischen diesen Regionen bilden das neuronale Rückgrat der Sprachverarbeitung [3, 4]. Diese Befunde entsprechen ganz dem aktuellen Zeitgeist der Neurowissenschaften, menschliches Verhalten nicht auf eine begrenzte Zahl von Hirnarealen zu reduzieren, sondern den komplexen Informationsfluss zwischen diesen Arealen über die Faserbündel der weißen Substanz in die Überlegungen einzubeziehen.

Trotz ihres großen Erfolges bleiben diese neuronalen Pfadmodelle der Sprache in einer wichtigen Hinsicht unvollständig: Sie berücksichtigen nur selten die Prosodie [1]. Der Begriff Prosodie beschreibt alle melodischen und rhythmischen Aspekte von Sprache, die eine Äußerung strukturieren, ihre Bedeutung modifizieren oder sogar umkehren. Als anschauliches Beispiel für die wichtige Funktion der Prosodie stelle man sich einmal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes „Ja“ in Antwort auf einen Heiratsantrag vor. Die Verarbeitung der Prosodie wird überwiegend als eine Fähigkeit angesehen, die in der rechten Gehirnhemisphäre lokalisiert ist. Sie schließt unter anderem frontale und temporale Hirnregionen ein, die oft als anatomische [1] und funktionelle Pendants [5] zu den bekannten linkshemisphärischen Spracharealen betrachtet werden. Weitgehend unerforscht ist die Frage – und hierzu liefern gängige Pfadmodelle keine Ansatzpunkte –, über welche Verbindungsbahnen diese Areale miteinander kommunizieren. Die aktuelle Forschung der Otto-Hahn-Gruppe „Neuronale Grundlagen für Intonation in Sprache“ am MPI für Kognitions- und Neurowissenschaften zeigt erstmals die Verknüpfungen in einem komplexen Netzwerk der rechten Hemisphäre, durch das der Mensch subtile Änderungen im Tonfall verstehen kann.

Verbindungsbahnen der Prosodie

Abb. 1: (A) Aufgaben der Versuchspersonen während des Experiments. Entweder sollte die Prosodie (Frage/Aussage) oder der erste Laut eines Wortes (Bear/Pear) beurteilt werden. (B) Hirnareale, die während der Prosodieaufgabe (stärker als in der Phonemaufgabe) aktiviert waren. (C) Faserbündel, die diese vier Hirnregionen (in Gelb) miteinander verbinden; rot: ventraler Pfad; blau und cyan: dorsaler Pfad. IFG: inferiorer frontaler Gyrus; PMC: prämotorischer Kortex; pSTS: posteriorer superiorer temporaler Sulcus; aSTS: anteriorer STS; MdLF: mittlerer longitudinaler Fasciculus; AF: Fasciculus arcuatus; SLF: superiorer longitudinaler Fasciculus.

Mithilfe der funktionellen und diffusionsgewichteten Magnetresonanztomografie (fMRT und DTI) wurde untersucht, welche Verbindungsbahnen bei der Prosodiewahrnehmung eine Rolle spielen [6]. Dazu haben dreiundzwanzig englische Muttersprachler zwei Arten von Aufgabenblöcken im Scanner bearbeitet: In Prosodieblöcken hörten die Probanden das Wort bear (Bär) oder pear (Birne), das mit verschiedenen Tonverläufen gesprochen wurde. Sie sollten entscheiden, ob es sich um eine Frage oder um eine Aussage handelte (Abbildung 1A). In Phonemblöcken variierten die Wörter statt in der Tonkontur nun in der voice onset time (VOT) ihres initialen Konsonanten zwischen /b/ und /p/. Die Probanden sollten entscheiden, ob der Sprecher bear oder pear sagte. Durch die Subtraktion der neuronalen Aktivität während der Phonemaufgabe von der Aktivität während der Prosodieaufgabe konnten die prosodierelevanten Areale isoliert werden. Diese sind in Abbildung 1B gekennzeichnet.

Es zeigten sich zwei Gruppen von Aktivierungen, die alle eine signifikante Lateralisierung in der rechten Hemisphäre aufwiesen. Die Aktivierungen im posterioren und anterioren superioren temporalen Sulcus (pSTS und aSTS) stimmen mit früheren Studien zur Prosodiewahrnehmung überein [7] und können Stationen eines ventralen Pfades sein, der den akustischen Tonhöhenverlauf in eine „prosodische Gestalt“, das heißt eine wahrgenommene Frage- oder Aussagekontur abstrahiert. Die zweite Gruppe bilden Aktivierungen im inferioren Frontallappen (dem „rechten Broca-Areal“; IFG) und dem prämotorischen Kortex (PMC) auf der Höhe des Larynxareals. Der IFG unterstützt die Bewertung des prosodischen Stimulus, während der PMC an dieser Stelle die Vibration der Stimmbänder und somit die Tonhöhe einer vokalen Äußerung kontrolliert. Die Tatsache, dass die Probanden die Stimuli lediglich hörten und nicht vokalisierten, legt die Vermutung nahe, dass sie die Larynxbewegungen, die der Sprecher für die Artikulation dieses Wortes benutzte, intern simulierten. Diese Aktivität passt zur möglichen Rolle des dorsalen Pfades, akustische Signale in einen motorischen Befehl zu übersetzen [8].

Um nun die Faserbündel der weißen Substanz zu bestimmen, die dem Informationsaustausch in diesem Netzwerk zugrunde liegen können, wurden die vier Aktivierungs-Cluster als Start- und Endpunkte in einer probabilistischen Fasertraktografie genutzt. Hierbei wird die anatomische Verbindung zwischen zwei Regionen aus den diffusionsgewichteten Gehirnbildern der Probanden berechnet. Die Ergebnisse in Abbildung 1C zeigen klare Evidenz für dorsale und ventrale Pfade in der rechten Hemisphäre: Das ventrale Faserbündel folgt dem mittleren longitudinalen Fasciculus, das dorsale Faserbündel folgt dem Verlauf des Fasciculus arcuatus (AF) beziehungsweise superioren longitudinalen Fasciculus (SLF), der in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt ist [3, 4].

Insgesamt zeigen die Daten multiple Pfade der Prosodiewahrnehmung. Sie weisen erstaunliche Parallelen zu bestehenden Pfadmodellen der Sprache auf, sind jedoch nicht vorrangig in der linken, sondern in der rechten Hemisphäre angesiedelt. Es ist anzunehmen, dass diese Pfade – je nach ihren kortikalen Start- und Endpunkten – unterschiedliche Funktionen unterstützen. Zum Beispiel legen frühere Studien nahe, dass das prosodische Signal entlang des ventralen Pfades verschiedene Stadien der auditorischen Verarbeitung durchläuft [7] oder über den dorsalen Pfad hin zum IFG eine bewusste Bewertung erfährt [9].

Die Rolle des Motorsystems

Interessanterweise gibt es bisher kaum Überlegungen zu einem dorsalen audiomotorischen Pfad (dunkelblau in Abbildung 1C) zwischen Temporallappen und prämotorischem Kortex (PMC), obwohl PMC-Aktivierungen den Kern einer ganzen Forschungstradition bilden – der Motortheorien der Sprachwahrnehmung [10]. Die bis heute intensiv diskutierte Grundthese dieser Theorien besagt, dass das Motorsystem (einschließlich PMC) das Verstehen von (nichtprosodischen) Sprachreizen fördert, indem es die Artikulationsgesten simuliert, die den gehörten Sprachlaut hervorbringen würden. Die vorliegenden Daten laden zu Spekulationen über einen ähnlichen Mechanismus in der Prosodiewahrnehmung ein, zunächst aber muss der Nachweis erbracht werden, dass der PMC für die Prosodieaufgabe tatsächlich notwendig ist.

Diese Frage wurde mit der Methode der repetitiven transkraniellen Magnetstimulation (rTMS) an zweiunddreißig englischen Muttersprachlern untersucht. Sie sollten eine gekürzte Variante der oben beschriebenen Prosodie- und Phonemaufgabe ausführen, einmal nach 15-minütiger rTMS des PMC und einmal nach 15-minütiger Shamstimulation (Als-ob-Stimulation ohne Magnetfeld; Abbildung 2A). Durch die rTMS kann die Aktivität eines Areals vorübergehend leicht eingeschränkt werden, dagegen hat die Shamstimulation keinen Einfluss auf die Region. Nach rTMS des rechten PMC zeigte sich ein deutlicher Abfall der Performanz in der Prosodieaufgabe (im Vergleich zur Shamstimulation), der weder in der Phonemaufgabe noch nach Stimulation des linken PMC auftrat (Abbildung 2B).

Abb. 2: (A) Versuchsablauf. (B) Verhaltensdaten der Versuchspersonen. Die vorübergehende Hemmung des rechten (nicht linken) prämotorischen Kortex durch rTMS führte zu einer Verschlechterung in der Prosodiewahrnehmung (im Vergleich zu Shamstimulation), während die Leistung in der Phonemaufgabe unbeeinträchtigt blieb. rTMS: repetitive transkranielle Magnetstimulation.

Die Ergebnisse belegen, dass das Motorsystem, hier der rechte prämotorische Kortex, die Prosodiewahrnehmung tatsächlich unterstützt. Diese Beobachtung stimmt mit dem überein, was man über auditorisch-motorische Kopplungsschleifen weiß: Sie können der Sprachwahrnehmung dienen, indem der Hörer in sich selbst jene motorischen Programme rekonstruiert, die ein Sprecher ursprünglich für die Produktion des gehörten Sprachlautes genutzt hat [8]. Voraussetzung für einen derartigen Simulationsmechanismus ist die schnelle Kommunikation zwischen den auditorischen und motorischen Arealen, die zum Beispiel über den oben berichteten AF/SLF ermöglicht werden kann.

Fazit

Die in dem Forschungsprojekt gewonnenen Erkenntnisse fördern das Verständnis der Mechanismen, die dem Verstehen subtiler Hinweise im Tonfall zugrunde liegen – jenseits des eigentlichen Wortlautes. Gängige Sprachmodelle konzentrieren sich auf die linke Hemisphäre, jetzt wird deutlich, dass auch die Beteiligung der rechten Hemisphäre notwendig ist. Erstmals werden die möglichen Kommunikationspfade zwischen den spezialisierten Hirnregionen thematisiert und die Beteiligung des Motorsystems in der Prosodiewahrnehmung dokumentiert. Die genaue Beschreibung dieses Hirnnetzwerkes, seiner Knotenpunkte, Verbindungsbahnen und internen Mechanismen ist ein Grundstein für das Verständnis menschlicher interpersoneller Kommunikation und ihrer Störungen.

Literaturhinweise

1.
Friederici, A. D.; Alter, K.
Lateralization of auditory language functions: a dynamic dual pathway model
Brain Lang 89, 267–276 (2004)
2.
Hickok, G.; Poeppel, D.
The cortical organization of speech processing
Nat Rev Neurosci 8, 393–402 (2007)
3.
Friederici, A. D.; Gierhan, S. M. E.
The language network
Curr Opin Neurobiol 23, 250–254 (2013)
4.
Dick, A. S.; Tremblay, P.
Beyond the arcuate fasciculus: consensus and controversy in the connectional anatomy of language
Brain 135, 3529–3550 (2012)
5.
Ross, E. D.
The Aprosodias. Functional-Anatomic Organization of the Affective Components of Language in the Right-Hemisphere
Arch Neurol-Chicago 38, 561–569 (1981)
6.
Sammler, D.; Grosbras, M.-H.; Anwander, A.; Bestelmeyer, P. E. G.; Belin, P.
Dorsal and ventral pathways for prosody
Curr Biol 25, 3079-3085 (2015)
7.
Schirmer, A.; Kotz, S. A.
Beyond the right hemisphere: brain mechanisms mediating vocal emotional processing
Trends Cogn Sci 10, 24–30 (2006)
8.
Hickok, G.; Houde, J.; Rong, F.
Sensorimotor integration in speech processing: computational basis and neural organization
Neuron 69, 407–422 (2011)
9.
Frühholz, S.; Grandjean, D.
Processing of emotional vocalizations in bilateral inferior frontal cortex
Neurosci Biobehav Rev 37, 2847–2855 (2013)
10.
Liberman, A. M.; Mattingly, I. G.
The motor theory of speech perception revised
Cognition 21, 1–36 (1985)
Zur Redakteursansicht