Der Ton macht die Musik

Wissenschaftler entdecken neuronale Kommunikationspfade der Prosodie

Erstmals haben Forscher des Leipziger Max-Planck-Instituts für Kognitions- und Neurowissenschaften die Verbindungspfade entschlüsselt, über die unsere Gehirnareale miteinander kommunizieren, wenn wir subtile Veränderungen im Tonfall eines Sprechers wahrnehmen. Die Forschungsergebnisse der Otto-Hahn-Gruppe unter Leitung von Daniela Sammler zeigen die Verknüpfungen in einem komplexen Netzwerk der rechten Hemisphäre und belegen die Beteiligung des Bewegungssystems bei der Wahrnehmung des Tonfalls. Die genaue Kenntnis dieses Prosodie-Netzwerkes hilft beim Verständnis zwischenmenschlicher Kommunikation und ihrer Störungen.

Nicht nur im Deutschen haben wir einen einfachen Satz gefunden, der beschreibt, dass Sprache mehr ist als Worte. „C'est le ton, qui fait la musique“, sagt man in Frankreich um darauf zu verweisen, dass es nicht allein auf die tatsächlich gesprochenen Worte ankommt, um unser Gegenüber genau verstehen zu können. Der Tonfall verrät uns oft mehr über Intentionen des Sprechers als die reine semantische Bedeutung des Gesagten.

„Stellen Sie sich doch einfach mal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes „Ja“ in Antwort auf einen Heiratsantrag vor“, schlägt Daniela Sammer vor. „Da haben Sie ein anschauliches Beispiel für die wichtige Funktion des Tonfalls.“ In der Wissenschaft wird dieser Tonfall mit dem Begriff Prosodie umschrieben und bezieht sich auf die Gesamtheit aller sprachlichen Eigenschaften wie Akzent, Intonation oder auch Sprechpausen.

Mit Hilfe der modernen bildgebenden Analyseverfahren ist es den Wissenschaftlern inzwischen gelungen, die vor allem in der linken Hemisphäre stattfindende Entschlüsselung der  Wortlaute gut zu erforschen. Die Ergebnisse zeigen, dass menschliches Verhalten und eben auch Sprache nicht auf einzelne begrenzte Hirnareale reduziert werden kann, sondern vor allem die Verbindungsbahnen zwischen  frontalen und temporalen Hirnregionen bei der Sprachverarbeitung entscheidend sind. Solche neuronalen Pfadmodelle der Sprache liefern allerdings keine Anhaltspunkte darüber, wie Prosodie im menschlichen Gehirn verarbeitet wird.

Wissenschaftler aus der Forschungsgruppe „Neuronale Grundlagen von Intonation in Sprache“ haben daher eine Studie entwickelt und freiwillige Teilnehmer ins Institut eingeladen um dem Geheimnis des Prosodie-Netzwerkes auf die Spur zu kommen. Die Englischen Muttersprachler, Männer und Frauen, bearbeiteten zwei verschiedene Aufgabensets, während ihre Gehirnfunktionen in einem Tomografen für funktionelle Magnetresonanztomografie (fMRT) gemessen wurden. Sie sollten entweder entscheiden, ob Worte als Frage oder Aussage über die Kopfhörer eingesprochen wurden (Prosodie-Aufgabe), oder den Anfangsbuchstaben heraushören (Kontrollaufgabe).

Die Ergebnisse zeigen insbesondere in der Prosodie-Aufgabe zwei Gruppen aktiver Hirnareale in der rechten Hemisphäre. Die Aktivierungen im posterioren und anterioren superioren temporalen Sulcus (pSTS und aSTS) können Stationen sein, die den akustischen Tonhöhenverlauf heraushören und in eine wahrgenommene Frage- oder Aussagekontur abstrahieren. Die zweite Gruppe bilden aktive Gebiete im sogenannten inferioren Frontallappen (IFG) und dem prämotorischen Kortex (PMC) auf der Höhe des Larynxareals, welches die Bewegungen des Kehlkopfes steuert. „Der IFG unterstützt die Bewertung des Tonfalls, während der PMC an dieser Stelle die Vibration der Stimmbänder und somit die Tonhöhe einer Äußerung kontrolliert. Dieser Befund ist sehr interessant, da die Probanden die Stimuli lediglich hörten und nicht selbst sprachen,“ erklärt Sammler.

Offenbar stellten die Studienteilnehmer die Kehlkopfbewegungen, die der Sprecher für dieses Wort benutzte, intern nach. Gehörtes wurde also vom Gehirn auch in einen Bewegungsbefehl übersetzt. Dies fördert das Verständnis von Sprache, indem der Hörer in sich selbst die Bewegungsprogramme rekonstruiert, die ein Sprecher für die Produktion des Gehörten selbst genutzt hat. „Bislang vermutete man diesen Aspekt nur für die nichtprosodische Sprachverarbeitung in der linken Hemisphäre. Die vorliegenden Daten könnten aber für einen ähnlichen Mechanismus in der Wahrnehmung des Tonfalls sprechen“, erklärt Sammler.

Darüber hinaus bestimmten die Forscher die Faserbündel der weißen Substanz, die dem Informationsaustausch in diesem Netzwerk zugrunde liegen. Dafür berechneten die Forscher die anatomischen Verbindungen zwischen den aktivierten Gehirnregionen aus den Gehirnbildern der Studienteilnehmer. Die Ergebnisse zeigen klare Evidenz für dorsale und ventrale Pfade in der rechten Hemisphäre: Das ventrale Faserbündel folgt dem mittleren longitudinalen Fasciculus, das dorsale Faserbündel folgt dem Verlauf des Fasciculus arcuatus (AF) beziehungsweise des superioren longitudinalen Fasciculus (SLF). Dieser ist in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt.

Das Gehirn nimmt den Tonfall einer Sprache also entlang mehrerer Pfade wahr. Im Unterschied zu anderen Signalpfaden für Sprache liegen sie vor allem in der rechten Hirnhälfte. „Vermutlich lassen sich diese Pfade flexibel kombinieren und erfüllen so unterschiedliche Aufgaben. Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen“, fasst Sammler zusammen.

KP/HR-MG

Weitere interessante Beiträge

Zur Redakteursansicht