Forschungsbericht 2022 - Assoziierte Einrichtung - Ernst Strüngmann Institute (ESI) for Neuroscience

Unterschiedliche Hardware, gleiches Ergebnis – natürliches Verhalten von Primaten und Nagetieren im Vergleich

Autoren
Havenith, Martha Nari; Schölvinck, Marieke
Abteilungen

Assoziierte Einrichtung - Ernst Strüngmann Institute (ESI) for Neuroscience, Frankfurt am Main

Zusammenfassung
Wenn eine Gruppe von Nervenzellen mehrere Aufgaben im Gehirn gleichzeitig erledigt, wie ist deren Aktivität repräsentiert? Hat die Evolution für diese Herausforderung der neuronalen Verarbeitung immer dieselbe Lösung entwickelt, oder existieren artspezifische Eigenheiten? Um diese Fragen zu beantworten, arbeitet unsere Forschungsgruppe mit den zwei Tierarten, die am häufigsten in den Systemischen Neurowissenschaften untersucht werden: Mäuse und Primaten. Dafür beobachten wir in einem natürlichen Kontext visuell bedingte Entscheidungen und Reaktionen der Tiere.
 

Achtung, Raubtier! Wo ist das beste Versteck? Finde ich Futter am selben Ort wie gestern? Muss ich neu auf Suche gehen? Egal, ob Affe oder Maus, die Herausforderungen, die sich ihnen in freier Wildbahn stellen, sind komplex – und für beide Tierarten sehr ähnlich. Ihre Gehirne hingegen, insbesondere ihr visueller Kortex, sind ganz verschieden. Wie schaffen es diese beiden Arten, trotz unterschiedlicher Hardware ähnlich zu agieren, also beispielsweise die Mühen und Risiken des Weges zu einer Futterquelle abzuwägen gegen deren Nahrhaftigkeit?

Um diese Fragen zu beantworten, arbeitet unsere Forschungsgruppe am Ernst Strüngmann Institute (ESI) for Neuroscience in Frankfurt am Main parallel mit den zwei Tierarten, die am häufigsten in den Systemischen Neurowissenschaften eingesetzt werden: Mäusen und Primaten. Wir schicken die Tiere auf Nahrungssuche durch eine Virtual Reality (VR)-Umgebung, wodurch wir ihre visuell bedingten Entscheidungen, Abwägungen und Reaktionen in einem natürlichen Kontext genau beobachten können. Die Mäuse laufen auf einer großen Kugel durch die VR-Welt, die Affen bewegen sich durch diese, indem sie mit ihren Händen einen Trackball steuern. Die Aufgabe ist für beide Tierarten gleich: Auf dem Weg durch die virtuelle Landschaft werden dem Tier immer wieder zwei Objekte präsentiert, zum Beispiel ein Stein und eine Nuss. Es läuft zu einem der beiden Objekte und wird entweder belohnt – die Affen mit Saft, die Mäuse mit Sojamilch –, oder nicht.

Von Verhaltensparametern auf kognitive Zustände schließen

Während dieser einfachen Suchaufgabe verfolgen wir das Verhalten sehr detailliert. Besonders achten wir dabei auf drei spezifische Aspekte: 1) Wege in der VR und wie zielgerichtet diese sind, 2) Augenbewegungen und Pupillengröße, 3) Videos von Gesicht und Händen der Affen beziehungsweise von Gesicht und Körper der Mäuse.

Wege und Augenbewegungen können wir leicht durch eine Zahl erfassen, die sich im Laufe der Zeit ändert – und zwar durch eine Position in einem x-y-Koordinatensystem im Laufe der Zeit. Aber wir müssen die Videos auch quantifizieren. Dazu verwenden wir eine Toolbox namens DeepLabCut. Diese verfolgt die Position bestimmter Körperteile (z. B. Handgelenke, Augenbrauen, Wangen oder Ohrenspitzen) über die Zeit.

Die aus unseren Beobachtungen gewonnenen Verhaltensparameter nutzen wir dann, um die zugrundeliegenden kognitiven Zustände der Tiere einzuschätzen. Wenn eine Maus beispielsweise sehr aufmerksam auf die Reize achtet, die sie sucht, entscheidet sie sich vielleicht schneller für ein Objekt, läuft geradliniger dorthin und beginnt früher, am Belohnungsröhrchen zu lecken, weil sie die Belohnung erwartet. All diese Verhaltensparameter zusammengenommen könnten dann auf einen hoch aufmerksamen Zustand deuten. Gleichzeitig ist das Tier aber vielleicht erst am Anfang eines Lernprozesses, und verwechselt deshalb noch verschiedene Objekte trotz aufmerksamer Wahrnehmung. Auch dies wird in einer Vielzahl von anderen Verhaltensparametern widergespiegelt. Es liegt auf der Hand, dass wir diese kognitiven Zustände umso besser miteinander in Verbindung bringen können, je mehr Parameter wir haben, um das Tierverhalten zu beschreiben.

Lernen und Aufmerksamkeit in Echtzeit beobachten

Sobald all diese Parameter feststehen, die das Verhalten über die Zeit beschreiben – insgesamt sind es knapp 20 –, entschlüsseln wir mit einer Kombination mathematischer Modelle (ein sogenanntes GLM-HMM-Modell) die zugrundeliegenden kognitiven Zustände, wie auch den oben erwähnten hochaufmerksamen Zustand. Das berechnen wir im Moment für Affen und Mäuse getrennt. Der Vergleich zwischen den beiden Tierarten zeigte, dass unterschiedliche Verhaltensweisen bei beiden Arten zu denselben kognitiven Zuständen führen. Dies gibt uns einen ersten Anhaltspunkt dafür, wie sie ähnliche komplexe Herausforderungen wie die Nahrungssuche in einer vielfältigen sensorischen Umgebung lösen.

Der nächste Schritt besteht für unsere Forschungsgruppe darin, während der Nahrungssuche in der virtuellen Umgebung die Gehirnaktivität großer Neuronengruppen in den visuellen Arealen des Gehirns zu messen. So erhalten wir Momentaufnahmen aus den vielfältigen Verhaltensweisen von Tieren, die wir dann mit Hilfe modernster Computertools zu verschiedenen Aspekten der Gehirnaktivität in Beziehung setzen. Unser Ziel dabei ist es, erstmals überhaupt zu klären, wie sich im Gehirn verschiedener Tierarten universelle kognitive Vorgänge, wie zum Beispiel Lernen und Aufmerksamkeit, in Echtzeit entfalten - und ob diese evolutionsbedingt oder artspezifisch sind.

Literaturhinweise

van Heukelum, S.; Mars, R.B.; Guthrie, M.; Buitelaar, J.K.; Beckmann, C.F.; Tiesinga, P.H.E.; Vogt, B.A.; Glennon, J.C.; Havenith, M.N.
Where is cingulate cortex? A cross-species view.
Trends in Neuroscience 43, 285-299 (2020)
Zur Redakteursansicht