„Der Seilroboter erschließt eine neue Dimension“

Max-Planck-Direktor Heinrich Bülthoff über die Wahrnehmungsforschung mit Bewegungssimulatoren

Im Cyberneum auf dem Tübinger Max-Planck-Campus werden Menschen in virtuelle Welten versetzt, um dann zu erforschen, wie unser Gehirn Eindrücke verarbeitet. Seit Kurzem gibt es mit dem Seilroboter einen Bewegungssimulator, der ganz neue Experimente möglich macht, sagt der Leiter der Forschungsabteilung, Heinrich Bülthoff. Wir sprachen mit ihm über das grundlegende Erkenntnisinteresse, die bewusste wie ganz reale Täuschung der menschlichen Sinne und die Zusammenarbeit mit der Luftfahrt- und Automobilindustrie.

Heinrich Bülthoff mit dem Seilroboter, den sie am Institut Cable Robot Simulator nennen.

Herr Prof. Bülthoff, im Cyberneum gibt es drei Bewegungssimulatoren. Worin liegt das generelle Forschungsinteresse?

Wir wollen besser verstehen, wie die Sinnesorgane des Menschen zusammenspielen, wenn er in seiner Umwelt agiert. Ein klassisches Beispiel ist das aufrechte Stehen. Kleine Kinder müssen das erst lernen, weil sie sonst umfallen – so als würde man einen Bleistift auf die Spitze stellen. Unser Gehirn muss auf die Signale der Augen, der Gleichgewichtsorgane oder Gelenkrezeptoren permanent reagieren, um die Muskeln zu steuern.

Welche Rolle spielt da die Bewegungssimulation?

Uns interessieren insbesondere die Wahrnehmungsschwellen. Beim Auge ist das sehr gut erforscht, wenn es beispielsweise um die minimale Helligkeit geht, die wir wahrnehmen können. Das Vestibularsystem, unser Gleichgewichtsorgan im Innenohr, ist dagegen noch vergleichsweise wenig untersucht. Im Experiment sitzt die Versuchsperson dann im Simulator im völlig abgedunkelten Raum. Es beginnt eine bestimmte Bewegung und wir fragen: In welchem Moment nehmen Sie diese wahr?

Bei den Bewegungsexperimenten werden also gezielt Sinne ausgeblendet, um zu sehen, wie das die Wahrnehmung beeinflusst.

Richtig. Normalerweise arbeiten die Sinne sehr gut zusammen. Wenn nun Experimente im Dunkeln stattfinden oder die Versuchsperson in einem virtuellen Flugzeugflug im Seilroboter durch eine Wolke fliegt, fällt der Sehsinn zur Orientierung weg. Dann bleibt uns Menschen nur noch das Vestibularsystem. Das kann eine Beschleunigung tatsächlich sehr gut messen – aber zur Lagebeschreibung ist diese Sensorik nicht geeignet. Nach einiger Zeit stimmt die Wahrnehmung nicht mehr mit dem überein, was physikalisch da ist.

Was heißt das?

Das Vestibularsystem gaukelt Ihnen etwas vor. Wenn man als nichterfahrener Pilot und ohne Instrumente durch eine Wolke fliegt, sagt es Ihnen, eine Ausgleichsbewegung machen zu müssen, um wieder in die horizontale Lage zu kommen. Aber diese Bewegung verschlechtert die Lage. In jedem Flugzeug gibt es deshalb als Instrument den „künstlichen Horizont“. Wenn Sie diese Referenz über den Sehsinn nicht haben, bleiben ungefähr drei Minuten und Sie fallen aus der Wolke, worauf in der Regel ein Absturz folgt.

Resultiert dieses Wissen aus der Forschung mit Bewegungssimulatoren?

Nein, das ist schon bekannt, aber wir versuchen nun, die Leistungsfähigkeit des menschlichen Gehirns bei der Integration von verschiedenen Sinnen genauer zu messen. Wir können sehr genau Virtuelle Welten (VR) bauen und bei den Probanden mittels der VR-Brillen den visuellen Sinneskanal stimulieren. Mit der Bewegungsplattform erforschen wir ebenso unser Vestibularsystem – und dann das Zusammenspiel zum Beispiel bei Kontrollaufgaben. Also, wenn die Probanden fahren oder fliegen, sehen wir, wie gut diese beiden Sinne interagieren müssen, um die Aufgabe zu lösen.

Was für Aufgaben sind das?

Ein Beispiel ist das Hubschrauberfliegen. Ähnlich wie beim aufrechten Stehen findet es in einem labilen Gleichgewicht statt. Wenn Sie den Helikopter auf einer Stelle schweben lassen wollen, müssen Sie pausenlos mit der rechten Hand den Steuerknüppel steuern, mit den Fußpedalen eine Rotation um die Hochachse ausgleichen und mit der linken Hand die Motorleistung regeln. Sonst würde er sofort in eine Richtung ausbrechen. Das ist eine ziemlich schwierige Aufgabe, bei der alle unsere Sinne und unsere motorische Koordination gefordert werden. Und diese Aufgabe können wir mit dem neuen Seilroboter jetzt sehr gut nachbauen.

Warum?

Der Seilroboter hat einen sehr großen Bewegungsraum, der nur von der Größe der Halle eingeschränkt wird. Der Arbeitsraum unseres Simulators liegt aktuell bei 8 x 5 x 5 Metern. Bei herkömmlichen Bewegungsplattformen, wie sie in der Flug- und Fahrsimulation üblich sind, haben Sie maximal einen halben bis einen Meter in jede Richtung.

Was zeichnet den Seilroboter noch aus?

Man kann sehr sanfte Bewegungen ausführen. Aber auch starke Beschleunigungen, die bisher nicht möglich waren. Das Maximum haben wir mit einer 75 Kilogramm schweren Puppe getestet. Dabei können wir bis 1,5 g gehen, also schneller als jedes normale Auto. Ob langsam oder schnell – bei allen Bewegungen täuschen wir die Wahrnehmung der Probanden. Wir starten mit einer Anfangsbeschleunigung, dann aber kippen wir die Plattform inklusive Sitz nach hinten, sodass auch der Kopf geneigt ist. Da der Proband gleichzeitig in den Sitz gepresst wird, sagt ihm das Vestibularsystem im Kopf, er werde permanent beschleunigt. So können wir länger andauernde Beschleunigungen simulieren, obwohl längst das Ende der Halle erreicht ist. Der Proband darf die Kippung freilich nicht wahrnehmen, sonst bricht das Ganze zusammen. Hier kommen dann unsere Forschungen zu den Wahrnehmungsschwellen ins Spiel. Je nach Setting ist eine Kippung von etwa 0,5 bis fünf Grad pro Sekunde möglich, ohne dass der Passagier diese Bewegung bemerkt. Er interpretiert sie als lineare Beschleunigung.

Man kann also, obwohl der Arbeitsraum nur acht Meter lang ist, deutlich längere Strecken zurücklegen?

Sie können eine konstante Beschleunigung auch über längere Strecken simulieren. Und wenn das noch in einer Virtuellen Realität stattfindet und Sie die Bewegung wirklich sehen, weil sie auf der Straße fahren oder durch die Luft fliegen, haben Sie vollends den Eindruck einer langen Beschleunigung. Schließlich sagt auch Ihr Vestibularsystem das gleiche: „Ich werde beschleunigt“.

Ist das auch ein Thema für die Industrie?

Wir machen grundsätzliche Forschung zu Wahrnehmungsschwellen und multisensorischer Verarbeitung, setzen diese aber auch ein, um neue wahrnehmungsbasierte Bewegungssimulationen zu entwickeln, also die Algorithmen zu verbessern. Bewegungssimulatoren sind in der Wirtschaft sehr weit verbreitet: Für das Training von Piloten oder zum Testen von Fahrzeugen. Das ist auch der Grund, weshalb wir mit der deutschen Automobilindustrie zusammenarbeiten. Dabei bringen wir unser Wissen über die Informationsverarbeitung im menschlichen Gehirn  mehr und mehr in technische Anwendungen ein.

Für welche Studien wollen Sie den Seilroboter nun nutzen?

Die meisten Navigationsfragen – also, wie orientieren wir uns in fremden Umgebungen, wie finden wir in der Stadt das Hotel oder den Bahnhof wieder – thematisieren die zweite Dimension. Dort bewegen wir uns meistens, wenn wir laufen oder fahren. Eine klassische Aufgabe der Navigationsforschung ist: Sie laufen mit geschlossenen Augen in eine Richtung, gehen dann 30 Grad nach links und laufen nochmal 20 Meter. Dann müssen Sie zu Ihrem Ausgangspunkt zurück. Das Ganze können wir jetzt mit dem Seilroboter auch in der dritten Dimension durchführen, also zusätzlich nach oben und unten steuern. Das sind Experimente, die wir so bisher mit keinem Simulator machen konnten. Ich bin gespannt zu sehen, wie gut der Mensch dabei ist.

Herzlichen Dank für das Gespräch!

Das Interview führte Jens Eschert

Weitere interessante Beiträge

Zur Redakteursansicht