Bilder nehmen Formen an

Menschen reicht ein zweidimensionales Foto oder ein Film, um ein Gesicht oder einen Körper auch in 3-D zu erfassen. Diese Fähigkeit bringen Forscher um Thorsten Thormählen am Max-Planck-Institut für Informatik in Saarbrücken Computern bei und schaffen so neue Möglichkeiten, Bilder und Filme zu bearbeiten. Auch Anwendungen gibt es schon: einen 3-D-Schminkratgeber und ein Programm, mit dem sich menschliche Körper in Filmen manipulieren lassen.

In den vergangenen Monaten sah es in Thorsten Thormählens Labor recht weihnachtlich aus. Eine gewaltige Leuchtkugel hing von der Decke herab. Thormählen hatte mit seinen Kollegen Lochstreifen aus einem Metallbaukasten zu einem runden Skelett zusammengeschraubt und dann mehrere Dutzend Leuchtdioden daranmontiert und verkabelt. Gut zwei Meter im Durchmesser misst die Lichtkugel, die der Forscher braucht, um Gesichter zu fotografieren.

Thorsten Thormählen und seine Mitarbeiter am Saarbrücker Max-Planck-Institut für Informatik arbeiten im Grenzbereich zwischen Realität und Computerwelt. Sie verpflanzen Bilder realer dreidimensionaler Objekte in virtuelle Szenen oder manipulieren die Körper von Filmstars in Videosequenzen.

Was beinahe nach Datenfälschung klingt, ist echte Grundlagenforschung. Denn die Saarbrücker wollen nicht weniger, als dem Computer beibringen, Szenen zu verstehen. Ein Mensch erkennt in einem Video intuitiv einen anderen Menschen. Füttert man aber einen Computer mit einer Bildsequenz, sieht der nur eine Wolke bunter Pixel. „Wir wollen, dass der Computer aus einer zweidimensionalen Szene reale, dreidimensionale Objekte herausliest“, sagt Thormählen, ganz im Geiste seiner Arbeitsgruppe „Bildbasierte 3-D-Szenenanalyse“. Auch das ist für uns Menschen kinderleicht. Selbst auf einem zweidimensionalen Foto erkennen wir, ob ein Haus oder ein Auto im Vordergrund steht. Den Computer derart schlau zu machen, dazu gehört allerhand.

Zweidimensionale Bilder liefern 3-D-Informationen

Zum Beispiel eine große Leuchtkugel. Damit treiben die Forscher eine Idee weiter, die Kristina Scherbaum und ihr Mentor Volker Blanz vor einigen Jahren umgesetzt haben. Ihnen war es gelungen, aus einem gewöhnlichen Foto ein dreidimensionales Abbild des Gesichts zu rekonstruieren. Die virtuellen, dreidimensionalen Gesichter verschönern Thormählen, Scherbaum und ihre Kollegen nun, indem sie dazu das passende Make-up kreieren.

„Es funktioniert“, sagt Thormählen. „Auf der Cebit haben wir Frauen fotografiert und unsere neu entwickelte Software das jeweils passende Make-up errechnen lassen. Es wird auf einem dreidimensionalen Abbild des Gesichts dargestellt.“ Die ideale Schminkvorlage in 3-D? Das klingt fast trivial. Tatsächlich aber bewegt sich Thormählen mit dieser Software an den Leistungsgrenzen der Computergrafik – und sie wird zum Testfall dafür, ob der Computer aus einem zweidimensionalen Bild korrekte 3-D-Information ermitteln kann. Doch wozu die Lichtkugel?

Sie ist das entscheidende Hilfsmittel, um Gesichter unter verschiedenen Belichtungen im Detail zu fotografieren. Will man dem Computer beibringen, zweidimensionale Fotogesichter in 3-D-Modellköpfe zu verwandeln, muss man ihn vorher nämlich mit 3-D-Gesichtsdaten trainieren. Zu diesem Zweck hatten die Forscher am Anfang des Projekts nacheinander 56 Frauen in der Kugel Platz nehmen lassen und aus verschiedenen Winkeln und unter unterschiedlichen Beleuchtungsbedingungen aufgenommen. So wurden den Probandinnen in der Lichtkugel Streifenmuster aufs Gesicht projiziert, die die Wölbungen von Nase, Wange oder Kinn anzeigen.

Mathematische Formeln für Details im Gesicht

Dann kam die bewährte Software von Scherbaum und Blanz zum Einsatz, die 3-D-Köpfe erzeugt. Diese Software sammelte die Informationen aller 56 Gesichter und ermittelte daraus einen Standardkopf, einen digitalen Gesichtsrohling sozusagen, einen Datensatz, mit dem der Computer später in einem Bild treffsicher ein Gesicht als solches erkennt.

Speist man anschließend die zweidimensionale Fotografie eines neuen Gesichts in das System, wird das Porträt anhand des Standards vermessen und in ein 3-D-Gesichtsmodell gewandelt, gemorpht, wie Spezialisten es nennen. Das Programm beschreibt das neue Gesicht also anhand des gespeicherten Wissens – eine Nase wie Gesicht 25, Wangenknochen wie Gesicht 34, ein Kinn wie Gesicht 56.

Die Software vollzieht dabei einen Optimierungsprozess. Sie erzeugt ein 3-D-Abbild des Gesichts, rechnet dann zurück nach 2-D, gleicht die Daten mit der Fotovorlage ab und verbessert im Zweifelsfalle das 3-D-Abbild erneut. Bis schließlich alles passt. Eine Schwierigkeit dieses Prozesses liegt darin, die zahllosen Details, die Menschen auf einen Blick erfassen, in eine mathematische Beschreibung zu fassen. Denn nur anhand von Formeln kann der Rechner ein neues Gesicht mit den gespeicherten Mustern abgleichen.

Nicht nur die exakte dreidimensionale Form eines Gesichts finden die Forscher auf diese Weise heraus, sie bestimmen auch die Eigenschaften der Haut. Diese Details kann der Computer anhand der Reflexion auf der Oberfläche für jedes Pixel exakt berechnen, da die Position der Leuchtdioden im Lichtzelt genau bekannt ist. Sogar die Lage und Tiefe einzelner Hautporen ermittelt der Computer. So entsteht im Computer ein sehr lebensechtes „Hautmodell“.

Das Ziel: ein lebensechtes Abbild des Menschen

Natürlich ist das etwas viel Aufwand für einen schnöden Schminkratgeber. Tatsächlich geht es Thormählen um mehr. Er versucht, dem lebensechten Abbild des Menschen so nah wie möglich zu kommen – und folgt damit einem Trend in der Computergrafik. Das große Ziel der Grafiker ist ein Kunstkopf, den man nicht mehr vom echten unterscheiden kann. Für Videospiele, Kinofilme oder Internet-Anwendungen wäre der gleichermaßen attraktiv.

Dabei kommt es auf Nuancen an, vor allem das Zusammenspiel von Licht und Gesichtsoberfläche. Denn Menschen sind unerhört gut darin, echte von falschen Gesichtern zu unterscheiden. Eine falsche Reflexion in der Iris, und schon wirkt ein digitaler Android abstoßend künstlich. Auch das Lichtspiel der Haut ist wichtig. Ein Gesicht reflektiert das Licht nicht wie ein Spiegel. Bestimmte Teile werden gestreut und diffus zurückgeworfen. Hinzu kommt das Licht, das in die Haut eindringt und von den tieferen Hautschichten reflektiert wird. Es verleiht dem Gesicht den typischen warmen, lebensechten Charakter. Ein Grund dafür, dass zu dick aufgetragene Schminke unecht wirkt.

Thormählen versucht, dem naturgetreuen Kunstkopf mit seinem Make-up-Modell möglichst nahe zu kommen. Für den Hightech-Schminkassistenten in 3-D muss der Rechner natürlich zusätzlich mit Make-up-Information gespeist werden. Thormählen und Scherbaum fotografierten die Probandinnen daher einmal ungeschminkt und einmal geschminkt. Dafür engagierten sie eigens eine professionelle Kosmetikerin aus einem Saarbrücker Theater, die die Frauen je nach Typ optimal schminkte.

Der Computer beantwortet die Typ-Frage

Das umfangreiche Wissen der Kosmetikerin, welches Make-up zu welchem Typ, also zu welchem Teint, welcher Augen- und Haarfarbe passt, müssen die Saarbrücker Informatiker nun wieder in Daten fassen. Diese kommen zu den Datenbergen des Morphable Face Models, des veränderbaren Gesichtsmodells, und den Hautinformationen aus der Lichtkugel dazu. All diese Informationen müssen die Forscher nun zusammenführen, und zwar nicht intuitiv, wie Menschen das können, sondern in der analytischen Formelsprache, die Computer verstehen.

Scannt man jetzt ein Foto, generiert der Computer ein 3-D-Gesichtsmodell, das er mit den bekannten Gesichtern in der Datenbank abgleicht: Ein heller Typ? Da wären etwas weniger Rouge und ein wenig mehr Lidschatten geeignet. Am Ende liefert die Software das Make-up, das am besten zu dem neuen Gesicht passt. Das Kunstgesicht lässt sich drehen und neigen und unter verschiedenen Belichtungen betrachten – im Sonnenschein oder im schummrigen Diskolicht. Und dank der hochaufgelösten Fotos aus der Lichtkugel haben die Gesichter eine täuschend echte Anmutung.

Reale Hautmodelle für Computerspiele

Ursprünglich wollte Thormählens Team eine Software entwickeln, die Frauen ein Make-up vorschlägt, mit dem ihr Gesicht dem theoretischen Schönheitsideal nahe kommt. Nach Erkenntnissen von Psychologen zeichnet sich ein solches Ideal unter anderem durch braunere Haut, vollere Lippen, dünnere Augenlider, lange dunkle Wimpern, höhere Wangenknochen und eine schmale Nase aus. Mit ausreichend Schminke könnte man Gesichter tatsächlich in diese Richtung trimmen. Am Ende erschien es den Forschern aber sinnvoller, das individuelle Optimum und nicht den idealen Standard zu suchen.

Mit dem Make-up-System verknüpfen die Informatiker Highlights der Computergrafik. Ausgereifte Morphable Models und reale Hautmodelle sind dabei Errungenschaften der vergangenen fünf Jahre, für die es eine ganze Reihe potenzieller Einsatzgebiete gibt: Internetservices zum Beispiel, in denen naturgetreue, virtuelle Mitarbeiter sprechen, Tipps geben oder bei der Bedienung von Geräten helfen. Und dann wäre da der wachsende Markt der Computerspiele-Industrie. Nach Angaben des Bundesverbands Interaktive Unterhaltungssoftware und der Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers expandiert die Branche enorm. So spülte der Verkauf von Computerspielen 2008 weltweit gut 50 Milliarden US-Dollar in die Kassen der Spiele-Industrie. Damit hat der Spielemarkt längst das Geschäft mit Spielfilm-DVDs und Blu-rays überflügelt. Mit diesen wurden im selben Jahr nur knapp 35 Milliarden US-Dollar umgesetzt.

Je realistischer die künstlichen Gestalten und die virtuellen Welten wirken, desto attraktiver sind sie – und desto mehr Geld sind die Kunden bereit auszugeben. Lebensechte Gesichter spielen dabei eine wichtige Rolle. Die Bewegung der Figuren aber auch. Was das betrifft, hat Thormählen im vergangenen Jahr einen Coup gelandet. Es gelang ihm mit der neuen Software MovieReshape, in einem realen Video die Gestalt der Protagonisten zu verändern.

Virtuelle Pfunde für Hollywoodstars

Talentierte Computergrafiker konnten so etwas bislang nur mit Fotos machen, sie retuschieren zum Beispiel den Bauchansatz von Politikern oder Fältchen von Fernsehstars weg. Für Filme mit 25 Bildern pro Sekunde war das undenkbar. Mit der neuen Software aber lassen sich Menschen im Film spielend leicht modifizieren. Es genügt, kleine Schieberegler auf dem Bildschirm hin- und herzubewegen, und schon schrumpft oder wächst der Darsteller.

Ein Produkt gibt es noch nicht. Aber der Prototyp der neuen Bildbearbeitungssoftware funktioniert überzeugend. Im Internet wurde das Demo-Video schon hunderttausendfach angeklickt: Ein männlicher „Baywatch“-Star joggt durch den Strandsand, mal mit flachem Brustmuskel, mal mit gewölbtem. In einem anderen Film wirft ein Sportler Basketbälle in den Korb, während ihm ein Bierbauch wächst.

„Jetzt sind nicht einmal mehr Videos vor Fälschern sicher“, schimpfen Kritiker. Thorsten Thormählen kennt die Bedenken. Für ihn aber ist die neue Software vor allem ein verlockendes Hilfsmittel, um professionelle Videoaufnahmen aufzupeppen. „Bislang futtert sich mancher Hollywoodstar für eine Filmrolle Pfunde an“, sagt Thormählen. „Mit unserer Software ließe sich das völlig stressfrei am Computer erledigen.“

Das Programm lernt Körper zu unterscheiden

Die Leichtigkeit, mit der der „Baywatch“-Adonis über den Strand läuft, täuscht darüber hinweg, dass die Entwicklung von MovieReshape harte, auch mathematische Arbeit war. Wie beim Kunstkopf musste zunächst ein digitales Modell geschaffen werden – in diesem Fall ein Morphable Body Model. Auch hier berechnet der Computer aus einer zweidimensionalen Szene ein realistisches, dreidimensionales Modell. Denn am Ende wirkt die Manipulation an einer Filmsequenz nur dann überzeugend, wenn sie einer realistischen Veränderung im dreidimensionalen Filmobjekt entsprechen könnte.

Für das dreidimensionale Modell haben die Forscher zunächst die Körper von etwa 100 Probanden eingescannt. Damit lernte der Computer, zwischen dick und dünn, lang und kurz, starkem oder schmalem Oberschenkel zu unterscheiden. Füttern die Forscher ihren Computer jetzt mit einer Videosequenz, passt das Programm das digitale Körpermodell automatisch an die Gestalt im Bild an – und zwar für jedes Einzelbild einer Filmsequenz. Bei einem flimmerfreien Video sind das die besagten 25 Bilder pro Sekunde. Eine solche automatische Bildanalyse dauert derzeit noch Stunden. Dann aber geht es schnell. Hat der Computer alle Bilder und die Position des Darstellers analysiert, genügt ein Zug am Schieberegler, und der Körper wächst oder schrumpft nach Gutdünken – und zwar konsistent in allen Bildern der Videosequenz.

Das klingt simpel. Der Trick aber besteht darin, den Körper anatomisch korrekt zu verformen. Es genügt nicht, Bauch und Beine in die Länge zu ziehen. Auch die Dicke der Gliedmaßen oder des Rumpfes muss sich ändern. Sonst wirkt die Figur schnell wie eine Karikatur. Das mathematisch formalisierte Wissen über die richtigen Proportionen zieht die Software aus den gespeicherten Körperscans.

Und noch etwas benötigt der Computer: das Wissen, wie sich ein Skelett anatomisch korrekt bewegt. Thormählen konnte dafür auf ein etabliertes Verfahren zurückgreifen, das schon länger von Informatikern genutzt wird. Bei diesem Verfahren wird ein Skelett verwendet, das definiert, welche Stellungen Knochen und welche Winkel Gelenke einnehmen können. Dieses künstliche Skelett hat Thormählen mit seinem Morphable Body Model gekoppelt. „Damit kann die Software in einer Bildfolge Beine und Arme anatomisch korrekt positionieren“, sagt er.

Das 3-D-Modell lässt Charlie Chaplin auferstehen

Thormählen und seine Kollegen haben die Bearbeitung bewegter Bilder damit also quasi automatisiert. Das ist genau das, was die Computergrafik-Branche braucht. Gefragt sind Programme, die einen Computer mit Vorwissen über die Gestalt des Menschen füttern. Erst mit diesem Vorwissen und entsprechender Software kann der Computer die Gestalt dann halb automatisch oder künftig vielleicht sogar von ganz allein verändern. „Heute macht man noch viel von Hand, schiebt Pixel am Bildschirm mit der Maus hin und her, färbt Flächen ein und um“, sagt Thormählen. Programme, die diese zeitraubende Arbeit automatisieren, sind deshalb heiß begehrt.

Und mithilfe des dreidimensionalen Modells lassen sich nicht nur die Körper der Schauspieler an die Vorgaben des Drehbuchs oder auch nur an den Publikumsgeschmack anpassen, sie könnten auch helfen, Schauspieler zu animieren. Sehr weit gesponnen, ließen sich manche Dreharbeiten eines Tages vielleicht durch einen Fototermin ersetzen – in Bewegung würden Filmemacher ihre Akteure dann am Computer versetzen. So könnte man auch Charlie Chaplin wiederauferstehen lassen. Es genügte, Kopf und Körper aus alten Spielfilmszenen in den Computer einzuspielen. Damit könnte der Rechner Chaplin dann nach Belieben laufen und springen lassen. „Hier sind noch nicht alle Probleme gelöst, aber mit ein wenig Arbeit können wir das unserer Software beibringen“, sagt Thormählen. Im vergangenen Dezember hat er MovieReshape auf der Siggraph Asia, einer der weltweit wichtigsten Konferenzen in der Computergrafik, vorgestellt.

Auch für die Sportanalyse wäre die Software sinnvoll. So könnte man einem Sportler am eigenen Bild beispielsweise einen idealen Bewegungsablauf vorführen. Und im Fitnessstudio könnte man Motivationsvideos anbieten: „So werde ich aussehen, wenn ich dreimal die Woche trainiere.“

Das nächste Ziel von Thormählens Team ist es, das Morphen noch schneller zu machen, weiter zu automatisieren; die Zeit zu verkürzen, die der Computer braucht, um die Videodaten zu analysieren. Und was die Gesichter betrifft, wünscht er sich noch mehr Leben. Die Haut wirkt schon echt. Jetzt soll eine überzeugende Bewegung, die täuschend echte Mimik hinzukommen. Auch dafür sind neue, schnellere Algorithmen nötig. „Damit könnte ein Computersystem sogar Stimmungen erkennen“, sagt Thormählen. Denkbar sei es auch, den Computer mit Gesten oder Mimik zu steuern. Das würde nicht nur Computerspiel-Freaks erfreuen. Querschnittgelähmten könnte eine solche Funktion die Arbeit am Computer erleichtern.

GLOSSAR

Morphable Body Model:
Körpermodell, das sich in drei Dimensionen realistisch verformen und bewegen lässt. Es dient als Vorlage für Manipulationen in zweidimensionalen Filmsequenzen. Analog zum 3-D-Gesichtsmodell wird es von einer Software erzeugt, die Körper aus beliebigen zweidimensionalen Filmsequenzen mit einem Katalog gescannter Körperformen und -gesten abgleicht.

Morphable Face Model: Wörtlich: Formbares Gesichtsmodell. Dreidimensionales Modell eines Gesichts, das Manipulationen zulässt. Eine Software erstellt es von einer beliebigen Person, indem sie das Gesicht mit einem Katalog vorhandener Gesichter abgleicht.

MovieReshape: Ermöglicht die schnelle und einfache Manipulation der Körperformen und –proportionen von Darstellern in Filmen. Die Software arbeitet mit einem 3-D-Körpermodell.

Tim Schröder

Weitere interessante Beiträge

Zur Redakteursansicht