Forschungsbericht 2006 - Max-Planck-Institut für Mathematik

Renormalisierung als Galois-Symmetrie

Autoren
Marcolli, Matilde
Abteilungen


MPI für Mathematik, Bonn

Zusammenfassung
In den sechziger und siebziger Jahren des letzten Jahrhunderts entwickelten Physiker Verfahren, den in der Quantenfeldtheorie auftretenden Unendlichkeiten endliche Werte zuzuordnen (Renormalisierung). Wir erklären neuere Arbeiten von Connes-Kreimer und Connes-Marcolli, die ein konzeptionelles Verständnis dieser Verfahren liefern und unerwartete Zusammenhänge zur Zahlentheorie andeuten.

Die Quantentheorie von Feldern

Mitte des 20. Jahrhunderts gelang es der Quantenfeldtheorie, zwei fundamentale Theorien miteinander zu verschmelzen, die Anfang des Jahrhunderts entwickelt worden sind: die spezielle Relativitätstheorie und die Quantenmechanik. Eine Vereinigung der Quantenphysik mit der allgemeinen Relativitätstheorie bleibt weiterhin, ein halbes Jahrhundert nach der Entwicklung von beiden Theorien, der heilige Gral der theoretischen Physik. Das typische Phänomen, das eine simultane Anwendung von spezieller Relativitätstheorie und Quantenmechanik vorraussetzt, ist der Zusammenprall von Elementarteilchen. Die Quantenmechanik allein kann einen solchen Zusammenprall nicht beschreiben, weil die Anzahl der beteiligten Teilchen nicht konstant bleibt. Teilchen werden erzeugt und vernichtet, Energie wird umgewandelt in Teilchen und wieder zurück in Energie, etwas, das nur durch die Äquivalenz von Masse und Energie in der speziellen Relativitätstheorie erklärt werden kann. Die ersten Schritte in der Entwicklung einer Quantenfeldtheorie begannen in den späten zwanziger Jahren des letzten Jahrhunderts mit der Quantisierung des elektromagnetischen Feldes, bei der es zur Erzeugung und Vernichtung von Photonen kommt, und mit Diracs relativistischer Formulierung der Quantenmechanik des Elektrons. Bis dato jedoch wurden Teilchen (wie das Elektron) und Felder (wie das elektromagnetische) in der Theorie durch verschiedene Formalismen behandelt. Erst die Entwicklung der „zweiten Quantisierung“ führte zu einem Paradigmenwechsel zugunsten der Quantenfelder als den fundamentalen Objekten, wobei die Teilchen als Zustände der Felder auftreten. Dies ist der Standpunkt der Quantenfeldtheorie.

Ärger mit Unendlichkeiten

In der Quantenfeldtheorie tauchen divergierende Ausdrücke auf. Die Ursache dafür liegt in der Betrachtung von geladenen Teilchen als geometrische Punkte, was die Selbstenergie (die Energie aufgrund der Wechselwirkung des geladenen Teilchens mit seinem eigenen Feld) unendlich werden lässt. Die verschiedenen Typen von Wechselwirkungen zwischen Teilchen, die in einer gegebenen Quantenfeldtheorie auftreten können, werden durch verschiedene Typen von Graphen, den Feynman-Diagrammen (Abb. 1).

original
Feynman-Graphen beschreiben die Wechselwirkung zwischen Teilchen bei Berechnungen der störungstheoretischen Quantenfeldtheorie.

Dies sind Zeichnungen, in denen die Teilchen durch Linien dargestellt werden und die Ecken „virtuellen“ Wechselwirkungen entsprechen. Die physikalisch relevanten Größen, die man in der Quantenfeldtheorie berechnen kann, können durch einige fundamentale Funktionen, die Green-Funktionen, ausgedrückt werden. Diese werden beschrieben durch eine formale Reihe, deren Terme durch kombinatorisch zunehmend komplizierter werdende Feynman-Diagramme mit steigender Anzahl von Schleifen indiziert werden. Die Feynman-Regeln geben an, wie man den Beitrag solcher Diagramme zur Green-Funktion bestimmt. Diese Beiträge sind klassische endlichdimensionale Integrale in den Momentenvariablen. Das Problem ist, daß diese Integrale dazu tendieren, unendlich zu sein. Dieses „Problem der Unendlichkeiten“ wurde in der Regel von Physikern und Mathematikern als ein unerwünschtes Ärgernis betrachtet, als ein Zeichen für eine schlecht formulierte Theorie.

ber Flüssigkeiten und Felder

In der weiteren Entwicklung der Quantenfeldtheorie entdeckte man, dass dieses „Problem der Unendlichkeiten“ für eine gewisse Klasse von Theorien, die so genannten „renormalisierbaren“, repariert werden kann. Für diese kann man eine konsistente Vorschrift angeben, wie man aus einer formalen Reihe divergenter Integrale eine endliche Zahl berechnet. Dazu ändert man rekursiv die „nackten“ Parameter in der Lagrangefunktion so ab, dass die in der Reihenentwicklung neu auftretenden Divergenzen sich wegheben.

Der Grund dafür, dass es möglich ist, die Parameter in der Lagrangefunktion zu ändern, liegt

darin, dass sie nicht beobachtbar sind. Das Unterscheiden zwischen nackten Parametern und beobachtbaren physikalischen Größen in der Strömungsmechanik des 19. Jahrhunderts markiert den historischen Beginn von Renormalisierung, als Green beobachtete, dass man die Masse eines sich in einer Flüssigkeit bewegenden Objektes durch einen korrigierten „physikalischen“ Wert ersetzen muss, der die Wechselwirkung mit der umgebenden Flüssigkeit berücksichtigt. In der Quantentheorie von Teilchen und Felder wurde diese Idee auf eine Situation übertragen, in der sich Teilchen nicht in einer Flüssigkeit, sondern in einem äußeren Feld bewegen. Die nackten Konstanten sind dann nicht mehr länger physikalisch beobachtbare Größen: Man kann ein Elektron nicht von dem umgebenden

elektromagnetischen Feld trennen. Deshalb sind die endlichen und messbaren Größen, die man experimentell bestimmt, wie Masse und Ladung, nicht das gleiche wie die entsprechenden Parameter, die als Kopplungskonstanten in der

physikalischen Theorie auftauchen. Die letzteren sind nicht beobachtbar, und daher können ihre Werte geändert werden, ohne die physikalisch messbaren Größen zu beeinflussen.

Seltsame Dimensionen und verschachtelte Graphen

In den siebziger Jahren, als die theoretische

Entwicklung der Quantenfeldtheorie ihren Höhepunkt erreicht hatte, perfektionierten t'Hooft und Veltman eine ausgeklügelte Methode der Regularisierung divergenter Integrale. Unter der

Bezeichnung Dimensionsregularisierung und minimale Subtraktion ist sie die bis heute gebräuchlichste Methode und wird zum Beispiel angewandt in der Berechnung von Vorhersagen, die aus dem Standardmodell der Elementarteilchenphysik folgen. Die Methode besteht darin, durch analytische Fortsetzung die Integration nicht in der Raum-Zeit-Dimension D (z.B. D=4) auszuführen, sondern in einer komplexen Dimension D-z, wobei z eine kleine komplexe Zahl ist (Abb. 2).

original
Die Dimensionsregularisierung von divergenten Feynmanintegralen lässt die Existenz von Geometrie auch in einer komplexen Dimension z vermuten. Mittels der nichtkommutativen Geometrie kann man einen adäquaten Rahmen für solche Geometrien schaffen.

Üblicherweise wurde dies als eine formale Prozedur angesehen, die ein divergentes Integral durch eine Laurentreihe bei 0 ersetzt, von der man dann die divergenten Anteile abziehen kann. Jedoch haben Arbeiten von Connes und Marcolli (MPIM Bonn) kürzlich gezeigt, dass man mithilfe der nichtkommutativen Geometrie „Räumen der Dimension z“ eine wirkliche geometrische Bedeutung geben kann. DieRegularisierungsprozedur allein reicht nicht aus, eine Quantenfeldtheorie zu renormalisieren. Das Problem ist, dass ein divergenter Graph, also ein Graph, der Unendlichkeiten erzeugt, meistens kleinere Graphen enthält, die ihrerseits selber wieder divergent sind, und die vor dem größeren Graphen betrachtet werden müssen. Um die auftretenden Divergenzen durch Modifizieren der nackten Parameter der Theorie zu korrigieren, muss man einen systematischen Weg finden, solche verschachtelten Divergenzen zu behandeln. Bogoliubov und Parasiuk entwickelten schon in den frühen sechziger Jahren eine Methode, die so genannte Präparation von Graphen, die es erlaubt, bei der Regularisierung divergenter Integrale über die divergenten Untergraphen Buch zu führen. Mit dieser Renormalisierungsprozedur hatten die Physiker schon in den frühen siebziger Jahren eine zufrieden stellende Methode, um aus quantenfeldtheoretischen Berechnungen konkrete Vorhersagen über physikalische Größen machen zu können. Jedoch gab es bis vor kurzem kein konzeptionelles Verständnis dieser Bogoliubov-Parasiuk-Prozedur und der Renormalisierung.

Die Theorie von Connes und Kreimer

Einen ersten Durchbruch in dieser Richtung gab es 1997 mit der Arbeit des deutschen Physikers Dirk Kreimer. Er zeigte, dass die Bogoliubov-Parasiuk-Präparation sich mittels einer mathematischen Struktur, nämlich einer Hopfalgebra (Abb. 3).

original
Das Koprodukt der Connes-Kreimer-Hopfalgebra beinhaltet die kombinatorische Struktur der Bogoliubov-Parasiuk-Präparation.

Dies wurde in einer nachfolgenden Arbeit von Alain Connes und Dirk Kreimer verfeinert, in der sie die Hopfalgebra direkt aus den Feynman-Graphen der

Theorie konstruierten. Wie der italienische Mathematiker Giancarlo Rota in den siebziger Jahren entdeckt hat, lassen sich mit Hopfalgebren oft kombinatorische Probleme beschreiben, bei denen auf natürliche Weise Objekte wie Graphen bei der Lösung von Abzählproblemen auftauchen. Diese Objekte haben die Eigenschaft, dass sie sich auf verschiedene Weisen zerlegen und wieder neu zusammensetzen lassen. Die Struktur einer Hopfalgebra spiegelt diese Operationen wider. Die Quantenfeldtheorie bringt nun eine komplizierte Kombinatorik, nämlich die der Feynman-Graphen, mit sich, und so tauchen auch hier Hopfalgebren auf. Die Connes-Kreimer-Hopfalgebra ist eine kommutative Hopfalgebra, und dieser Typ von Hopfalgebra lässt sich äquivalent beschreiben durch eine Gruppe (genauer: ein affines Gruppenschema). Sie wird die Gruppe der Diffeographismen dieser Theorie genannt, weil sie auf den Kopplungskonstanten durch formale Diffeomorphismen operiert. Das Hauptresultat von Connes und Kreimer zeigt, dass die Bogoliubov-Parasiuk-Prozedur ein Beispiel ist für eine sehr allgemeine mathematische Methode, endliche Werte zu erzeugen, nämlich die Birkhoffzerlegung (Abb. 4).

original
Ein Beispiel für die Birkhoffzerlegung. Die Gruppe besteht aus den Verschiebungen in der Ebene. Man beginnt mit der Funktion f(z), die einem Punkt z auf dem Einheitskreis die Verschiebung um ihre Projektion auf die reelle Achse zuordnet (Teil (a)). Die Birkhoffzerlegung schreibt f(z) als Summe (da die Gruppe additiv ist) einer Abbildung b(z)/ 2, definiert außerhalb des Nordpols und gegeben durch die Hälfte der stereographischen Projektion vom Nordpol her, und einer anderen Abbildung a(z)/2, definiert außerhalb des Südpols und gegeben durch die Spiegelung an der reellen Achse von der Hälfte der stereographischen Projektion vom Südpol her (Teil (b)).

Diese führt dann zu einem zufriedenstellenden Verständnis der Renormalisierung. Die Ausgangsdaten für die Zerlegung bestehen aus einer Gruppe (hier die Gruppe der Diffeographismen) und einer Abbildung von der Kreislinie in die Gruppe (hier eine Kreislinie im Raum der komplexen Dimensionen, mit Zentrum D, der ganzzahligen Dimension der Raum-Zeit). Wenn eine solche Abbildung der Randwert einer holomorphen Abbildung der

Kreisscheibe in dieselbe Gruppe wäre, dann würde man den endlichen Wert durch Auswerten der Abbildung im Zentrum der Kreisscheibe erhalten. Jedoch lässt sich im allgemeinen eine Abbildung nicht holomorph auf die Kreisscheibe fortsetzen.

Die Birkhoffzerlegung stellt die Abbildung als Verhältnis zweier Terme dar, von denen sich der eine in das Innere der Kreisscheibe fortsetzen lässt, der andere sich auf das äußere Komplementärgebiet (in der Sphäre). Ein einfaches Beispiel der Birkhoffzerlegung wird durch die Abbildung 4 illustriert. Die Renormalisierungsprozedur wird nun in der Connes-Kreimer-Theorie so formuliert, dass man alle Feynman-Diagramme der ursprünglichen, nicht renormalisierten Theorie zusammenfasst zu einer Abbildung, ausgehend von einer Kreisscheibe komplexer Dimensionen um die Dimension D der Raum-Zeit herum, hinein in die Gruppe der Diffeographismen der Theorie. Mittels der Birkhoffzerlegung schreibt man diese Abbildung als ein Produkt zweier Faktoren, von denen einer einen endlichen Wert an D annimmt, der andere sich holomorph außerhalb D in die Sphäre fortsetzen lässt. Die Auswertung des ersten Faktors bei D ergibt die renormalisierten Werte für die Feynman-Graphen, das heisst also die wirklichen „physikalischen Werte“. Der andere Term in der Birkhoffzerlegung dagegen gibt den Ausgleichsterm, den man dazu benützen kann, die unphysikalischen nackten Kopplungskonstanten zu berichtigen, sodass sich die Unendlichkeiten gegenseitig kürzen.

Renormalisierung und Motive

Jüngste Ergebnisse von Alain Connes (College de France/IHES) und Mathilde Marcolli (MPIM Bonn) zeigen, dass die Birkhoffzerlegung, die die renormalisierten „physikalischen“ Werte und die „Ausgleichsterme“ ergibt, auch ausgedrückt werden kann durch Darstellungen einer universellen Gruppe von Symmetrien. Dabei benutzt man eine allgemeine mathematische Struktur, die Riemann-Hilbert-Korrespondenz. Um zu verstehen, wie man zu diesem Resultat kommt, muss man einige Tatsachen über Galois-Symmetrien kennen.

Galois betritt die Bühne

Der Zweig der reinen Mathematik, den wir heute Galois-Theorie nennen, hat seinen Ursprung in der Lösung von Polynomgleichungen. Schon die alten Babylonier kannten eine explizite Formel zur Lösung von quadratischen Gleichungen, während dagegen eine solche Formel für Gleichungen dritten und vierten Grades erst in der italienischen Renaissance gefunden wurde. Zu Beginn des 19. Jahrhunderts erkannten Abel und Galois, dass es eine analoge Formel, die nur die vier Grundrechenarten und das Ziehen von Wurzeln benutzt, für Gleichungen fünften Grades nicht geben kann. Mit dieser Entdeckung war eine phantastische neue Idee verbunden, nämlich die, dass gewisse Eigenschaften einer Gleichung an seiner Symmetriegruppe, der Galoisgruppe, abgelesen werden können. Diese Gruppe wurde von Galois als die Invariantengruppe der rationalen Funktionen in den Wurzeln der Gleichung beschrieben. Eine Gleichung zu lösen bedeutet,

schrittweise die Unbestimmtheit der Lösungen, die gemessen wird durch die Komplexität der Galoisgruppe, zu reduzieren.

Die Methode der Galoistheorie lässt sich von Polynomgleichungen auf Differentialgleichungen übertragen. Hier benutzt man sie, um Familien von Differentialgleichungen mit gewissen spezifizierten Singularitäten (Punkten, an denen die Lösungen nicht definiert sind) und vorgegebenem Verhalten in der Nähe solcher Singularitäten durch Darstellungen einer Gruppe, der differentiellen Galoisgruppe, zu beschreiben. Diese allgemeine Methode wird Riemann-Hilbert-Korrespondenz genannt.

Galois und die Renormalisierung

Es ist diese Form der Galoistheorie und der Riemann-Hilbert-Korrespondenz, die nun entscheidend Einfluss nimmt auf die störungstheoretische Renormalisierungtheorie. Als erstes Resultat beschreiben Connes und Marcolli die Daten der störungstheoretischen Renormalisierungtheorie, die in Termini von Schleifen und Birkhoffzerlegung gegeben sind, als Lösungen einer gewissen Klasse von Differentialgleichungen mit Singularitäten. Diese Reformulierung mittels Differentialgleichungssystemen erlaubt es dann, die entsprechende Galoisgruppe von Symmetrien zu bestimmen. Diese ist eine Gruppe U*, die auf universelle Weise auf den Kopplungskonstanten aller physikalischen Theorien operiert. Tatsächlich lässt sich sogar U* in die Connes-Kreimer-Gruppe der Diffeographismen jeder renormalisierbaren Theorie abbilden, die ihrerseits wieder auf den Kopplungskonstanten operiert. Die universelle Gruppe U* enthält auf natürliche Weise die Renormalisierungsgruppe als Untergruppe, für die man so eine Interpretation als Gruppe von Galoissymmetrien erhält. Die Erzeuger von U* verfeinern die Wirkung der Renormalisierungsgruppe, indem sie diese auf verschiedene Komplexitätsgrade für die Feynman-Graphen beschränken, was bedeutet, dass man verschiedene Ordnungen (Potenzen der Planckschen Konstanten) der Störungsreihe betrachtet.Vor einigen Jahren hat Pierre Cartier die Existenz einer universellen Symmetriegruppe postuliert, die auf den physikalischen Konstanten operieren soll. Er nannte sie „eine Art von kosmischer Galoisgruppe“. Er schlug vor, dass eine solche Gruppe einen Bezug zu den Symmetrien von multiplen Zetawerten haben sollte. Diese Zahlen, die am MPIM intensiv studiert worden sind, sind eine natürliche Verallgemeinerung der speziellen Werte der Riemannschen Zetafunktion. Sie bilden eine wichtige Klasse von transzendenten Zahlen, die in Bezug zu feinen Invarianten (Perioden) von algebraischen Varietäten (Räume, die durch algebraische Gleichungen definiert sind) stehen. Tatsächlich hat die Gruppe U*, die man aus der störungstheoretischen Renormalisierung erhält, genau die Art von Eigenschaften, die sich Cartier für die kosmische Galoisgruppe vorgestellt hat. Hier tritt nun eine überraschende Verbindung auf zwischen den verborgenen Symmetrien, die die Struktur der Divergenzen einer renormalisierbaren Quantenfeldtheorie bestimmen, und einem der am schwersten greifbaren Objekte der reinen Mathematik, nämlich der Theorie der „Motive“. Die Idee der „Motive“ stammt von Alexandre Grothendieck aus den sechziger Jahren, und die multiplen Zetawerte sind eine ihrer Erscheinungsformen. Sie werden charakterisiert durch die Eigenschaft, die feinst mögliche Quelle von kohomologischen Invarianten algebraischer

Varietäten zu sein. Und in der Tat haben Deligne und Goncharov gezeigt, dass U* sich interpretieren lässt als die Galoisgruppe der Kategorie der gemischten Tate-Motive. Dies eröffnet viele neue Fragen über die genaue Beziehung zwischen Quantenfeldtheorie und diesen mathematischen Objekten, was sich als sehr fruchtbar für das konzeptionelle Verständnis beider Seiten erweisen mag. Diese Ergebnisse zeigen auch, dass die Divergenzen der Quantenfeldtheorie

keine lästigen Begleiterscheinungen sind, sondern vielmehr einen Reichtum an verborgenen Symmetrien offenbaren, der die Quantenfeldtheorie mit einigen der interessantesten Kapitel der reinen Mathematik - Zahlentheorie, Galoissymmetrien und Motive - verbindet (M. Marcolli).

Zur Redakteursansicht