Forschungsbericht 2005 - Max-Planck-Institut für Physik

Computermethoden in der Hochenergiephysik

Autoren
Hahn, Thomas
Abteilungen

Phänomenologie der Hochenergiephysik (Prof. Hollik) (Prof. Dr. Wolfgang Hollik)
MPI für Physik, München

Zusammenfassung
Papier und Bleistift sind für die Vorhersage von Messungen an einem Hochenergiebeschleuniger, wie dem derzeit am CERN in Bau befindlichen Large Hadron Collider, schon lange nicht mehr ausreichend. Solche Vorhersagen sind für die Überprüfung der gegenwärtigen Theorie der Elementarteilchen, d.h. der fundamentalen Naturgesetze unabdingbar, ihre Berechnung ohne automatisierte Schritte jedoch sehr aufwendig und fehleranfällig. Im vorliegenden Artikel werden die benötigten Rechenmethoden vorgestellt und anhand der am MPI entwickelten Pakete FeynArts, FormCalc und LoopTools deren Implementierung in einem Computerprogramm dargestellt. Durch diese Automatisierung können binnen Minuten Ergebnisse ausgerechnet werden, für die früher Mannjahre nötig waren.

Einführung

In der Teilchenphysik werden quantenfeldtheoretische Modelle benutzt, um die Elementarteilchen und ihre Wechselwirkungen zu beschreiben. In Streuexperimenten wird hingegen z.B. der Wirkungsquerschnitt gemessen, das ist vereinfacht ausgedrückt die (geeignet normierte) Wahrscheinlichkeit, bestimmte Teilchen im Detektor zu sehen. Um nun die theoretische Vorhersage mit dem Experiment vergleichen und damit die Theorie testen zu können, steht man vor dem Problem, aus dem theoretischen Modell zunächst den Streuoperator und dann daraus den Wirkungsquerschnitt zu berechnen. Dies wird in der Regel störungstheoretisch mithilfe von Feynman-Diagrammen gemacht, d.h. man betrachtet die Wechselwirkung der Teilchen als eine kleine Störung ihrer andernfalls freien Ausbreitung und entwickelt den Streuoperator mathematisch in eine Potenzreihe in der Kopplungsstärke. Das „Gegenteil“ von freier Ausbreitung wäre die Bildung eines gebundenen Zustands, und davon sind diese Systeme bei hochenergetischen Stößen weit entfernt, oder vielmehr: Wenn sich ein (selbst kurzlebiger) gebundener Zustand bildet, wie z.B. Charmonium, ein gebundener Zustand aus Charm- und Anticharm-Quark, ist die störungstheoretische Betrachtungsweise generell inadäquat.

Beispiel: Das Feynman-Diagramm in Abbildung 1 trägt zum Wirkungsquerschnitt des Prozesses e+e- → t anti-t (Top-Antitop-Quark-Paarproduktion an einem Elektron-Positron-Beschleuniger) bei.

Man liest von links nach rechts: Ein Elektron und ein Positron vernichten in ein Photon, das anschließend in das Top-Antitop-Quark-Paar zerfällt. Das Diagramm vermittelt aber nicht nur ein intuitives Bild von dem Streuprozess, es lässt sich auch nach den sog. Feynman-Regeln, die durch das Modell festgelegt sind, eindeutig in Formeln, die sog. Feynman-Amplituden, übersetzen. Insbesondere symbolisiert jeder der Punkte eine Kopplung der Stärke √α zwischen den Fermionen und dem zwischen ihnen ausgetauschten Photon (γ), wobei α = 1/137.035... die Feinstrukturkonstante ist. Obiges Diagramm ist somit insgesamt von der Ordnung α. In der nächsten Ordnung gibt es schon wesentlich mehr Diagramme (314, um genau zu sein), von denen in Abbildung 2 nur drei Repräsentanten gezeigt sind.

Hier hat jedes Diagramm vier Punkte, ist also von Ordnung α2. Gleichzeitig erkennt man auch, dass jetzt jedes Diagramm eine geschlossene „Schleife“ besitzt. Das ist kein Zufall, denn die Störungsreihe ist zugleich auch eine Entwicklung in der Anzahl der Schleifen. Man spricht von „Baumdiagrammen“ (keine Schleife), „Ein-Schleifen-Diagrammen“, „Zwei-Schleifen-Diagrammen“ usw. Physikalisch lassen sich die Schleifen als Quantenfluktuationen interpretieren. Im linken Diagramm z.B. spaltet das intermediäre Photon in ein virtuelles Fermion-Antifermion-Paar (f anti-f) auf und fällt anschließend wieder in ein Photon zurück. Mathematisch entspricht jeder Schleife ein vierdimensionales Integral über den Impuls.

Je mehr Schleifenordnungen man auswertet, desto höher ist die Ordnung in alpha und desto genauer das Ergebnis. Dies „bezahlt“ man jedoch mit der Schwierigkeit sowie der Anzahl der zu berechnenden Diagramme, die mit der Anzahl der Schleifen rasch anwächst.

Feynman-diagrammatische Rechnungen

Aus der mathematischen Perspektive sind nur die Integrale, die den Schleifen in den Feynman-Diagrammen entsprechen, „schwierig“. Bereits auf dem Zwei-Schleifen-Niveau ist es nicht mehr allgemein möglich, die Integrale analytisch auszurechnen, d.h. sie durch elementare Funktionen auszudrücken.

Die Ein-Schleifen-Integrale sind jedoch bekannt, sie lassen sich durch Logarithmen und Dilogarithmen ausdrücken. Es ist daher möglich, eine Rechenvorschrift für ein beliebiges Diagramm mit bis zu einer Schleife anzugeben, d.h. die Berechnung ist streng algorithmisch und lässt sich im Prinzip vollständig automatisieren. Dies ist zu keinem geringen Teil das Verdienst der Herren 't Hooft und Veltman, die u.a. dafür 1999 den Nobelpreis erhielten.

Abgesehen von den Integralen lässt sich die verbleibende Rechnung mit algebraischen Methoden bestreiten. Was das Leben dennoch schwer macht, ist besonders die extrem schnell anwachsende Anzahl der Feynman-Diagramme, wenn man Prozesse mit mehr äußeren Linien oder mehr Schleifen, oder Modelle mit mehr Teilchen und Kopplungen betrachtet. Um eine Vorstellung davon zu geben, ist in der folgenden Tabelle die Anzahl der Ein-Schleifen-Topologien für einen 2 → 2-, 2 → 3- und 2 → 4-Prozess (die Notation „m → n“ bezeichnet die Zahl der ein- und auslaufenden Teilchen) aufgelistet, das ist die Anzahl der Möglichkeiten, die vorgegebenen äußeren Linien miteinander zu verbinden, sodass die resultierenden Diagramme genau eine Schleife besitzen:





















Prozess Anzahl Schleifen Anzahl der Topologien
2 → 2 1 99
2 → 3 1 947
2 → 4 1 11460

Noch dramatischer wächst die Zahl der Topologien mit der Anzahl der Schleifen:



























Prozess Anzahl Schleifen Anzahl der Topologien
2 → 2 0 4
2 → 2 1 99
2 → 2 2 2214
2 → 2 3 50051

Es ist also u.a. die Kombinatorik, die auch auf moderner Hardware die Machbarkeit auf relativ kleine Werte des Produkts (Anzahl der Schleifen) x (Anzahl der äußeren Linien) einschränkt. Daneben treten in Prozessen mit Mehr-Teilchen-Endzuständen, 2 → 3, 2 → 4, ..., z.T. erhebliche Probleme mit der numerischen Stabilität der Rechnung auf. Die folgenden Daten mögen genügen, die derzeitigen Grenzen der Berechenbarkeit abzustecken (Anfang 2006):
• Selbstenergien (1 → 1) mit wenigen Massenskalen bis zu vier Schleifen, mit beliebigen Massen bis zu zwei Schleifen.
• Zerfälle (1 → 2) unter Berücksichtigung aller Massen bis zu zwei Schleifen.
• Streuprozesse mit bis zu zwei auslaufenden Teilchen (2 → 2) im masselosen Grenzfall bis zu zwei Schleifen.
• Streuprozesse mit bis zu vier auslaufenden Teilchen (2 → 4) bis zu einer Schleife.
• Streuprozesse mit bis zu sechs auslaufenden Teilchen (2 → 6) auf Baum-Niveau.

Divergenzen und Renormierung

Bei der Auswertung der Feynman-Diagramme stellt sich heraus, dass manche von ihnen divergieren. Diese Divergenzen stammen aus den Schleifen-Integralen. Dabei divergiert nicht die Stammfunktion an sich, sondern erst beim Einsetzen der oberen bzw. unteren Grenze. Integrale, die aufgrund ihrer oberen Grenze divergieren, nennt man ultraviolett(UV)-divergent, solche, die aufgrund ihrer unteren Grenze divergieren, infrarot(IR)-divergent.

Beide Typen von Divergenzen müssen zunächst regularisiert, d.h. in eine mathematisch wohldefinierte Form gebracht werden. Dazu wird die Divergenz durch einen Abschneideparameter ausgedrückt, z.B. 1/ε, sodass der ursprüngliche Ausdruck zwar nicht mehr divergent, dafür aber vom gewählten Regularisierungsparameter abhängig ist und in einem Grenzfall des Parameters, hier etwa ε → 0, mit dem ursprünglichen Ausdruck übereinstimmt.

Zur Behandlung der UV-divergenten Diagramme muss man bedenken, dass die im Modell vorkommenden Parameter keine unmittelbare physikalische Bedeutung besitzen. Messbare Größen kommen erst durch genau die Berechnungen zustande, die die Divergenzen enthalten. Für ein Modell mit n Parametern muss man zuerst n Größen durch Messungen festlegen, bevor man echte Vorhersagen machen kann. In jeder weiteren Rechnung drückt man dann die Modellparameter durch die so festgelegten Messwerte aus. Besitzt das Modell eine Eigenschaft, die man als Renormierbarkeit bezeichnet, so fällt im Ergebnis die Abhängigkeit vom Regularisierungsparameter heraus. Die Divergenzen wurden dann erfolgreich in eine endliche Anzahl von Relationen zwischen Modellparametern und Messwerten absorbiert. Renormierbarkeit ist also entscheidend für die Vorhersagekraft eines Modells und ist keineswegs in allen Modellen gewährleistet!

Die IR-Divergenzen haben ihre Ursache dagegen in der Masselosigkeit des Photons, oder gleichbedeutend, in der Langreichweitigkeit der elektromagnetischen Wechselwirkung. Im Gegensatz zu einem massiven Teilchen, das ja mindestens die seiner Ruhemasse entsprechende Energie besitzen muss, kann ein Photon eine beliebig geringe Energie tragen. Experimentell kann der Streuprozess A → B daher gar nicht von A → B + γ unterschieden werden, wenn das zusätzliche Photon nicht mindestens eine bestimmte Energie aufweist (die Details sind detektorabhängig). Nimmt man diese beiden Prozesse auch in der theoretischen Rechnung zusammen, so subtrahieren sich die divergenten Terme genau voneinander.

Phasenraum

Die Berechnung der Feynman-Diagramme liefert zunächst nur den differentiellen Wirkungsquerschnitt: die (geeignet normierte) Wahrscheinlichkeit, den gewählten Endzustand in einem ganz bestimmten, infinitesimal kleinen Bereich des Detektors zu beobachten. Experimentell sinnvolle Größen erhält man erst durch Integration über das relevante Detektorvolumen.

Der Theoretiker benutzt statt des konkreten Detektors, in dessen Beschreibung allerlei Hardwaredetails eingehen, das allgemeinere Konzept des Phasenraums. Dieser Raum wird von den auslaufenden Teilchen aufgespannt. Da deren Bewegungsrichtungen unabhängig voneinander sind und jede Bewegungsrichtung durch drei Koordinaten festgelegt wird, hat der Phasenraum die Dimension 3n - 4, wobei die 4 aufgrund der Gesamtenergie- und -impulserhaltung abgezogen werden muss. Eine der Integrationen ist trivial, weil der Streuprozess unter Rotationen um die Strahlachse symmetrisch ist, somit verbleibt für zwei Teilchen im Endzustand eine eindimensionale und damit relativ einfache Integration, für drei Teilchen eine vierdimensionale, für vier Teilchen eine siebendimensionale Integration, usw.

Hinzu kommt, dass der Integrand keineswegs eine glatte, numerisch einfach zu integrierende Funktion ist. Vielmehr tritt für jedes propagierende Teilchen ein Faktor der Form 1/(p2 - m2) auf, wobei p der Impuls und m die Masse des ausgetauschten Teilchens ist. Für p2 in der Nähe von m2 verstärkt dieser Faktor den Integranden erheblich, der dadurch eine ausgeprägte „Berg- und Talstruktur“ bekommt.

Insbesondere für höherdimensionale Integrale (4-, 7-dim., siehe oben), ist diese Struktur für einen generischen Integrationsalgorithmus wie z.B. Vegas oder Cuhre enorm schwierig zu erkennen. Für einen 2 → 4-Streuprozess erreicht man auf diese Weise in endlicher Rechenzeit in der Regel keine akzeptable Genauigkeit mehr. In so einem Fall muss man einen sog. dedizierten Monte-Carlo-Integrator schreiben, das ist eine Integrationsroutine, die die Nennerstruktur des Integranden genau kennt und durch die Wahl einer entsprechenden Gewichtsfunktion kompensiert, sodass der verbleibende geglättete Integrand leicht durch Monte-Carlo-Techniken integriert werden kann.

Für die experimentellen Analysen sind theoretische Vorhersagen nicht nur für den ganzen Detektor, sondern auch für bestimmte Teilbereiche wichtig. Solche Einschränkungen an das betrachtete Detektorvolumen nennt man Schnitte. Sie bedeuten, dass der Wirkungsquerschnitt nur über einen Teil des Phasenraums integriert werden muss.

In der Regel sind die Ereignisse, bei denen Teilchen unter einem großen Winkel gestreut werden, d.h. fast senkrecht zur Strahlachse, besonders interessant. Streuprozesse nämlich, bei denen von einem Teilchen ein anderes abstrahlt wird, bevorzugen kleine Streuwinkel und bilden dort einen Untergrund, der um vieles größer ist als der interessierende „harte“ Streuprozess. Um diesen Untergrund zu reduzieren, kann man z.B. nur die Ereignisse betrachten, die mindestens einen bestimmten Streuwinkel haben. Solche und ähnliche Überlegungen dienen dazu, die sprichwörtliche Nadel im Heuhaufen zu finden.

Nicht-elementare äußere Teilchen

In den bisherigen Beispielen wurde stillschweigend von elementaren äußeren Teilchen ausgegangen, z.B. vom Elektron, das nach unserem heutigen Wissensstand keine Substruktur aufweist. Es gibt jedoch Fälle, in denen man am Beschleuniger nicht-elementare Teilchen zur Kollision bringt, wie etwa Protonen am Large Hadron Collider (LHC) am CERN. Man erreicht damit nämlich höhere Schwerpunktsenergien.

Das Proton hat als Hauptkonstituenten drei sog. Valenzquarks, die von untereinander ausgetauschten Gluonen zusammengehalten werden. Solche Gluonen können bei entsprechend hohen Energien in Quark-Antiquark-Paare aufspalten, was wiederum bedeutet, dass man auch andere, sog. Seequarks, im Proton findet. Die Bestandteile des Protons heißen Partonen. Bei hohen Energien, wie sie z.B. am LHC erzeugt werden, sind übrigens die Gluonen die häufigsten Partonen.

Diese vielfältigen Möglichkeiten werden durch Verteilungsfunktionen für das jeweilige Parton beschrieben: Man fragt also nach der Wahrscheinlichkeit, bei einer bestimmten Energie das gesuchte Parton im Proton zu finden. Das Gesamtergebnis ergibt sich dann als die Summe über alle Möglichkeiten, gewichtet mit der Wahrscheinlichkeit jeder Möglichkeit. Mathematisch bedeutet dies, dass der Wirkungsquerschnitt mit der Partonverteilungsfunktion gefaltet werden muss.

Die Partonverteilungsfunktionen kann man nicht ab initio ausrechnen: Man gewinnt sie aus Messungen, die früher am SLAC (Supercoinducting Linear Accelerator) in Stanford/Kalifornien, in den letzten Jahren vor allem aber bei HERA-Speicherring am DESY (Deutsches Elektronen Synchroton) in Hamburg gemacht wurden, und die mithilfe theoretischer Ergebnisse zu den benötigten Energien extrapoliert werden. Die Messwerte stellen also die Anfangswerte zu einer theoretisch wohlverstandenen Integro-Differentialgleichung dar, deren Koeffizienten übrigens selbst wieder mithilfe von Feynman-Diagrammen bestimmt wurden.

Auch im Fall elementarer Teilchen ergibt sich eine ähnliche Komplikation, wenn diese keine feste Energie, sondern ein Energiespektrum aufweisen. Beispielsweise wird für einen zukünftigen Linearbeschleuniger die Option eines Photon-Photon-Modus ins Auge gefasst. Hier wird zunächst der Elektron- bzw Positronstrahl mit einem intensiven Laser zur Kollision gebracht und die Reaktionen der rückgestreuten Laserphotonen miteinander beobachtet. Diese Photonen sind nun nicht mehr monochromatisch wie die Elektronen bzw. Positronen, sondern besitzen ein Spektrum, das durch eine Spektralfunktion modelliert werden kann. Diese wird mathematisch genau wie die Partonverteilungsfunktionen behandelt, d.h. man muss den Wirkungsquerschnitt mit dieser Funktion falten.

Schritte zur Berechnung eines Feynman-Diagramms

Um den Algorithmus zu verstehen, den der Computer benutzt, werden im folgenden die Schritte zur Erzeugung und Berechnung der Feynman-Diagramme aufgelistet, wie man sie „von Hand“ anwenden würde.

1. Stelle eine Liste aller Diagramme auf, die zu dem betrachteten Streuprozess beitragen:
a) Zeichne alle Möglichkeiten, die einlaufenden mit den auslaufenden Linien so zu verbinden, dass die gewünschte Anzahl von Schleifen entsteht.
b) Bestimme anhand des Modells, welche Teilchen auf jeder Linie „laufen“ können, wobei die äußeren Linien mit den Teilchen im Anfangs- und Endzustand des betrachteten Streuprozesses identifiziert werden.
2. Übersetze die erhaltenen Diagramme mittels der Feynman-Regeln, die aus dem Modell folgen, in Formeln.
3. Vereinfache die Formeln analytisch. Dies geschieht vor allem in Hinblick auf die folgende numerische Auswertung. So müssen z.B. offene Indizes kontrahiert werden, tensorielle Objekte zerlegt werden usw.
4. Schreibe ein Programm, das die Formeln numerisch auswertet, über den Phasenraum unter Berücksichtigung der Schnitte integriert und ggf. mit den Partonverteilungsfunktionen faltet.

Offensichtlich sind hierbei Probleme sehr verschiedener Natur zu lösen, z.B. ist die Diagrammerzeugung eine topologisch-kombinatorische Aufgabe oder die Anwendung der Feynman-Regeln ein Datenbankzugriff. Hinzu kommt, dass die Amplitude algebraische Objekte enthält, die für die direkte numerische Auswertung ungeeignet sind, wie Tensoren oder Generatoren von Symmetriegruppen, man aber andererseits eine schnelle numerische Auswertung des Endergebnisses braucht, z.B. für Monte-Carlo-Generatoren, wo u.U. mehrere Millionen Wirkungsquerschnitte ausgerechnet werden müssen. Ein wichtiges Hilfsmittel bei der Umsetzung obigen Schemas ist daher die Computeralgebra, mit der die strukturellen und algebraischen Operationen bewältigt werden, in Kombination mit schneller und präziser numerischer Auswertung („Number Crunching“) in einer Hochsprache.

FeynArts, FormCalc und LoopTools

Als Beispiel für die Implementierung des oben skizzierten Algorithmus werden in diesem Abschnitt drei Softwarepakete beschrieben, die in der Theorie-Abteilung des MPI für Physik entwickelt werden.

FeynArts, FormCalc und LoopTools sind drei Programme, mit denen sich Feynman-Diagramme erzeugen, analytisch vereinfachen und numerisch auswerten lassen. Mithilfe dieser Programme ist es möglich, Streuprozesse mit bis zu einer Schleife sehr weitgehend zu automatisieren und damit eine Arbeit, die noch vor kurzem in Mannjahren bemessen wurde, in Minuten zu erledigen.

Die modulare Unterteilung in drei verschiedene Programmpakete ist nicht nur von der Art der Aufgaben her sinnvoll, vielmehr werden von vielen Benutzern nur Teile des Programms benutzt, so wird FeynArts etwa auch für die Erzeugung von Zwei-Schleifen-Diagrammen eingesetzt, selbst wenn diese derzeit nicht von FormCalc vereinfacht werden können.

FeynArts und FormCalc sind Mathematica-Programme und auch LoopTools besitzt ein Mathematica-Interface. Dieser Umstand ist sehr hilfreich, da er dem Benutzer erlaubt, die erhaltenen Ausdrücke an praktisch jeder beliebigen Stelle mithilfe des Mathematica-Befehlssatzes zu modifizieren.

FeynArts

FeynArts erzeugt Feynman-Diagramme und -Amplituden mit derzeit bis zu drei Schleifen. Die Information über das betrachtete Modell wird aus einer speziellen Datei, dem „Model-File“, gelesen.
Die Erzeugung der Feynman-Amplituden verläuft parallel zu den in vorangegangenen Abschnitt skizzierten Schritten:

top = CreateTopologies[0, 2 → 2]
ins = InsertFields[top, {-F[2,{1}], F[2,{1}]} → {-F[3,{3}], F[3,{3}]}]
amp = CreateFeynAmp[ins]

Zuerst werden mit der FeynArts-Funktiom Create-Topologies die Topologienmit der gewünschten Anzahl äußerer Beine und Schleifen erzeugt, z.B. die Baum-Topologien (null Schleifen) für einen 2 → 2-Prozess. In diese Topologien werden mit der Funktion InsertFields nun Felder eingesetzt, d.h.es werden zu einem vorgegebenen Streuprozess alle im Modell möglichen Kombinationen gesucht, die Liniender Topologie mit Feldern des Modells zu bestücken. Schließlich werden mit CreateFeynAmp die Amplituden durch Anwenden der Feynman-Regeln erzeugt.
Sowohl die Topologien als auch die Feynman-Diagramme lassen sich mit der Paint-Funktion zeichen (Abb. 3).

FormCalc

FormCalc vereinfacht die von FeynArts ausgegebenen Amplituden analytisch. Das Ergebnis kann entweder direkt als Mathematica-Formel weiterverwendet werden (z.B. für bestimmte Konsistenzchecks) oder als Fortran-Programm zur Berechnung des Wirkungsquerschnitts ausgegeben werden.Die analytische Vereinfachung geschieht in der Funktion CalcFeynAmp, die auf das Ergebnis von CreateFeynAmp angewendet wird:

result = CalcFeynAmp[amp]

Intern delegiert CalcFeynAmp viele Aufgaben an das Computeralgebra-Programm FORM (daher der Name FormCalc), das zwar nur einen begrenzten, speziell auf die Anwendungen in der Teilchenphysik zugeschnittenen Befehlssatz hat, dafür aber sehr schnell ist und auch mit sehr großen Ausdrücken mühelos fertig wird. FORM ist jedoch nicht unbedingt leicht zu programmieren, daher bleibt der Austausch von Programmcode und Daten zwischen Mathematica und FORM dem Benutzer erspart.

Zur weiteren numerischen Auswertung wird das Ergebnis von CalcFeynAmp als Fortran-Programm ausgegeben:

SetupCodeDir["fortrandir"]
WriteSquaredME[result, {}, Abbr[], "fortrandir"]

Mit dem erzeugten Fortran-Code kann man nun leicht zum Beispiel den Wirkungsquerschnitt berechnen (Abb. 4). Der gesamte Ablauf, von CreateTopologies bis zum Zeichnen des Wirkungsquerschnitts, dauert nur wenige Minuten.

LoopTools

Bislang wurde überhaupt noch nicht auf die in Abschnitt zwei erwähnten Ein-Schleifen-Integrale eingegangen. Diese werden von FormCalc durch spezielle Funktionen der mathematischen Physik, die Passarino-Veltman-Funktionen, ausgedrückt, ansonsten aber weitgehend als „Black Boxes“ behandelt. Die numerische Implementierung dieser Funktionen geschieht durch die LoopTools Bibliothek, die alle Ein-Schleifen-Integrale bis zur Fünf-Punkt-Funktion zur Verfügung stellt. LoopTool ist in Fortran geschrieben, stellt dem Benutzer aber neben dem Fortran- auch ein C++- und Mathematica-Interface zur Verfügung.

Für die skalaren Integrale greift LoopTools auf die FF-Bibliothek zurück, in der diese in numerisch stabiler Weise implementiert und für viele Fälle getestet sind. Es sollte hierbei erwähnt werden, dass die numerische Behandlung nicht einfach ist, da in verschiedenen Bereichen des Phasenraums unterschiedliche Parametrisierungen bzw. Näherungen benötigt werden, etwa nahe der Schwelle, oder wenn zwei Impulse fast kollinear sind. Um numerische Stabilität zu erreichen, müssen also viele Spezialfälle berücksichtigt werden. Aus diesen Gründen besitzt LoopTools für die wichtigsten Funktionen auch Alternativversionen, die den Benutzer auf Wunsch über Abweichungen oberhalb einer wählbaren Schranke warnen. Da die Berechnung der Ein-Schleifen-Integrale einen beträchtlichen Teil der CPU-Zeit ausmachen kann, wird intern ein Cache-Mechanismus verwendet, um Mehrfachberechnungen zu vermeiden, wo es insbesondere bei der Berechnung der Tensor-Koeffizientenfunktionen einen beträchtlichen Überlapp von Zwischenergebnissen gibt.

Anwendungen

Rechnungen im Standardmodell
Mit der jüngsten Generation von Beschleunigern, besonders seit LEP, liegen für viele Observable sehr genaue experimentelle Daten vor. Das hat natürlich auch den Bedarf an theoretischer Genauigkeit gesteigert, sodass Ein-Schleifen-Rechnungen im Standardmodell heute in vielen Fällen eine Minimalanforderung darstellen.

Ein-Schleifen-Rechnungen im Standardmodell umfassen typischerweise einige 10 bis 100 Diagramme, was bei Rechnung mit Hand einem Aufwand von einem bis wenigen Mannjahren entspricht, also ein typisches Diplom- oder Doktorarbeitsthema. Es gibt aber auch Beispiele, die ohne den Einsatz von automatisierten Programmen kaum denkbar sind, z.B. die elastische W-W-Streuung, wo auf Ein-Schleifen-Niveau ca. 1000 Feynman-Diagramme beitragen.

Für das Standardmodell existiert eine große Zahl von Originalarbeiten, die ganz oder teilweise mit FeynArts, FormCalc und LoopTools berechnet wurden. Natürlich wäre es vermessen, bei der Komplexität dieser Programme davon auszugehen, dass selbige fehlerfrei sind, daher wurden und werden zur Kontrolle auch viele bekannte Ergebnisse nachgerechnet und die Programme ggf. nachgebessert. Generell ist die Zuverlässigkeit der Ergebnisse aber sehr hoch und es wurden auf diese Weise auch schon des öfteren Fehler in bereits publizierten Rechnungen gefunden.

Rechnungen im Minimalen Supersymmetrischen Standardmodell

Das Minimale Supersymmetrische Standardmodell (MSSM) hat ein mehr als doppelt so großes Teilchenspektrum wie das Standardmodell, da abgesehen von einem größeren Higgs-Sektor die Supersymmetrie zu jedem Teilchen einen sog. Superpartner postuliert.

Als Folge des großen Teilchenspektrums besitzt das MSSM über 400 Kopplungen, was Hand-Rechnungen im allgemeinen Fall, d.h. ohne dass man nur bestimmte Sektoren des MSSM betrachtet (oder andere Näherungen macht), sehr mühsam macht. Daher war die Veröffentlichung des FeynArts-Model-Files für das MSSM 2001 ein wichtiger Schritt. Der aufwendigste Teil dabei war der Test möglichst aller Sektoren des Modells durch Reproduktion diverser Ergebnisse aus der Literatur, um auch im MSSM die gleiche Zuverlässigkeit wie im Standardmodell zu gewährleisten.

Experimentell wurden noch keine Superpartner-Teilchen nachgewiesen. Gerade aus diesem Grund ist aber die Betrachtung der MSSM-Schleifenkorrekturen zu bekannten Prozessen besonders wichtig, da über diese die Effekte der neuen Teilchen in Präsizionsobservable eingehen und so Einschränkungen an die Parameter des MSSM abgeleitet oder sogar indirekte Hinweise auf Superpartner gefunden werden können.

Zur Redakteursansicht