Forschungsbericht 2005 - Max-Planck-Institut für Mathematik in den Naturwissenschaften

Prinzipien der Robustheit

Autoren
Ay, Nihat
Abteilungen

Informationstheorie Kognitiver Systeme (Dr. Nihat Ay)
MPI für Mathematik in den Naturwissenschaften, Leipzig

Zusammenfassung
Am MPI für Mathematik in den Naturwissenschaften werden allgemeine Prinzipien, die der Robustheit von evolvierten Systemen zugrunde liegen, untersucht und formalisiert. Zielsetzung ist die Formulierung einer mathematischen Theorie der Robustheit, die bei der Entwicklung künstlicher adaptiver Systeme genutzt werden soll.

Die herkömmlichen Konstruktionsprinzipien für ein technisches System sind in der Regel durch die Annahme geprägt, dass jedes seiner Teile reibungslos funktioniert. Und wenn dem mal nicht so ist, dann muss das entsprechende Teil ausgetauscht bzw. repariert werden. Daher ist ein solches System, so durchdacht es auch sein mag, höchstens so robust wie das schwächste seiner Teile. Evolvierte Systeme wie z.B. biologische Organismen bestechen durch ihre hohe Robustheit und zeigen uns damit, dass man es besser machen kann. Variationen der Umwelt und Ausfälle von Teilen werden durch Adaptationsmechanismen kompensiert. Vieles spricht dafür, dass die generellen Prinzipien, auf denen diese Mechanismen beruhen, universeller Natur sind und somit auch für künstliche Systeme genutzt werden können.

Ein solches Prinzip, das in künstlichen Systemen auch schon in seiner einfachsten Form umgesetzt wird, ist das Duplizieren von Teilen, frei nach dem Motto „doppelt hält besser“. Man denke z.B. an das Ersatzrad, das man für den Notfall (Ausfall eines Rades) ständig im Auto mitführt. Auf den ersten Blick könnte man erwarten, dass ein System immer robuster wird, je öfter man wesentliche seiner Teile dupliziert. Bei genauerem Hinschauen ist jedoch offensichtlich, dass dies keine optimale Strategie zur Erhöhung der Robustheit des Systems sein kann, da die Duplikate die meiste Zeit nicht genutzt werden. Dennoch ist die Frage nach der Rolle einer dadurch generierten Redundanz sicherlich zentral für das Verständnis von Prinzipien der Robustheit. Ein extremes Beispiel für ein redundantes System ist gegeben, wenn alle Teile des Systems dasselbe machen, wenn z.B. alle Kinder einer Grundschulklasse dasselbe Gedicht gleichzeitig aufsagen. So banal dieses Beispiel auch sein mag, Synchronisation bzw. partielle Synchronisation ist ein Phänomen, das in vielen biologischen Systemen beobachtet wird und dem in den Kognitionswissenschaften eine wichtige Bedeutung bei der Integration von Information zugeschrieben wird. Zum Beispiel haben Hirnforscher Synchronisation als Lösungsansatz für das so genannte Bindungsproblem vorgeschlagen, bei dem die Frage nach Mechanismen der internen Bindung verteilter Wahrnehmungen zu einer Einheit gestellt wird. Um ein besseres mathematisches Verständnis für das Phänomen der Synchronisation zu entwickeln, arbeiten Wissenschaftler in der von Jürgen Jost geleiteten Abteilung des MPI für Mathematik in den Naturwissenschaften (MPI MIS) an algebraischen Charakterisierungen von Netzwerkstrukturen, die Synchronisation zulassen. Hierbei stellt sich heraus, dass Zeitverzögerung in der Informationsausbreitung, von der in realen Systemen ausgegangen werden muss, ein breites Repertoire an Synchronisationsmechanismen bereitstellt. Das widerspricht zunächst einmal der nahe liegenden Intuition, dass Verzögerung und Synchronizität sich gegenseitig ausschließen sollten. Die Wissenschaftler erhoffen sich, diese Einsicht zur Charakterisierung von Netzwerken zu nutzen, die partielle Synchronisation und somit robuste Dynamiken zulassen.

Die innere Redundanz eines Systems leistet einen wichtigen Beitrag zu seiner Robustheit, indem sie eine Invarianz gegenüber Ausfällen von Subsystemen ermöglicht. Jedoch ist dieser Mechanismus – wie schon oben erwähnt – nicht optimal, da die einzelnen redundanten Teile des Systems bei der Ausführung der jeweiligen systemspezifischen Funktion in gleicher Weise genutzt, aber nur sequentiell eingesetzt werden können. In einem gemeinsamen Projekt mit dem am Santa Fe Institut arbeitenden Biologen David Krakauer entwickeln wir eine geometrische Theorie, die es erlauben soll, Robustheit von Netzwerken interagierender Elemente zu quantifizieren und damit Systeme zu vergleichen. Die Invarianz der systemspezifischen Funktion bei Ausfall eines Teils wird hierbei nicht als absolute Eigenschaft betrachtet, sondern in Relation gesetzt mit dem Beitrag des Teils zu der Gesamtfunktion. Ausgehend von der vorläufigen Formulierung unserer Theorie der Robustheit konnten wir quantitativ nachweisen, dass die simple Duplikation von Teilen eines Systems zwar Redundanzen im System generiert, diese jedoch nur bei einer ausgezeichneten optimalen Anzahl von Duplikaten zur Erhöhung der Robustheit beiträgt (vergleiche Abb. 1).

Vereinfacht gesprochen müssen sich mehrere Personen, die mit dem Verrichten derselben Aufgabe beauftragt sind, abwechseln, sodass jede einzelne Person die meiste Zeit untätig ist und somit seine Arbeitskraft nicht genutzt wird. Eine bessere Strategie wäre in diesem Beispiel das optimale Einbinden der einzelnen Personen in die Bewältigung entsprechend spezifischer Teilaufgaben. Natürlich darf diese Spezifizierung nicht den Punkt erreichen, an dem das Fehlen einer oder mehrerer Personen nicht mehr durch die Kompetenz der anderen kompensiert werden kann. Um effektivere Mechanismen der Robustheit für die Entwicklung artifizieller Systeme nutzen zu können, ist ein besseres Verständnis der Prinzipien dieser Art funktioneller Differenzierung notwendig. Das Zusammenspiel funktioneller Redundanz und funktioneller Differenzierung, das sich in modularer Strukturierung des Systems manifestiert, ist nicht nur im Kontext von Robustheit diskutiert worden. Die Kognitionswissenschaftler Giulio Tononi, Olaf Sporns und Gerald M. Edelman haben 1994 ein Komplexitätsmaß (TSE-Komplexität) vorgeschlagen, mit dem Integration und Segregation von Information im Gehirn quantifiziert werden soll. Obwohl diese Größe – im Gegensatz zu unserem Robustheitsmaß – die zeitlichen Aspekte der Systemdynamik nicht erfasst und ausschließlich räumliche Korrelationen berücksichtigt, bestehen sowohl konzeptionelle als auch formale Bezüge zu unserer Theorie. Es ist uns gelungen nachzuweisen, dass die (zeitliche) Robustheit in einem System nicht größer sein kann als die rein räumliche TSE-Komplexität. In diesem Sinne ist jedes robuste System auch komplex, generiert also räumliche Muster, die hohe Korrelationen aufweisen.

Das Verständnis von Prozessen funktioneller Differenzierung ist auch zentral im größeren Kontext einer auf dem Konstruktivismus basierenden Systemtheorie, die von Wissenschaftlern des MPI MIS entwickelt wird. In dieser Gruppe werden Resultate des MPI MIS zu Synchronisationsphänomenen und der in Zusammenarbeit mit dem Santa Fe Institut entwickelte Formalismus zur Quantifizierung von Robustheit vereinheitlichend diskutiert. Wir erhoffen uns, durch diese Integration von Wissen Adaptationsprozesse besser zu verstehen, um diese bei der Entwicklung artifizieller Systeme für die Generierung von Robustheit nutzen zu können.

Zur Redakteursansicht