Forschungsbericht 2009 - Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG)

Herausforderungen und Perspektiven für Forschungsrechenzentren

Autoren
Neumair, Bernhard
Abteilungen
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen, Göttingen
Zusammenfassung
In Forschungsinstituten und Hochschulen sieht man heute viele Entwicklungen mit Bedeutung für die IT. Auch die technologische Innovation geht unvermindert weiter. In Forschungsrechenzentren fragt man sich deshalb, wo mittelfristig die technologischen Herausforderungen liegen und welche Perspektiven sich daraus ergeben. Der Beitrag analysiert die Entwicklungen und leitet ab, wie sich die Anforderungen entwickeln und wo besondere Anstrengungen nötig sind. Der Schwerpunkt liegt auf Entwicklungen, die in Instituten und Forschungsrechenzentren verglichen mit Wirtschaftsunternehmen besonders wichtig sind.

1. Einleitung

Fragt man sich, wo mittelfristig die Herausforderungen und Perspektiven für Forschungsrechenzentren und IT-Dienstleister für Forschung und Lehre liegen werden, wird man zwei Entwicklungen betrachten: zum einen allgemeine Entwicklungen mit Bezug zu Informations- und Kommunikationstechnologien (ICT) in Hochschulen und Forschungsinstituten und zum anderen technologische Entwicklungen, die Einfluss auf Forschung und Lehre haben. Diese beiden Richtungen sind selbstverständlich nicht unabhängig voneinander: es gilt wie in vielen anderen Bereichen das Schlagwort „Business drives Technology“, andererseits gilt immer auch die Gegenrichtung „Technology drives Business“. Auch wenn sich die beiden Entwicklungsrichtungen gegenseitig beeinflussen, sind sie trotzdem als die beiden Ausgangspunkte für eine Analyse geeignet, welchen technischen Herausforderungen sich Forschungsrechenzentren kurz- und mittelfristig zu stellen haben werden und welche Perspektiven sich daraus ergeben.

Wir werden uns auf ICT-Entwicklungen beschränken, die für Forschung und Lehre wegen der Spezifika von Hochschul- und Forschungsumfeldern besonders relevant sind. Neben diesen Entwicklungen, die eine besondere Bedeutung für Hochschulen haben, sind letztere natürlich auch „im normalen Umfang“ von allen anderen ICT-Entwicklungen betroffen, die hier aus Platzgründen aber nicht behandelt werden können.

2. Allgemeine Entwicklungen mit ICT-Bezug in Hochschulen und Forschungsinstituten

Derzeit gibt es viele Entwicklungen in Hochschulen und Forschungseinrichtungen, die einen besonderen Bezug zu Informations- und Kommunikationstechnologien haben wie z. B. der Bologna-Prozess, die immer weiter steigende Bedeutung der Computational Sciences oder die oft genannte Geschäftsprozessintegration. In den folgenden Abschnitten werden diejenigen Entwicklungen genauer ausgeführt und bewertet, bei denen der Bezug besonders groß oder bedeutend ist.

2.1 Geschäftsprozessintegration

Integrierte ERP-Systeme (Enterprise Resource Planning) sind heute aus keinem Wirtschaftsunternehmen mehr wegzudenken. Der Einsatz dieser Systeme in Hochschulen wird im Rahmen der (Neu-)Gestaltung der Prozessabläufe verstärkt werden und vor allem auch alle Bereiche der Hochschulen erfassen. Heute beschränkt sich die Integration in vielen Fällen noch auf Bereiche, in denen Systeme aus der Wirtschaft unmittelbar übernommen werden können (Personalwesen, Finanzbuchhaltung etc.). Im Sinne eines integrierten Campus Managements wird die Integration verstärkt auch Forschung und Lehre erreichen (Prüfungsmanagement, Veranstaltungs- und Raummanagement, personalisierte Studienportale, Self-Service-Funktionen usw.).

Dies bedeutet die Notwendigkeit sowohl einer technischen als auch einer organisatorischen Integration. Vor dem Hintergrund der Geschäftsprozessintegration wurde das Konzept der serviceorientierten Architekturen (SOA – Service Oriented Architectures) und der Web Services entwickelt. Aktuelle Anforderungen aus der Verbesserung und Verschlankung von Geschäftsprozessen wie die Verhinderung oder Entfernung von Medienbrüchen auch bei der Integration externer ICT-Ressourcen steigern die Bedeutung dieses Konzepts.

2.2 Integrierte Service- und Management-Konzepte für Informationsversorgung

An den Hochschulen stellt sich zunehmend die Frage eines integrierten Service- und Management-konzepts zur Informationsversorgung. Es wird immer deutlicher, dass alle Einrichtungen die Aufgaben, die mit der Erschließung, dem Verwalten und dem Anbieten von Information auf der Basis neuer Medien und multimedia-basierter Technologien zusammenhängen, nur dann hervorragend ausfüllen können, wenn diese konsequent in eine Gesamtkonzeption eingebettet sind.

Neben technischen Fragen sind dabei vor allem auch organisatorische Gesichtspunkte zu berücksichtigen [1]. So ist z. B. die Verantwortung für die Aufsicht und Steuerung der technischen und organisatorischen Aspekte aller Aktivitäten im ICT-Bereich mit dem Ziel der Fächer- und institutionen-übergreifenden Zusammenführung zu klären.

Zentraler technischer Bestandteil eines integrierten Service- und Management-Konzepts für Informationsversorgung ist immer ein umfassendes Identitätsmanagement [2]. Die besondere Herausforderung für Forschungsrechenzentren besteht hier in der Vielzahl und Heterogenität der Quellen und Senken von Objekten und Attributen. Hinzu kommt die sehr weitgehend verteilte Verantwortung für die Systeme, die die Information zu Identitäten liefern und verwenden.

Eine weitere technische Herausforderung besteht in der Realisierung und im Betrieb von Systemen für verteilte Autorisierung und Authentifizierung, wie sie heute in den sogenannten AAI (Authentication and Authorisation Infrastructures) verwendet werden. Auch diese Systeme werden durch die erwähnte Vielzahl und Heterogenität von Objekten und Attributen und die verteilten Verantwortlichkeiten sehr komplex. Die Abbildung 1 zeigt die Kommunikationsvorgänge und Aktionen zur Autorisierung und Authentifizierung, die im Rahmen der DFN-AAI ablaufen, wenn WissenschaftlerInnen z. B. auf elektronisch verfügbare Artikel in wissenschaftlichen Fachzeitschriften zugreifen. Berücksichtigt man noch, dass viele dabei ausgetauschte oder verwendete Attribute derzeit noch nicht final standardisiert sind, ist leicht zu sehen, dass z. B. die Diagnose durch das Rechenzentrumspersonal bei möglicherweise auftretenden Störungen nicht trivial sein wird.

Eine weitere wichtige Aufgabe für Forschungsrechenzentren besteht in der Realisierung mandantenfähiger Managementsysteme. Viele Hochschulen haben ein umfangreiches Fächerangebot mit sehr unterschiedlichen Anforderungen an die ICT, wobei traditionell auch die Kooperationsmodelle zwischen den Administratoren in den Instituten und Fakultäten und den Rechenzentren unterschiedlich sind. Die Rechenzentren werden Systeme finden und betreiben müssen, die ein breites Spektrum solcher Modelle unterstützen. Das Aufgabenspektrum des Rechenzentrums verschiebt sich von der reinen Administration hin zu einer „Meta-Administration“ im Sinne der Bereitstellung der mandantenfähigen Managementsysteme und der Organisation des Managementprozesses.

2.3 Transparenz der Prozesse und Sicherheitsmaßnahmen

Die Transparenz der Prozesse und angemessene Sicherheitsmaßnahmen sind Voraussetzungen für kritische (‚mission critical’) Einsatzszenarien. Saubere ICT-Prozesse mit klar definierten Schnittstellen bilden hier die Basis für spezifische Sicherheitsmaßnahmen an den Schnittstellen zwischen den an der Leistungserbringung beteiligten Organisationen und zwischen den Nutzergruppen selbst. Kritische Prozesse und Sicherheitsmaßnahmen stehen im Fokus eines (IT-)Risikomanagements in Hochschulen, besonders dann, wenn Auditierungen und Zertifizierungen (ISO 9001, 20000, 27001 oder ITIL etc.) anstehen.

Eine besondere Herausforderung wird in der Sicherstellung und Verbesserung der Verfügbarkeit von Systemen mit geringem Standardisierungsgrad bestehen. Aufgabe der Rechenzentren wird es sein, laufend richtig abzuwägen zwischen dem Setzen von Standards und einschränkenden Festlegungen zugunsten einer hohen Verfügbarkeit einerseits und einer für die Forschung angemessenen Flexibilität und Offenheit andererseits.

2.4 Rechner als Labore

Computational Sciences haben sich neben Theorie und Experiment in einer wachsenden Anzahl von Disziplinen als dritte Säule der Wissenschaft etabliert [3]. Schlagworte wie „Der Rechner ist das Labor“, „das Netz ist das Labor“ oder „vom Nasslabor zum Trockenlabor“ verdeutlichen diese Entwicklung. Da also Rechnerumgebungen als Basis von Simulationen und Optimierungen immer mehr zu „Laboren“ werden, benötigt man dafür Ressourcen mit höchsten Leistungen, um national und international konkurrenzfähig zu sein:

- Hoch- und Höchstleistungsrechner in verschiedenen Ausprägungen,
- leistungsfähige Speichersysteme mit höchster Kapazität und Performanz,
- multimediale Hochleistungskommunikations-Infrastrukturen mit garantierter Dienstgüte und
- erstklassiger Zugriff auf Daten/Information vom Arbeitsplatz aus, zu jeder Zeit an jedem Ort.

Mit der Bereitstellung dieser Dienste und Ressourcen betreiben die Rechenzentren damit die zentrale Forschungsinfrastruktur für immer mehr Forschungsgruppen.

2.5 Information Lifecycle und Datenhaltungskonzepte

Im Rahmen eines Gesamtkonzepts für die Informationsversorgung wird künftig einer der Schwerpunkte auf integrierten Datenhaltungskonzepten für den gesamten Lebenszyklus der Information liegen, wobei vor allem auch das Ende des Lifecycles im Sinne der digitalen Langzeit-Archivierung (dLZA) zu beachten ist. Systeme und Projekte zur (teil-)automatischen Digitalisierung, aber auch die wachsende Bedeutung von „Born-Digital“-Information wird kurz- und mittelfristig zur Entwicklung und Marktreife von Systemen führen, die neben der reinen „Bitstream Preservation“ die langfristige Auffindbarkeit bzw. Identifikation und Interpretierbarkeit der Information kompatibel zum OAIS Reference Model (siehe Abb. 2) adressieren werden. Hochschulen werden, da ihr „Kerngeschäft“ ja wesentlich in der Erzeugung aufbewahrenswerten Wissens besteht, zu den wichtigsten Anwendern der dLZA-Technologie gehören. Die Besonderheit der Hochschulen besteht in der enormen Zahl an unterschiedlichen Daten-Formaten, die zu archivieren sind, und in der verteilten Verantwortung für diese Formate [4].

 

2.6 Ausbildung und Bologna-Prozess

Die Modularisierung der Studiengänge, der Trend zu berufsorientierten, fächerübergreifenden Studiengängen und Abschlüssen und die Umstellung auf Bachelor- und Master-Abschlüsse im Rahmen des europäischen „Bologna-Prozesses“ [5] führen dazu, dass das Management der Studienordnungen, der Prüfungsordnungen und der wachsenden Zahl an Prüfungsleistungen nur noch mit massiver ICT-Unterstützung effizient möglich ist. Die Personalisierung von eLearning-Systemen, Vorlesungsverzeichnissen und Prüfungsmanagement basiert auf einem durchgängigem Identity Management mit ausgefeilten Rollenkonzepten.

2.7 Open Access

Der Trend zu Open Access zu wissenschaftlichen Ergebnissen, den alle wichtigen Forschungseinrichtungen unterstützen (z. B. [6]), und die weitgehende Beschränkung auf den elektronischen Bezug kommerzieller Journale verlagern Mittel und Anforderungen aus dem „klassischen“ Bibliothekswesen in die ICT-Einrichtungen. Systeme für elektronisches Publizieren, die Open-Access-Initiativen erst möglich gemacht haben, werden mit den Selbstverpflichtungen der Hochschulen zum Open Access einen zusätzlichen Anschub bekommen. Sie werden Aufgabenbereiche und Arbeitsweisen der Hochschulbibliotheken verändern. Dies wird sich z. B. in der Weiterbildung der Bibliothekare in Richtung der Unterstützung von Veröffentlichungstätigkeit niederschlagen, die man häufig mit dem Schlagwort „Librisher“ umschreibt.

2.8 Sourcingmodelle

Die beschriebenen Entwicklungen werden die Bedeutung der ICT steigern, gleichzeitig aber auch den wirtschaftlichen Druck auf die Einrichtungen speziell im ICT-Bereich erhöhen. Die neuen Anforderungen steigern die Komplexität und die Kosten der ICT, andererseits stehen dem nicht im selben Umfang Einsparungen z. B. im personellen Bereich oder Budgetsteigerungen gegenüber. Man wird also die Sourcing-Strategien hinterfragen und teilweise ändern. Über ein Out-Tasking hinaus wird auch über umfangreiches Out-Sourcing von Teilen der ICT-Versorgung nachgedacht werden. Auch PPP-Modelle (Public-Private-Partnerships) werden im „Sourcing-Modell-Katalog“ der Einrichtungen eine wichtigere Rolle einnehmen als früher.

Im Rahmen des sogenannten Cloud Computings (siehe unten) werden mit Modellen wie IaaS (Infrastructure as a Service), PaaS (Platform as a Service) oder SaaS (Software as a Service) Modelle beschrieben, die zu einer neuen Flexibilität von Miet- oder Leasingmodellen für Hardware und Software führen und damit eine weitere Diversifikation in den Sourcing-Modellen mit sich bringen. Regionale Partnerschaften, die an vielen Stellen etabliert sind (in Deutschland z. B. über die regionalen Rechenzentren), werden auf neue Funktionen ausgeweitet werden.

3. Einfluss von Informations- und Kommunikationstechnologien auf Forschung und Lehre

Wie in der Einleitung dargestellt resultieren Herausforderungen für Rechenzentren selbstverständlich nicht nur aus den in den vorigen Abschnitten beschriebenen allgemeinen Entwicklungen in Hochschulen und Forschungsinstituten, sondern auch aus der Weiterentwicklung von Informations- und Kommunikationstechnologien. Es gilt ja nicht nur „Business drives Technology“, sondern auch „Technology drives Business“. In den folgenden Abschnitten werden diejenigen Entwicklungen in den Informations- und Kommunikationstechnologien genauer beschrieben und bewertet, bei denen der Einfluss auf Forschung und Lehre besonders hoch ist.

3.1 Parallelverarbeitung, Höchstleistungsrechner

Auch in den nächsten Jahren wird sich der rasante Fortschritt im Bereich des Hoch- und Höchstleistungsrechnens und der Parallelverarbeitung fortsetzen. Dies wird alle Arten der Parallelverarbeitung betreffen, von klassischen SMP-Systemen über hybride Systeme, Cluster-Systeme bis zu den Compute Grids oder Compute Clouds. Prägend wird der zunehmende Einsatz massiv paralleler Systeme mit 5- und 6-stelligen Prozessor- bzw. Core-Zahlen sein, ausgelöst durch die Verfügbarkeit von Multi-Core-Prozessoren. Dazu werden geeignete Programmiermodelle entwickelt und Anwendungen neu programmiert. Aus dem gleichen Grund werden hybride Systeme bzw. hybrid zu programmierende Systeme besonders wichtig sein (Speicherkopplung einer großen Zahl von Prozessorkernen auf einem Board, Nachrichtenkopplung über Standardnetze zwischen den Boards). Zu beachten ist auch, dass durch die Multicore-Prozessoren die reine Rechenleistung stärker wachsen wird als der verfügbare Hauptspeicher, sich also das Verhältnis Verarbeitungs-/Speicherkapazität und die relative Speicherbandbreite pro Prozessor ändern werden. Spezielle Technologien wie z. B. FPGAs (Field Programmable Gate Array) und GPUs (Graphics Processing Unit) werden für einige Anwendungen an Bedeutung gewinnen.

3.2 Kooperations- und Kommunikationsplattformen, Web 2.0

Kooperations- und Kommunikationsplattformen, die heute unter Web 2.0 im Sinne des „Mitmach-Web“ subsumiert werden, werden klassische Lehr-/Lernplattformen ergänzen oder ersetzen [7]. Ihre Bedeutung als Ergänzung zur Präsenzlehre und für das Knowledge Management wird massiv zunehmen. Wikis, Blogs, P2P-Systeme etc. werden umfangreiche und kurzfristige Veränderungen der Gesellschaft allgemein mit sich bringen bzw. haben dies bereits getan.

Bezogen auf die Rechenzentren wird sich daraus aber keine Revolution, sondern eine natürliche Evolution ergeben, da der Betrieb von Kooperations- und Kommunikationsplattformen traditionelles „Kerngeschäft“ der Rechenzentren ist. Einerseits steigen die Anforderungen, andererseits trifft man auf Anwender, für die der Umgang mit den genannten Systemen eine Selbstverständlichkeit ist.

3.3 Web Services, Grids, Clouds, verteilte Verarbeitung

Ein wesentlicher Einfluss auf die Rechenzentren wird offensichtlich von der Weiterentwicklung der Technologien zur verteilten Verarbeitung ausgehen. Diese Entwicklungen bestehen aktuell z. B. in

- Grid-Computing und Grid-Middleware mit Compute Grids oder Data Grids [8],
- Cloud Computing mit Angeboten wie IaaS, PaaS oder SaaS,
- Web 2.0 im Sinne des „Semantic Web“ und
- Service Oriented Architectures.

Mit diesen Technologien wird verteilte Verarbeitung, die über bekannte Web-Technologien hinausgeht, endgültig alle Forschungsdisziplinen erreichen. Mit Data Grids werden auch diejenigen Wissenschaftler Grid-Technologien einsetzen, die an Compute Grids kein Interesse haben. Compute Grids oder Cloud Computing werden mit den Computational Sciences an Bedeutung gewinnen. Wie in vielen anderen Fällen auch ist in diesem Bereich keine Revolution, sondern eine Evolution zu erwarten. Web Services, Grid-Technologien und -Middleware stellen eine natürliche Weiterentwicklung der verteilten Verarbeitung dar.

Cloud Computing bietet eine enorme Chance zur Optimierung der Fertigungstiefe in Rechenzentren. In vielen Fällen werden die Zentren auch kurzfristig in der Lage sein, daraus Nutzen zu ziehen. Aus technischer Sicht basieren Clouds im Wesentlichen zum einen auf Virtualisierungstechnologien (Servervirtualisierung, Speichervirtualisierung, virtuelle Netze, siehe unten) und zum anderen auf einer „Massenproduktion“ bzw. „Massenprovisionierung“ von Rechenleistung oder von Speichersystemen. Die kurzfristigen Chancen werden wohl weniger in einer Neuorganisation der Grundlast, sondern eher in einer verbesserten Abdeckung von Spitzenlasten oder einer flexibleren Realisierung von Übergangs- oder Zwischenlösungen liegen. Die Herausforderungen bestehen zum einen in den diversen Schnittstellen für Provisionierung, Management usw. und zum anderen in der Definition von Maßzahlen und Benchmarks, mit den unterschiedliche Angebote verglichen und bewertet werden können.

3.4 Beherrschung von Virtualisierungskonzepten und virtuellen Strukturen

Eine der wesentlichen Herausforderungen für die Rechenzentren wird sicher in der Beherrschung von Virtualisierungskonzepten, Virtualisierungstechnologien und der darauf aufbauenden virtuellen Strukturen und Systeme liegen. Wie im vorigen Abschnitt erwähnt, stellen diese Konzepte und Technologien die Basis für Visionen wie z. B. das Cloud Computing dar. Sie sind nach einem langen Reifungsprozess inzwischen in Produktionsumgebungen einsetzbar. Virtuelle Strukturen werden auf den unterschiedlichsten Verarbeitungsschichten und mit verschiedenartigen Zielstellungen teilweise auch über mehrere Verantwortungsbereiche und Organisationen hinweg bereitzustellen sein.

Virtualisierungstechnologien in den Netzen werden es erlauben, Netzbereiche mit besonderen Leistungs- oder Sicherheitsanforderungen zu schaffen. Overlay-Netze (mit fließendem Übergang zu Grids, insbesondere den sogenannten Data-Grids) werden dem Austausch von Forschungsdaten dienen. VLANs, VPNs und virtuelle Firewalls werden damit in großer Zahl konfiguriert und betrieben werden.

Der Einsatz von Speichervirtualisierungssystemen [9], die die traditionelle direkte Beziehung zwischen Serversystemen und Speicher aufheben, wird in Hochschulrechenzentren besonders attraktiv sein, da hier zum einen eine besonders hohe Heterogenität sowohl der den Speicher nutzenden Serversysteme als auch der Speichersysteme selbst vorliegt und zum anderen eine schnelle Speicherzuordnung und eine möglichst flexible Gestaltung der Leistungs- und Sicherheitseigenschaften für Forschungsprojekte wünschenswert sind.

Zusammen mit der Speichervirtualisierung wird vor allem die Servervirtualisierung eine Konsolidierung der heterogenen ICT-Landschaft in Hochschulen forcieren oder erst möglich machen. Server- und Speichervirtualisierung werden es erlauben, die Verfügbarkeit von Systemen mit niedrigem Standardisierungsgrad auf kostengünstige Art zu verbessern. Waren bisher neben den genannten Vorteilen vor allem auch Einsparungen im investiven Bereich durch gemeinsame Nutzung von Hardware ein wesentlicher Faktor, so wird künftig in vielen Fällen die Energieeinsparung die Hauptmotivation liefern.

Kommunikation über virtuelle Netze mit Anwendungen auf virtuellen Servern, die auf virtuellen Speicher zugreifen, wird nur dann mit guter Verfügbarkeit möglich sein, wenn die jeweiligen Abbildungen auf die realen Ressourcen einfach, schnell und sicher möglich sind. An sich schlichte Fragen wie „welche Anwendungen sind vom Ausfall einer bestimmten Hardware-Komponente betroffen“, die früher offensichtlich waren, sind künftig nur noch mit umfangreicher und teurer Systemunterstützung zu beantworten. Auch die Beherrschung von Grid-Strukturen kann hier mit subsumiert werden. Hier zeigt sich schon heute, dass für die Rechenzentren die Herausforderungen in organisationsübergreifenden Managementprozessen und in der organisationsübergreifenden Autorisierung und Authentifizierung bestehen. Wenn neben diesen Prozessen noch das übergreifende Accounting, Billing und Invoicing geregelt ist, sind wesentliche Voraussetzungen für das Funktionieren von virtuellen Organisationen geschaffen.

3.5 Miniaturisierung, mobile Nutzung

Die Miniaturisierung der Geräte und die damit verbundene Möglichkeit der mobilen Nutzung wird Hochschulen besonders beeinflussen, da dort, verglichen mit vielen Wirtschaftsunternehmen, der Anteil an „nomadisch“ arbeitenden Personen und Personen ohne eigenen zugewiesenen ortsfesten Arbeitsplatz besonders hoch ist. Studenten und Forscher werden (und tun dies heute schon!) „mobile Environments“ häufig zu ihren Standardarbeitsmitteln im Sinne von „mobile Classrooms“ oder „mobile Teaching Rooms“ machen. Die bereits erwähnten Technologien zur effizienteren Interaktion von Systemen (SOA, SOAP, …) werden den Trend forcieren, virtuelle Lehr-Lern-Räume nicht nur mobil/nomadisch, sondern auch über die Grenzen von Hochschulen, Ländern oder sogar Kontinenten hinweg zu nutzen.

3.6 Digitale Langzeitarchivierung

Im Bereich der digitalen Archivierung wird neben der reinen „Bitstream Preservation“ die langfristige Auffindbarkeit bzw. Identifikation und Interpretierbarkeit der Information eine große Bedeutung erlangen, was kurz- und mittelfristig zur Entwicklung und Marktreife von dLZA-Systemen führen wird. Der wesentliche Unterschied zu den seit langem verfügbaren Archivierungssystemen besteht vor allem in der systemtechnischen Unterstützung der Langzeitverfügbarkeit der Information, die entweder durch Emulation oder durch Migration gewährleistet werden kann [10]. Ersteres bedeutet, dass die Software, die zur Interpretation des Formats notwendig ist, für eine virtuelle Maschine programmiert wird, deren Ablauffähigkeit wiederum (eben durch Emulation auf den jeweils aktuellen Systemen) langfristig gewährleistet wird. Migration dagegen geht von einer regelmäßigen oder bedarfsgesteuerten Konversion von Formaten aus. Dabei werden Daten in Formaten, für die Interpretationsmöglichkeiten nicht mehr bereitgestellt werden sollen, ohne oder mit möglichst geringem Verlust in ähnliche oder äquivalente Formate überführt. Die Originaldaten werden dabei meist zusätzlich aufbewahrt.

Die digitale Langzeitarchivierung wird wegen der großen Zahl an Formaten und Erzeugungsprozessen und der vereilten Verantwortung für die Daten für Forschungsrechenzentren zu einer der wesentlichen Herausforderungen innerhalb des Datenmanagements, wobei laufend

- Entscheidungen für Emulation oder Migration von Datenformaten zu treffen,
- Preservation Management und Migration Management umzusetzen,
- Persistent Identifiers und die dazu notwendigen Systeme anzubieten und
- Metadaten im Rahmen der Erzeugungsprozesse der Daten zu generieren und für die Datensätze vorzuhalten sind.

4. Zusammenfassung

Im vorliegenden Beitrag wurde diskutiert, wo mittelfristig die Herausforderungen und Perspektiven für Forschungsrechenzentren liegen werden. Der Schwerpunkt lag dabei zum einen auf Entwicklungen, die für Forschung und Lehre wegen der Spezifika von Hochschul- und Forschungsumfeldern besonders relevant sind, und zum anderen auf technischen Herausforderungen und Perspektiven.

Zusätzlich zu den genannten Herausforderungen gibt es selbstverständlich weitere „nicht-technische“ Herausforderungen, denen sich besonders auch die ICT-Provider zu stellen haben. Das Angebot an ICT-Leistungen ist weiter zu entwickeln, Produkt- und Projektmanagement sind zu optimieren. Die ICT-Systeme und -Leistungen müssen offen und flexibel genug für wissenschaftliche Anforderungen sein, aber soweit standardisiert, dass insgesamt ein günstiges Kosten-/Nutzen-Verhältnis entsteht.

Neben den genannten ICT-Entwicklungen, die eine besondere Bedeutung für Hochschulen und Forschungseinrichtungen haben, sind letztere natürlich auch „im normalen Umfang“ von allen anderen ICT-Entwicklungen betroffen, die hier aus Platzgründen aber nicht behandelt werden konnten. Erwähnt sei aber, dass viele der oben genannten Entwicklungen überhaupt erst durch den laufenden Fortschritt im Bereich der Kommunikationsnetze möglich werden, der sich z. B. ausdrückt in Leistungssteigerungen insbesondere auch der drahtlosen Kommunikation, in Sprach-Datenintegration, „Triple Play“ usw.

 

Literaturhinweise

[1] Informationsverarbeitung an Hochschulen – Organisation, Dienste und Systeme.
Empfehlungen der Kommission für Rechenanlagen für 2006–2010.
DFG 2006.
[2] T. Höllrigl, F. Schell, H. Wenske, H. Hartenstein:
Föderatives und dienstorientiertes Identitätsmanagement: Konzept und
Erfahrungen.
In: Praxis der Informationsverarbeitung und Kommunikation, Heft 3/2007
(30.Jg.), S. 156–162.
[3] W. Nagel, W. Jäger, M. Resch (Eds.):
High Performance Computing in Science and Engineering‚ 06.
Springer 2007.
[4] B. Neumair, D. Ullrich:
Digitale Langzeitarchivierung – nicht nur eine technische Herausforderung.
In: E. Nielsen, K. Saur, K. Ceynowa (Hrsg.): Die innovative Bibliothek, Saur 2005,
S. 121–137.
[5] Hochschulrektorenkonferenz/Servicestelle Bologna:
Bologna in der Praxis. Erfahrungen aus den Hochschulen .
Bertelsmann 2008 .
[6] Berlin Declaration: http://oa.mpg.de/openaccess-berlin/berlin_declaration.pdf
[7] DINI – Deutsche Initiative für Netwzerkinformation e.V.:
Informations- und Kommunikationsstruktur der Zukunft – 10 Thesen.
2008 .
[8] I. Foster, C. Kesselman:
The grid: blueprint for a new computing infrastructure.
Morgan Kaufmann Publishers 2004.
www.mpg.de © 2009/2010 Max-Planck-Gesellschaft
Tätigkeitsbericht 2009/2010 Neumair, Bernhard | Herausforderungen und
Perspektiven für ...
[9] SNIA Storage Networking Industry Association: http://www.snia.org
[10] U. Borghoff, P. Rödig, J. Scheffczyk, L. Schmitz:
Langzeitarchivierung.
dpunkt.verlag 2003.

Zur Redakteursansicht