Grid-Computing (Grid)

Am internationalen Forschungszentrum CERN (Genf), der Geburtsstätte des Internets, entsteht eine neue Dimension des verteilten Rechnens. Im Herbst 2008 nahm der Large Hadron Collider (LHC) seinen Betrieb auf. In einem unterirdischen Ringtunnel mit einem Umfang von etwa 27 km prallen Protonen mit extrem hoher Geschwindigkeit aufeinander und erzeugen dabei Materiedichten, wie sie in den ersten Augenblicken nach dem Urknall geherrscht haben.

Die vier Messgeräte, mit denen die Splitterprodukte der Protonenzusammenstöße untersucht werden, besitzen einen Durchmesser von bis zu 24 m und eine Länge von bis zu 40 m. Es werden Messdaten in bisher nicht gekanntem Umfang erzeugt: pro Jahr sind einige Hundert Peta-Bytes zu speichern. Dafür wurde das derzeit größte Grid-Computing-System entwickelt. Die am LHC anfallenden Daten werden in einer Multi-Tier-Struktur weltweit verteilt. Die Arbeit mit diesen Daten erfordert die Entwicklung neuartiger IT-Konzepte. Kernstück ist die Entwicklung einer geeigneten Grid-Middleware, die dafür sorgt, dass die Forscher in ihren Heimatinstituten mit den Messdaten so arbeiten können, als seien die Daten lokal vorhanden.

Eine Reihe von Fragestellungen hinsichtlich des Aufbaus einer Grid-Infrastruktur sind noch nicht geklärt. Zu den Themen, die in diesem Projekt untersucht wurden, gehören das Monitoring von Grid-Infrastrukturen, das Accounting, das Ressourcen-Management, die Virtualisierung in Batch-Systemen und die Weiterentwicklung des Massenspeichersystems dCache.

Projektlaufzeit

1.3.2007 - 30.6.2016

Projektleitung

Mittelgeber

Deutsches Elektronen-Sychrotron (DESY); Kommission für Forschung und wissenschaftlichen Nachwuchs (FNK) der HTW Berlin