Auf der Suche nach der grossen Antwort

2. Juli 2009, 11:49
  • rechenzentrum
  • intel
  • hp
  • siemens
  • netzwerk
image

Am Forschungszentrum CERN in Genf soll im Oktober die Suche nach den Geheimnissen des Urknalls wieder aufgenommen werden. Jährlich werden dabei enorme Datenmengen produziert, die analysiert, verteilt und gespeichert werden müssen. Dafür zuständig ist das weltweite Grid.

Am Forschungszentrum CERN in Genf soll im Oktober die Suche nach den Geheimnissen des Urknalls wieder aufgenommen werden. Jährlich werden dabei enorme Datenmengen produziert, die analysiert, verteilt und gespeichert werden müssen. Dafür zuständig ist das weltweite Grid.
Wer die europäische Organisation für Kernforschung CERN in Genf besucht, bekommt den Eindruck, die Welt sei stehen geblieben - die sechziger Jahre sind immer noch omnipräsent. Das sieht man etwa an den Türen oder an den grünen Teppichen und Hochglanz-Bodenbelägen. Und eigentlich passt das auch. Die antiquierte Einrichtung kontrastiert wunderbar mit der zukunftsgerichteten Forschung, die hier betrieben wird.
15 Petabytes pro Jahr
Im vergangenen Jahr wurde hier der sogenannte Large Hadron Collider (LHC) in Betrieb genommen. Allerdings nur für wenige Tage. Der Teilchenbeschleuniger musste nach einem "Unfall" wieder heruntergefahren werden. Die Jagd nach Kleinstteilchen, nach der Antwort auf die Frage, was die Welt im Innersten zusammenhält, wurde verschoben. Wenn die Maschine wie vorgesehen im Oktober dieses Jahres wieder laufen wird, wird sie unzählige Mengen an Daten produzieren, die man auswerten und speichern muss. Laut den Forschern vom CERN werden es jährlich 15 Petabytes sein - das sind 15 Millionen Gigabytes. Oder anders ausgedrückt: 8220 DVDs pro Tag. Schon heute werden diese Mengen produziert, allerdings handelt es sich grösstenteils um Simulationen. Ab Ende Jahr gilt es ernst. Gemäss Wolfgang von Rüden vom IT-Department des CERN wird die Menge in den kommenden Jahren kontinuierlich steigen.
Für die Bewältigung dieser Daten ist am CERN kein Supercomputer und kein Mainframe (mehr) im Einsatz, man setzt hingegen auf ein internationales Grid. Das weltweite LHC Computing Grid (LCG), das tausende Rechner und Speichersysteme umfasst, wurde bereits einige Jahre vor der Inbetriebnahme des LHC ins Leben gerufen. Das Herz des LCG befindet sich in Genf. Das hiesige Rechenzentrum (Tier-0) verteilt die gesammelten Daten an die elf Tier-1-Rechenzentren. Diese wiederum interagieren mit den über 200 Tier-2-Rechenzentren weltweit. Während "Genf" in erster Linie für die Aufzeichnung und Distribution der Daten zuständig ist, übernehmen die elf Tier-1-RZs die permanente Speicherung sowie die Analyse. Die Tier-2-Standorte sind vorwiegend für Simulation und End-user-Analyse zuständig. Ein Monitor am Eingang des Genfer RZs zeigt die weltweiten Datentransfers in Echtzeit, mit einer Verzögerung von drei Minuten (im Foto Wolfgang von Rüden).
All diese Rechenzentren sind mit weiteren Grids verbunden. Die beiden grössten sind das europäische EGEE (Enabling Grids for E-SciencE) und das amerikanische OSG (Open Science Grid). Der Bau des LHC hat die Entwicklung dieser Grids entscheidend vorangetrieben, doch sie werden auch für Forschungen in anderen Gebieten sowie für Industrieanwendungen gebraucht. Die Rechner werden also noch viele Jahrzehnte weiter rattern, auch wenn das berühmte "Gottesteilchen" schon bald nachgewiesen werden sollte.
"You make it, we break it"
Das CERN ist aber nicht nur ein Forschungszentrum für Physik, hier wird auch ICT-Feldforschung betrieben - unter dem Motto "you make it, we break it". Seit Januar 2003 existiert in Genf das Openlab, das von Wolfgang von Rüden geführt wird. Zurzeit haben sich die Branchengrössen Intel, Oracle und Siemens als Partner bis 2011 verpflichtet, mit den CERN-Forschern zusammenzuarbeiten. Sie profitieren so von wertvollem Know-how und können in einigen Fällen auch auf Erfahrungen ausländischer CERN-Partnerinstitute zurückgreifen. Der Vertrag mit HP läuft hingegen schon Mitte 2010 aus. Die Partnerunternehmen investieren 800'000 Franken pro Jahr und können Frühversionen von Hardware und Software testen lassen.
Zurzeit befindet sich das Openlab in der dritten Phase. In der ersten Phase von 2003 bis 2005 fokussierten die Forscher auf die Entwicklung eines "Opencluster"-Prototypen. Von 2006 bis 2008 konzentrierte man sich auf die Plattformen, Datenbanken, Grids, Security und Networking. In der dritten Phase von 2009 bis 2011 dürften aufgrund des neuen Partners Siemens Industrieanwendungen hinzukommen, aber auch "Green IT" wird eine zentrale Rolle spielen.
Letztlich hoffen die Forscher am CERN, dass durch die Zusammenarbeit mit der (IT-)Industrie Anwendungen, Geräte und Services entwickelt werden, welche die Arbeit der Physiker unterstützen und erleichtern. Damit endlich die Antwort gefunden wird auf die berühmte Frage. (Maurizio Minetti)

Loading

Mehr zum Thema

image

BBT und Centris spannen im Hosting zusammen

Der Anbieter von Krankenversicherungssoftware aus Root gibt seine Datacenter auf und spannt dafür mit dem bisherigen Konkurrenten und Branchenprimus aus Solothurn zusammen.

publiziert am 24.6.2022
image

Es ist so weit: EWL weiht Rechenzentrum im Wartegghügel ein

Nach nunmehr 10 Jahren ist eines der modernsten Datacenter der Schweiz in der ehemaligen Luzerner Zivilschutzanlage offiziell eröffnet worden.

publiziert am 21.6.2022
image

Die nächste Volte bei Intels Milliardenstrafe

Der Chiphersteller fordert für eine 2009 an die EU gezahlte Milliardenstrafe, die ihm in diesem Jahr zurückerstattet wurde, nun deutlich mehr als eine halbe Milliarde an Verzugszinsen zurück.

publiziert am 21.6.2022
image

Neue Rechenzentren haben in Irland einen schweren Stand

Irland gilt als grosser Tech-Hub. Doch die Energiebehörde schiebt RZ-Neubauten wegen des Stromverbrauchs einen Riegel vor. Interxion muss ein Millionenprojekt stoppen.

publiziert am 17.6.2022