Technologie-Partner
Gold-Sponsor:
Dienstag, 03.04.2012
Mega-Radioteleskop: Wie verarbeitet man ein Exabyte - pro Tag?

square kilometre array
IBM soll bei der Konzeption der IT-Infrastruktur für das "Square Kilometer Array"-Radioeleskop helfen.
 
Astronomen weltweit verfolgen einen grossen Traum: In rund einem Jahrzehnt soll das gigantische "Square Kilometer Array-Teleskop" (SKA) die Arbeit aufnehmen und ihnen helfen, die Geheimnisse der Enstehung des Universums im "Big Bang", der Enstehung von Materie, dunkler Materie und der Formation von Galaxien zu erforschen. Das SKA soll das mit Abstand grösste und empfindlichste Radioteleskop werden, dass ihnen je zur Verfügung stand.
 
Rund 3000 Einzelteleskope mit einer Fläche von insgesamt mehr als einem Quadratkilometer sollen in einem speziellen Muster angeordnet und zusammengeschaltet werden. Als mögliche Standorte stehen gegenwärtig Südafrika und Australien im Vordergrund. Die äussersten Schüsseln sollen dabei bis zu 3000 Kilometer vom Zentrum entfernt sein. Würde zum Beispiel Australien gewählt, würde das "Teleskop" daher bis nach Neuseeland reichen. Das SKA soll 2020 erstmals die Arbeit aufnehmen und bis 2024 fertiggestellt werden.
 
Eines der grundlegenden technologischen Probleme, die für das Projekt gelöst werden müssen, ist die Verarbeitung der riesigen Mengen an Radiosignalen, die das SKA auffangen und analysieren soll. Die so anfallende Rohdatenmenge wird auf rund ein Exabyte pro Tag geschätzt. Das ist, wie der IBM-Forscher Ton Engbersen schätzt, rund das Doppelte der Datenmenge, die heute weltweit im gesamten Internet pro Tag übertragen wird. Ein Exabyte enstpricht tausend Petabyte beziehungsweise einer Million Terabyte. Zur Verarbeitung wird man laut IBM Computer benötigen, die in der Lage sind, 100 Mal mehr Daten zu bewältigen, als die derzeit schnellsten Rechner.
 
Ein grosser Teil der Rohdatenmenge kann zwar nach der ersten Analyse gelöscht werden, aber trotzdem müssen laut den Schätzungen der Forscher pro Jahr rund 300 bis 1500 Petabyte gespeichert werden. Zum Vergleich: Beim Large Hadron Collider des CERN in Genf fallen pro Jahr rund 15 Petabyte an.
 
"Grüne IT" als "einzig gangbarer Weg"
Das niederländische Institut für Radioastronomie ASTRON und IBM haben zusammen ein fünfjähriges Forschungsprojekt, namens "DOME" lanciert, in dem technologische Grundlagen für die IT-Infrastruktur des SKA erarbeitet werden sollen. Das Team beschäftigt sich dabei mit verschiedenen Bereichen wie spezialisierten Beschleuniger-Prozessoren, 3-Dimensional gestapelten Chips, neuen optischen Datenübertragungstechnologien und Silizium-Nanophotonik für die Übertragung sehr grosser Datenmengen sowie Hochleistungsspeichersystemen wie neuen Tape-Speichersystemen und Memory-Technologien.
 
Computer simulieren Computer
Bei dieser Arbeit geht es aber nicht einfach um die reine Leistungssteigerung der ICT-Komponenten. "Der einzige sinnvolle Weg, um solche Systeme zu realisieren," sagt ASTRON-Direktor Marco de Vos, "ist es, ihren Energieverbrauch drastisch zu reduzieren." Ein zentrales Arbeitsinstrument für die Entwickler des Super-Supercomputers sind dabei – Supercomputer. Um ein grundlegendes Design der IT-Infrastruktur für das SKA mit realistischen Annahmen entwerfen zu können, werden spezielle Methoden für die Simulation und Optimierung von komplexen IT-Systemen zum Einsatz kommen.
 
Die Methoden dafür wurden bei IBM Research Zürich entwickelt und bereits andernorts in der Praxis angewendet. Die Basis für die Simulationen der SKA-Infrastruktur bildet dabei eine Analyse eines bestehenden Radioteleskops, des "LOFAR"-Teleskops, das ASTRON in den Niederlanden betreibt. Dieses spezielle Radioteleskop zählt zu den so genannten "Pfadfinder-Technologien", die als wegweisend für das weitaus grössere und komplexere SKA gelten. (Hans Jörg Maron)
 
(Bild: So könnte ein (kleiner) Teil des SKA eines Tages aussehen. Grafik: Square Kilometre Array)
Kommentar schreiben

Kommentare:
Peter Tobler 03.04.2012 18:03 Die einfachste Möglichkeit besteht doch schon länger bei einem ähnlichen Projekt namens SETI. Ob man nun Ausserirdische oder sonstwas sucht, spielt dabei keine Rolle. Die anfallenden Daten werden von x-tausend normalen Arbeitsrechnern, verteilt über die ganze Welt, zum Beispiel in Form eines Bildschirmschoners abgearbeitet. Die Resultate gelangen in komprimierter Form zurück.
-> http://de.wikipedia.org/wiki/Verteiltes_Rechnen
Hans Jörg Maron 03.04.2012 23:07 @ Peter Tobler: Ich (der Autor dieses Artikels) denke, dass auch Seti@home, trotz einer sechsstelligen Zahl von Computern, die daran beteiligt sind, um Grössenordnungen von der Leistung entfernt ist, die es für den LHC in Genf, geschweige denn den SKA brauchen würde. (Mal abgesehen davon, dass diese Leistung eben zuverlässig jeden Tag und jede Sekunde erbracht werden muss.)
 
Es ist allerdings nicht ganz einfach, im Internet auf die schnelle klare Zahlen dazu zu finden, wie leistungsfähig Seti@home gegenwärtig ist. Laut dem Wikipedia-Eintrag (http://en.wikipedia.org/wiki/Seti@home) leistet das verteilte System durchschnittlich knapp über 505 Teraflops bei aktuell etwas über 150'000 aktiven Usern. Laut IBM braucht das SKA Leistungen im Exaflop-Bereich (also mindestens 2000 Mal mehr). Ebenfalls laut Wikipedia verarbeitet Seti@home etwa 54 Gigabyte pro Tag an Rohdaten. (Die übrigens, ebenfalls sehr interessant, per Post auf Tape vom Radioteleskop in Arecibo in Puerto Rico nach Berkeley geschickt werden.)
 
Ein aktuelles Papier zweier Forscher der Universität Bukarest (http://www.wseas.us/e-library/conferences/2012/CambridgeUK/SEPED/SEPED-21.pdf) sagt dagegen, dass im Seti Projekt pro Tag etwa 1 Terabyte Daten gespeichert und von etwa 250'000 Computern verarbeitet werden.
Peter Tobler 04.04.2012 09:58 @Hans Jörg Maron:
SETI war nur ein ähnliches Beispiel für die Anwendung von verteiltem Rechnen. Wenn man neu nicht mehr nur die CPU der verteilten Rechner benutzt, sondern wie bei BOINC beschrieben "… wird die CUDA-Technologie von Nvidia unterstützt. Damit ist es möglich, die Rechenleistung von Grafikkarten des Herstellers mit CUDA-Unterstützung zu nutzen. Seit der Version 6.10.x wird die ATI-Stream-Technik unterstützt, welche, ähnlich wie CUDA, die Berechnung auf Grafikkarten des Herstellers ATI Technologies erlaubt..." dürfte man ohne grossen Zusatzaufwand ein vielfaches an Rechenleistung erreichen. Es ist kein Zufall, dass aktuelle Brute-Force-Angriffe auf Passwörter schneller mit Grafikkarten als mit reiner CPU-Leistung erledigt werden.
 
Das grössere Problem dürfte wie bei allen ähnlichen Projekten die Akzeptanz bei den Usern (inkl. Firmen) sein. Es hat zwar seinen Reiz nach Ausserirdischen zu suchen, aber wer gibt das schon gerne zu? Hier müsste wohl ein entsprechender Anreiz geschaffen werden. Projekte wie 'die Simulation des Faltungsvorgangs von Proteinen' oder die im Artikel erwähnte 'Enstehung des Universums im "Big Bang", sind vermutlich rein vom Titel her keine ausreichend 'coolen' Anwendungen um die nötige Anzahl freiwilliger Helfer zu mobilisieren.
 
Newsletter abonnieren
E-Mail-Adresse
HOT Stories
Neu auf altText
Kolumnen
Features