IBM baut 120-Petabyte-Speichersystem

29. August 2011 um 15:07
  • ibm
image

Ingenieure von Big Blue bauen am IBM-Institut im amerikanischen Almaden gerade den mit 120 Petabyte Kapzität grössten bisher dagewesenen Storage-Array, wie das 'Technology Review' des MIT berichtet.

Ingenieure von Big Blue bauen am IBM-Institut im amerikanischen Almaden gerade den mit 120 Petabyte Kapzität grössten bisher dagewesenen Storage-Array, wie das 'Technology Review' des MIT berichtet. 120 Petabyte sind ungefähr zehnmal soviel, wie die grössten gegenwärtig bestehenden Arrays bieten.
IBM baut den Riesenspeicher für einen nicht genannnten Kunden, der ihn, zusammen mit einem Supercomputer, für ebenfalls nicht spezifizierte Simulationen verwenden will.
IBM hofft aber auch, sich beim Bau des aus rund 200'000 konventionellen Harddisks bestehenden Systems Grundlagen für zukünftige "Mainstream"-Speichersysteme zu erarbeiten: "Unser 120-Petabyte-System ist heute noch eine ziemlich verrückte Angelegenheit, aber wer weiss, in ein paar Jahren sind vielleicht schon alle Cloud-Computing-Systeme ähnlich", so der Projektleiter Bruce Hillsberg.
IBM muss beim Bau einige Probleme lösen, die sich aus der schieren Grösse des Systems ergeben. Unter anderem musste der Platzbedarf und die Kühlung in Einklang gebracht werden. Die IBM-Leute setzen "extrabreite" Racks ein, um eine grössere Harddiskdichte erzielen zu können, kühlen sie aber mit Wasser statt wie üblich mit Ventilatoren.
Ein IBM-eigenes Filesystem namens "GPFS" verteilt Files auf mehrere Harddisks, so dass Teile davon gleichzeitig gelesen oder geschrieben werden können. Das Filesystem soll zudem die Masse der Files auf dem System sehr schnell indexieren können, so dass sie trotz ihrer riesigen Menge – ungefähr eine Billion – genügend schnell gefunden werden können.
Bei 200'000 Harddisks ist es zudem logisch, dass ziemlich oft einmal ein einzelne ausfällt. Wie bei konventionellen Speichersystemen sind die Daten redundant gespeichert, damit eine Harddisk wiederhergestellt werden kann. Wenn beim IBM-Riesenspeicher eine Disk ausfällt, werden diese Daten aber zuerst nur langsam auf eine Ersatzdisk geschrieben, so dass der Computer nicht nur ohne Unterbruch, sondern mit beinahe Volleistung weiterlaufen kann. Erst wenn andere nahe gelegene Disks auch noch auszufallen drohen, so dass ein Datenverlust wahrscheinlich wird, wird der Prozess beschleunigt. Laut Hillsberg sollte das Gesamtsystem so theororetisch eine Million Jahre ohne Datenverlust überstehen, während gleichzeitig keine Kompromisse bei der Leistung eingegangen werden. (hjm)

Loading

Mehr zum Thema

image

Ransomware bleibt verbreitet, wird aber schneller erkannt

Die Fertigungsindustrie ist in der Cybercrime-Szene ein beliebtes Ziel und Ransomware ist noch immer eine populäre Methode, zeigt der neuste IBM-Report.

publiziert am 22.2.2023
image

Auch bei IBM stehen weltweit Entlassungen an

Der Konzern will rund 4000 Jobs streichen. Betroffen sind diejenigen Bereiche, die nicht in Kyndryl und Watson Health ausgelagert wurden.

publiziert am 26.1.2023
image

IBM-Forscher und Nobelpreisträger Karl Alex Müller gestorben

Der Schweizer ist am 9. Januar im Alter von 95 Jahren gestorben. Vor rund 60 Jahren begann er als wissenschaftlicher Mitarbeiter für IBM zu arbeiten.

publiziert am 17.1.2023
image

IBM führt ein neues Partnerprogramm ein

Bei Big Blue soll es für Partner zu einer "bedeutenden Änderung" in der Zusammenarbeit kommen. Aus "PartnerWorld" wird "IBM Partner Plus".

publiziert am 4.1.2023