HPE propagiert In-Memory-Computing im gigantischen Stil

HPEs zweiter Prototyp von The Machine. Foto: HPE. Ob die neongrünen Leuchten einen funktionellen Zweck haben, wagen wir zu bezweifeln, aber sie wirken doch sehr Science-Fiction-mässig.
HPE hat einen zweiten Prototyp von "The Machine" gebaut, mit 160 Terabyte Arbeitsspeicher. Die Architektur erlaube locker auch Speichermengen im Exabyte- und sogar Yottabytebereich, sagt HPE.
 
HPE hat einen neuen Prototyp seines Zukunftscomputers "The Machine" vorgestellt. Der aktuelle Prototyp ist laut HPE mit 160 Terabyte Memory der Computer mit dem grössten einheitlichen Arbeitsspeicher, der je gebaut wurde. Viele Supercomputer weisen zwar noch deutlich mehr Speicher auf. Der gegenwärtig schnellste Computer der Welt, der chinesische Sunway TaihuLight, hat zum Beispiel über 1300 Terabyte. Aber dieser Speicher kann von den Computingknoten nicht als eine Einheit angesprochen werden, sondern ist auf die Nodes verteilt. Beim The-Machine-Prototyp können dagegen laut HP alle 40 Nodes des Systems gleichzeitig auf den ganzen Arbeitsspeicher zugreifen.
 
In den 160 Terabyte Arbeitsspeicher des Prototyps könnte man, wie HPE vorrechnet, den Inhalt von rund 800 Millionen Büchern speichern und alle gleichzeitig analysieren.
 
Der Prototyp weist neben spezieller Software laut HPE für die notwendige sehr schnelle Interaktion zwischen Arbeitsspeicher und CPUs zudem optische Kommunikationsverbindungen auf, darunter das neue Photonics-Modul X1. Diese seien "online und operativ", zur Bandbreite äussert sich HPE aber nicht.
 
Die Computing-Nodes basieren auf "Systems-on-a-Chip" mit ARM-Architektur von Cavium. Welche Art von Arbeitsspeicher verwendet wird, erwähnt HPE in den von uns gefundenen Unterlagen nicht. Beim ersten Prototyp waren es noch ziemlich handelsübliche DRAM-Module.
 
Terabyte? Yottabyte!
Ausserdem soll es laut HPE auf der Basis der erarbeiteten Architektur ein leichtes sein, die Speichermenge in den Exabyte-Bereich zu skalieren. Später soll theoretisch sogar die schier unvorstellbare Speichermenge von bis zu 4096 Yottabyte möglich werden. Dies entspräche der 250'000fachen Menge des aktuellen geschätzten Datenbestands der ganzen Welt, so HPE. Ein einziges Yottabyte ist eine Billion Terabyte.
 
Allerdings würde auch nur ein Yottabyte RAM-Speicher, wenn man es heute bei einem Schweizer Onlinehändler in Form von 16GB-DIMMs kaufen wollte, nach unserer Rechnung rund 9,4 Billiarden Franken kosten. Brack, Digitec und Co. hätten Freude, aber auch die ganze Welt hätte etwas Mühe, sich das zu leisten.
 
Der Kern fehlt – aber die Grundidee könnte stimmen
Um in den Exabyte-Bereich vorzustossen – geschweige denn den Yottabyte-Bereich – muss der Speicher also drastisch billiger werden, als heutige Speicher. Genau dies versprach eigentlich die Memristor-Technologie, die HPE vor drei Jahren als Basis von The Machine ankündigte. Dieses grundlegend neue elektronische Bauteil lässt aber immer noch auf sich warten. Forscher von Hewlett-Packard konnten zwar schon vor neun Jahren erstmals einen Prototyp bauen, in realen Computern einsetzbare darauf basierende Chips scheinen aber weiterhin nicht realisiert worden zu sein.
 
Dies hindert HPE aber nicht daran, an der Architektur, der Software und weiteren Komponenten von Computern zu arbeiten, die dereinst Memristoren oder ähnliche Speichertechnologien verwenden werden. Und auch falls Memristor-Speicher nie oder nicht in absehbarer Zeit Realität werden, könnte das von HPE im Rahmen des The-Machine-Projekts erarbeitete Know-how (und die dazugehörigen Patente) zukunftsträchtig sein.
 
Denn es gibt Alternativen zur Memristor-Technologie, die in den nächsten Jahren marktfähig werden sollten, zum Beispiel Intels und Microsoft "Xpoint 3D"-Speicher. Diese werden zwar kaum die gigantischen Kapazitäts- und Leistungssprünge bringen, wie sie HPE für Memristor-Speicher versprochen hat, im Prinzip haben sie aber ähnliche Eigenschaften. Sie können Daten persistent speichern, dabei so schnell oder noch deutlich schneller sein, als heutige RAM-Chips und dürften gleichzeitig ein viel besseren Preis-/Kapazitätsverhältnis aufweisen. In einigen Jahren könnten sie beginnen, sowohl die heutigen Arbeitsspeicher als auch Flash-Storagesysteme abzulösen und das "Memory-Driven" Computing, wie es HPE vorschwebt, ermöglichen. Auch wenn es dabei vorerst "nur" um Speichermengen im Petabytebereich und nicht um Exabytes gehen dürfte. (Hans Jörg Maron)
 
(Interessenbindung: HPE ist Werbekunde unseres Verlags.)