HPE propagiert In-Memory-Computing im gigantischen Stil

17. Mai 2017, 12:31
  • innovation
  • hpe
image

Neuer Prototyp von "The Machine": Die Architektur erlaube Speichermengen bis in den Yottabytebereich, sagt HPE.

HPE hat einen zweiten Prototyp von "The Machine" gebaut, mit 160 Terabyte Arbeitsspeicher. Die Architektur erlaube locker auch Speichermengen im Exabyte- und sogar Yottabytebereich, sagt HPE.
HPE hat einen neuen Prototyp seines Zukunftscomputers "The Machine" vorgestellt. Der aktuelle Prototyp ist laut HPE mit 160 Terabyte Memory der Computer mit dem grössten einheitlichen Arbeitsspeicher, der je gebaut wurde. Viele Supercomputer weisen zwar noch deutlich mehr Speicher auf. Der gegenwärtig schnellste Computer der Welt, der chinesische Sunway TaihuLight, hat zum Beispiel über 1300 Terabyte. Aber dieser Speicher kann von den Computingknoten nicht als eine Einheit angesprochen werden, sondern ist auf die Nodes verteilt. Beim The-Machine-Prototyp können dagegen laut HP alle 40 Nodes des Systems gleichzeitig auf den ganzen Arbeitsspeicher zugreifen.
In den 160 Terabyte Arbeitsspeicher des Prototyps könnte man, wie HPE vorrechnet, den Inhalt von rund 800 Millionen Büchern speichern und alle gleichzeitig analysieren.
Der Prototyp weist neben spezieller Software laut HPE für die notwendige sehr schnelle Interaktion zwischen Arbeitsspeicher und CPUs zudem optische Kommunikationsverbindungen auf, darunter das neue Photonics-Modul X1. Diese seien "online und operativ", zur Bandbreite äussert sich HPE aber nicht.
Die Computing-Nodes basieren auf "Systems-on-a-Chip" mit ARM-Architektur von Cavium. Welche Art von Arbeitsspeicher verwendet wird, erwähnt HPE in den von uns gefundenen Unterlagen nicht. Beim ersten Prototyp waren es noch ziemlich handelsübliche DRAM-Module.
Terabyte? Yottabyte!
Ausserdem soll es laut HPE auf der Basis der erarbeiteten Architektur ein leichtes sein, die Speichermenge in den Exabyte-Bereich zu skalieren. Später soll theoretisch sogar die schier unvorstellbare Speichermenge von bis zu 4096 Yottabyte möglich werden. Dies entspräche der 250'000fachen Menge des aktuellen geschätzten Datenbestands der ganzen Welt, so HPE. Ein einziges Yottabyte ist eine Billion Terabyte.
Allerdings würde auch nur ein Yottabyte RAM-Speicher, wenn man es heute bei einem Schweizer Onlinehändler in Form von 16GB-DIMMs kaufen wollte, nach unserer Rechnung rund 9,4 Billiarden Franken kosten. Brack, Digitec und Co. hätten Freude, aber auch die ganze Welt hätte etwas Mühe, sich das zu leisten.
Der Kern fehlt – aber die Grundidee könnte stimmen
Um in den Exabyte-Bereich vorzustossen – geschweige denn den Yottabyte-Bereich – muss der Speicher also drastisch billiger werden, als heutige Speicher. Genau dies versprach eigentlich die Memristor-Technologie, die HPE vor drei Jahren als Basis von The Machine ankündigte erstmals einen Prototyp bauen, in realen Computern einsetzbare darauf basierende Chips scheinen aber weiterhin nicht realisiert worden zu sein.
Dies hindert HPE aber nicht daran, an der Architektur, der Software und weiteren Komponenten von Computern zu arbeiten, die dereinst Memristoren oder ähnliche Speichertechnologien verwenden werden. Und auch falls Memristor-Speicher nie oder nicht in absehbarer Zeit Realität werden, könnte das von HPE im Rahmen des The-Machine-Projekts erarbeitete Know-how (und die dazugehörigen Patente) zukunftsträchtig sein.
Denn es gibt Alternativen zur Memristor-Technologie, die in den nächsten Jahren marktfähig werden sollten, zum Beispiel Intels und Microsoft "Xpoint 3D"-Speicher. Diese werden zwar kaum die gigantischen Kapazitäts- und Leistungssprünge bringen, wie sie HPE für Memristor-Speicher versprochen hat, im Prinzip haben sie aber ähnliche Eigenschaften. Sie können Daten persistent speichern, dabei so schnell oder noch deutlich schneller sein, als heutige RAM-Chips und dürften gleichzeitig ein viel besseren Preis-/Kapazitätsverhältnis aufweisen. In einigen Jahren könnten sie beginnen, sowohl die heutigen Arbeitsspeicher als auch Flash-Storagesysteme abzulösen und das "Memory-Driven" Computing, wie es HPE vorschwebt, ermöglichen. Auch wenn es dabei vorerst "nur" um Speichermengen im Petabytebereich und nicht um Exabytes gehen dürfte. (Hans Jörg Maron)
(Interessenbindung: HPE ist Werbekunde unseres Verlags.)

Loading

Mehr zum Thema

image

Microsoft eröffnet Schweizer Technology Center

Im Tech-Center sollen Co-Innovation von Kunden und Partnern entstehen. Gleichzeitig kündigt Microsoft die "Innovate Switzerland" Community an.

publiziert am 23.5.2022
image

Das WEF will ins Metaverse

Klaus Schwab, Gründer des Weltwirtschaftsforums (WEF), hat ein globales Dorf für die Zusammenarbeit in der digitalen Parallelwelt angekündigt.

publiziert am 23.5.2022
image

Bauteil für Computer nach Vorbild des Gehirns

Forschende von ETH Zürich, Universität Zürich und Empa entwickelten ein neues Material für ein Computerbauteil, das sich am menschlichen Gehirn orientiert.

publiziert am 18.5.2022
image

Itanium: HPE ringt Oracle doch noch nieder

Der 2011 begonnene Gerichtsstreit zwischen den beiden IT-Riesen ist wohl endgültig vorbei. Oracle muss 3 Milliarden Dollar blechen. Womöglich das beste Itanium-Geschäft der Geschichte von HPE.

publiziert am 17.5.2022