HPE propagiert In-Memory-Computing im gigantischen Stil

17. Mai 2017 um 12:31
  • innovation
  • hpe
image

Neuer Prototyp von "The Machine": Die Architektur erlaube Speichermengen bis in den Yottabytebereich, sagt HPE.

HPE hat einen zweiten Prototyp von "The Machine" gebaut, mit 160 Terabyte Arbeitsspeicher. Die Architektur erlaube locker auch Speichermengen im Exabyte- und sogar Yottabytebereich, sagt HPE.
HPE hat einen neuen Prototyp seines Zukunftscomputers "The Machine" vorgestellt. Der aktuelle Prototyp ist laut HPE mit 160 Terabyte Memory der Computer mit dem grössten einheitlichen Arbeitsspeicher, der je gebaut wurde. Viele Supercomputer weisen zwar noch deutlich mehr Speicher auf. Der gegenwärtig schnellste Computer der Welt, der chinesische Sunway TaihuLight, hat zum Beispiel über 1300 Terabyte. Aber dieser Speicher kann von den Computingknoten nicht als eine Einheit angesprochen werden, sondern ist auf die Nodes verteilt. Beim The-Machine-Prototyp können dagegen laut HP alle 40 Nodes des Systems gleichzeitig auf den ganzen Arbeitsspeicher zugreifen.
In den 160 Terabyte Arbeitsspeicher des Prototyps könnte man, wie HPE vorrechnet, den Inhalt von rund 800 Millionen Büchern speichern und alle gleichzeitig analysieren.
Der Prototyp weist neben spezieller Software laut HPE für die notwendige sehr schnelle Interaktion zwischen Arbeitsspeicher und CPUs zudem optische Kommunikationsverbindungen auf, darunter das neue Photonics-Modul X1. Diese seien "online und operativ", zur Bandbreite äussert sich HPE aber nicht.
Die Computing-Nodes basieren auf "Systems-on-a-Chip" mit ARM-Architektur von Cavium. Welche Art von Arbeitsspeicher verwendet wird, erwähnt HPE in den von uns gefundenen Unterlagen nicht. Beim ersten Prototyp waren es noch ziemlich handelsübliche DRAM-Module.
Terabyte? Yottabyte!
Ausserdem soll es laut HPE auf der Basis der erarbeiteten Architektur ein leichtes sein, die Speichermenge in den Exabyte-Bereich zu skalieren. Später soll theoretisch sogar die schier unvorstellbare Speichermenge von bis zu 4096 Yottabyte möglich werden. Dies entspräche der 250'000fachen Menge des aktuellen geschätzten Datenbestands der ganzen Welt, so HPE. Ein einziges Yottabyte ist eine Billion Terabyte.
Allerdings würde auch nur ein Yottabyte RAM-Speicher, wenn man es heute bei einem Schweizer Onlinehändler in Form von 16GB-DIMMs kaufen wollte, nach unserer Rechnung rund 9,4 Billiarden Franken kosten. Brack, Digitec und Co. hätten Freude, aber auch die ganze Welt hätte etwas Mühe, sich das zu leisten.
Der Kern fehlt – aber die Grundidee könnte stimmen
Um in den Exabyte-Bereich vorzustossen – geschweige denn den Yottabyte-Bereich – muss der Speicher also drastisch billiger werden, als heutige Speicher. Genau dies versprach eigentlich die Memristor-Technologie, die HPE vor drei Jahren als Basis von The Machine ankündigte erstmals einen Prototyp bauen, in realen Computern einsetzbare darauf basierende Chips scheinen aber weiterhin nicht realisiert worden zu sein.
Dies hindert HPE aber nicht daran, an der Architektur, der Software und weiteren Komponenten von Computern zu arbeiten, die dereinst Memristoren oder ähnliche Speichertechnologien verwenden werden. Und auch falls Memristor-Speicher nie oder nicht in absehbarer Zeit Realität werden, könnte das von HPE im Rahmen des The-Machine-Projekts erarbeitete Know-how (und die dazugehörigen Patente) zukunftsträchtig sein.
Denn es gibt Alternativen zur Memristor-Technologie, die in den nächsten Jahren marktfähig werden sollten, zum Beispiel Intels und Microsoft "Xpoint 3D"-Speicher. Diese werden zwar kaum die gigantischen Kapazitäts- und Leistungssprünge bringen, wie sie HPE für Memristor-Speicher versprochen hat, im Prinzip haben sie aber ähnliche Eigenschaften. Sie können Daten persistent speichern, dabei so schnell oder noch deutlich schneller sein, als heutige RAM-Chips und dürften gleichzeitig ein viel besseren Preis-/Kapazitätsverhältnis aufweisen. In einigen Jahren könnten sie beginnen, sowohl die heutigen Arbeitsspeicher als auch Flash-Storagesysteme abzulösen und das "Memory-Driven" Computing, wie es HPE vorschwebt, ermöglichen. Auch wenn es dabei vorerst "nur" um Speichermengen im Petabytebereich und nicht um Exabytes gehen dürfte. (Hans Jörg Maron)
(Interessenbindung: HPE ist Werbekunde unseres Verlags.)

Loading

Mehr zum Thema

image

O2 will ab 2026 Hologramm-Telefonie anbieten

Allerdings wird man dafür zusätzlich zum Telefon eine Virtual-Reality-Brille benötigen.

publiziert am 4.12.2023
image

Google-Team: KIs können auch durch Nachahmung lernen

Ist damit schon die nächste KI-Revolution am Horizont?

publiziert am 29.11.2023
image

Der Switzerland Innovation Park in Allschwil wird vergrössert

Bis 2028 sollen auf dem Areal 5 neue Gebäude entstehen. Das Projekt kostet rund 350 Millionen Franken und wird privat finanziert.

publiziert am 28.11.2023
image

BFS: KI-Projekt stösst an die Grenzen der IT-Infrastruktur

Das Bundesamt für Statistik wollte Verläufe von Arbeitslosigkeit besser erfassen und prognostizieren. Im Machine-Learning-Projekt musste einiges korrigiert werden.

publiziert am 28.11.2023