Blick in die IT der Zukunft

24. September 2014, 13:51
  • technologien
  • ibm
  • f&e
  • eth
image

Bei IBM in Rüschlikon wird von Security bis Nanotechnologie geforscht. Drei IT-orientierte Beispiele aus den vielen aktuellen Projekten.

Bei IBM in Rüschlikon wird von Security bis Nanotechnologie geforscht. Drei IT-orientierte Beispiele aus den vielen aktuellen Projekten.
Das IBM-Forschungslabor in Rüschlikon lädt regelmässig Medienvertreter aus ganz Europa ein, um über die aktuellen Fortschritte an verschiedenen Forschungsschwerpunkten zu berichten. Neben der mit Partnern entwickelten multifunktionalen Solaranlage "Sunflower" und einem Mittagsbuffet auf Basis von ungewöhnlichen Rezepten, die mit Hilfe von IBMs Watson-Technologie für kognitives Computing entstanden sind, vermittelte die 2014er-Ausgabe des Medientags Einblicke in vielfältigste Forschungsbereiche von IT-Security bis Nanotechnologie.
Mehr Privatsphäre mit Identity Mixer
Der typische Zeitgenosse nutzt immer zahlreichere Online-Services und gibt bei der Registrierung oder bei diversen Transaktionen jeweils eine Vielzahl persönlicher Daten an. Manche davon wären für den fraglichen Dienst gar nicht nötig, werden aber trotzdem verlangt oder implizit übermittelt. Der renommierte Kryptografiespezialist Jan Camenisch erläuterte das Problem am Beispiel des Film-Streamings: Wirklich wissen muss der Streaming-Anbieter nur, ob der Nutzer ein gültiges Abo oder einen Voucher hat und ob er altersmässig den Vorgaben wie etwa "ab 18" entspricht. Das genaue Geburtsdatum und weitere persönliche Angaben sind unnötig.
Die von IBM entwickelte Identity-Mixer-Technologie macht es möglich, dass bei der Authentifizierung jeweils nur die tatsächlich benötigten Attribute übermittelt werden. Es handelt sich um ein kryptografisches Protokoll, das ähnlich wie eine klassische Public-Key-Infrastructure (PKI) aufgebaut ist, im Unterschied dazu aber für den Nutzer nicht nur einen einzigen Public Key als Generalschlüssel vorsieht. Vielmehr können für jeden zu authentifizierenden Service ("verifier") oder sogar für jede einzelne Transaktion beliebige Pseudonyme eingesetzt werden, die jeweils nur für ausgewählte Attribute gelten ("attribute-based credentials"). Camenisch nennt dies "privacy-preserving authentication". Ein zusätzlicher Vorteil liegt darin, dass die Authentifizierungsvorgänge nicht miteinander korreliert werden können – im Gegensatz etwa zur "Anmeldung via Facebook", bei der zumindest Facebook einen genauen Überblick hat, wer sich wann und wo angemeldet hat.
Eine Referenzimplementation von Identity Mixer steht unter einer Open-Source-Lizenz zur Verfügung.
Computersimulation, Big Data und Cloud für bessere Diagnosen
Zusammen mit der ETH Zürich simuliert IBM mit Hilfe des Supercomputers Blue Gene – aktuell in der wassergekühlten Generation Q mit einer Leistung von 172 Teraflop/s zu haben – die Struktur des äusserst komplex aufgebauten menschlichen Knochens: Die schwammartigen Mikrostrukturen im Knocheninneren, Spongiosa genannt, tragen den Löwenanteil zur Stabilität des Knochens bei.
Das Ziel der Forschung: Ärzte sollen in Zukunft bessere Werkzeuge zur Diagnose der Osteoporose erhalten. Die Erkrankung betrifft weltweit 200 Millionen Frauen, birgt auch für Männer eine nicht unerhebliche Gefahr und führt laut der European Osteoporosis Foundation in Europa zu mehr Invalidität als Krebs.
Sie wird oft erst nach einem Knochenbruch festgestellt, wenn sie bereits weit fortgeschritten ist, und bisher mit Hilfe von speziellen Röntgen- und CT-Untersuchungen diagnostiziert – laut IBM ist dies Knochendichtemessung jedoch ein sehr empirischer Prozess mit hohen Ungenauigkeiten. Mit den Computersimulationen lassen sich sogenannte Heat Maps erstellen, die genau zeigen, wo der Knochen in welchem Mass belastbar ist. So kann zum Beispiel bestimmt werden, an welcher Stelle bei einer Operation eine Schraube eingesetzt werden soll, ohne dass der Knochen dabei zerbricht.
Was bisher nur mit Supercomputern möglich war, kann künftig mit speziell beschleunigten POWER-8-Systemen direkt in der Klinik erfolgen. Ein System in der Grösse eines kleinen Server-Racks soll innert Minuten tausende von Osteoporose-Modellen verarbeiten können. Unterstützt durch eine cloudbasierte Wissensdatenbank aus den Röntgen- und CT-Untersuchungsdaten von Millionen von Osteoporosepatienten werden Ärzte, so IBM, in der Lage sein, Ihre eigenen Patientendaten und Simulationen für eine präzisere und frühzeitigere Diagnose der Osteoporose zu nutzen.
Microserver für die Big-Bang-Analyse
Im Jahr 2024 wird, wenn es plangemäss läuft, das "Square-Kilometre-Array" (SKA) mit dem Sammeln von Radiosignalen aus den tiefsten Tiefen des Universums beginnen. Aus einer Installation von tausenden von Antennen in Südafrika und Australien werden tagtäglich 14 Exabyte an Daten anfallen; nach einer ersten Triage wird ein Petabyte davon für weitere Analysen gespeichert. Das Ganze gilt als ultimatives Big-Data-Problem. Das Ziel des Forschungsvorhabens ist es, das Universum zur der Zeit zu kartografieren, in der die ersten Galaxien und Sterne entstanden sind.
Um diese riesigen Datenmengen mit einem vertretbaren Energieaufwand verarbeiten zu können, entwickeln IBM und das niederländische Institut für Radioastronomie ASTRON im Rahmen des fünfjährigen Projekts DOME eine Roadmap für eine besonders leistungsfähige High-Performance-Computing-Architektur. Als zentrales Computing-Element ist ein Microserver auf Basis eines Chips vorgesehen, auf dem ausser dem Speicher sämtliche Elemente eines klassischen Server-Motherboards untergebracht sind. Aktuell existieren Prototypen mit einem PowerPC-basierten Freescale-Chip, auf denen Fedora Linux und IBMs Datenbank DB2 laufen. Zusammen mit dem Memory ist der Chip auf einer Platine von 133 x 55 Millimeter untergebracht. Traditionelle Server-Boards sind laut IBM 4 bis 10 Mal grösser. Der Plan ist es, viele solche Microserver-Boards dicht gedrängt in einem Rack zu kombinieren, das für die gemeinsame Stromversorgung und Kühlung sorgt.
Der Microserver soll also extrem kompakt aufgebaut sein und auch äusserst energieeffizient arbeiten. Er wird deshalb weder durch einen voluminösen Luft-Kühlkörper gekühlt, noch mit kaltem Wasser, das energieaufwendig vorgekühlt werden müsste. Um den Chip konstant auf unter 85 Grad Celsius zu halten, wird Warmwasser mit einer Temperatur von rund 60 Grad benutzt. Ein Element des Kühlsystems ist eine mehrere Millimeter dicke Kupferplatte, die gleichzeitig für die Stromversorgung zuständig ist.
Die Warmwasserkühlung hat IBM zusammen mit der ETH entwickelt – an der ETH Zürich läuft seit 2010 ein Supercomputer mit diesem "Aquasar" genannten Kühlsystem. Die Abwärme wird dabei zum Heizen des Gebäudes genutzt. Ein weiterer Aquasar-gekühlter Supercomputer ist der SuperMUC im Leibniz-Rechenzentrum in Garching bei München.
Zurück zum DOME-Microserver. Hier zielen die IBM-Ingenieure um den Projektverantwortlichen Ronald P. Luijten ein Energieprofil von 35 bis 40 Watt pro Microserver an; im Moment steht man bei 60 Watt. Als nächster Schritt ist vorgesehen, 128 12-Core-Microserver-Boards zusammen mit einem Ethernet-Switch und der Wasserkühlung in einem Rackgehäuse mit zwei Höheneinheiten zu kombinieren; das Gesamtsystem wird also 1536 Prozessorkerne enthalten, dazu kommen 6 Terabyte DRAM. "Ich nenne es ein Datacenter-in-a-box", meint Luijten. (Urs Binder)

Loading

Mehr zum Thema

image

Elektroflugzeug E-Sling hebt ab

Das von ETH-​Studierenden entwickelte vierplätzige E-Flugzeug ist zum ersten Mal abgehoben. Am Projekt wurde im Innovationspark in Dübendorf gearbeitet.

publiziert am 30.9.2022
image

Hausmitteilung: Aus C36daily wird ICT Ticker

Wir modernisieren den ICT-Medienspiegel C36daily und geben diesen neu unter dem Namen ICT Ticker heraus. Am bisherigen Format mit kuratierten Inhalten ändert sich nichts.

publiziert am 30.9.2022
image

Wie es um die Umstellung zur QR-Rechnung steht

Die roten und orangen Einzahlungsscheine gehen in den Ruhestand. Wir blicken auf die Einführung der QR-Rechnung zurück und haben bei SIX und Anbietern von Business-Software zum aktuellen Stand nachgefragt.

publiziert am 29.9.2022 5
image

Googles Suchfunktion erhält neue Features

Die visuelle Suche wurde verbessert und es gibt neu einen Suchoperator, mit dem sich Ergebnisse aus der unmittelbaren Umgebung anzeigen lassen.

publiziert am 29.9.2022