Kevin Miller ist VP Global Data Centers von AWS. Im Interview spricht er über die Cloud in Europa, RZ-Entwicklungen, Klimaziele und wie der Hyperscaler KI einsetzt.
AWS investiert in Europa. In der Schweiz will der Hyperscaler bis 2036 knapp sechs Milliarden Franken ausgeben, auch in anderen europäischen Ländern wurden in den letzten Monaten Milliardeninvestitionen angekündigt. Kevin Miller arbeitet seit 16 Jahren für Amazon, seit 2023 ist der Informatiker Vice President Global Data Centers von AWS und leitet unter anderem das RZ-Entwicklungsteam. Inside-it.ch traf Miller zum Gespräch am "AWS Summit" in Zürich.
Wie entwickelt sich AWS in Europa?
Wir sehen weiterhin eine grosse Nachfrage nach AWS-Diensten, und wir sehen eine steigende Nachfrage nach generativen KI-Funktionen. Wir haben bereits eine Reihe von Regionen in Europa, und unsere Philosophie besteht darin, diese Regionen zu skalieren, damit die Kunden sich darauf verlassen können, dass die Kapazität verfügbar ist, wenn sie sie brauchen. Deshalb investieren wir weiterhin in der Schweiz, in Spanien, in Frankreich und anderswo in Europa.
Die Schweiz hat seit 2022 eine eigene AWS-Region. Welche wird als nächstes eröffnet?
Ich habe noch keine Einzelheiten, wohin wir als nächstes gehen. Die Schweiz war unsere letzte Region, die wir in Europa eröffnet haben. Wir bauen hierzulande und in anderen Regionen in der Umgebung, einschliesslich Frankfurt, weiter aus. Ausserdem haben wir angekündigt, dass wir in der Region Brandenburg eine European Sovereign Cloud starten.
Was war der Gedanke hinter der Eröffnung dieser europäischen Sovereign Cloud?
Es gibt eine Reihe von Kunden, die ein zusätzliches Mass an Gewissheit brauchen, dass die Verarbeitung und die Abläufe vollständig von europäischen Bürgerinnen und Bürgern kontrolliert werden, und das ist der Ursprung der Idee der Sovereign Cloud. Wir erwarten, dass es einen kleinen Teil an Workloads geben wird, die wirklich in dieser Umgebung laufen müssen. Die Workloads der meisten Kunden können in einer der vielen Regionen laufen, die wir bereits in Europa zur Verfügung haben. Die Sovereign Cloud eignet sich zum Beispiel für Unternehmen, die im Finanzsektor tätig und stärker reguliert sind.
In der Schweiz hat AWS zusammen mit anderen Hyperscalern den Public-Cloud-Auftrag des Bundes erhalten. Dabei wurde auch diskutiert, was der Cloud Act der USA für die dort gespeicherten Daten bedeuten könnte.
Kevin Miller.
Unsere Kunden haben immer die Kontrolle über ihre Daten, und wir greifen niemals auf Kundeninhalte zu. Wir sind verpflichtet, die gesetzlichen Vorschriften der Rechtsräume, in denen wir tätig sind, einzuhalten, und wir halten uns auch daran. Ich möchte Sie aber auch auf unseren halbjährlichen Bericht zu Sicherheitskontrollen verweisen. In diesem Bericht geben wir an, wie oft wir Daten an eine Regierung weitergeben mussten, und darin können Sie herauslesen, dass wir keine Daten weitergegeben haben. Wir setzen uns mit allen Kunden zusammen und gehen die Kontrollen durch. Wir haben auch das AWS Nitro-System, das ein zusätzliches Mass an Sicherheitskontrolle und für die Verschlüsselung von Inhalten bietet.
Wenn Sie sich Rechenzentren ansehen, was waren die wichtigsten Schritte, die in den letzten drei, vier Jahren passiert sind?
Es gibt viele Innovationen in Rechenzentren, über die sich Kunden vielleicht gar nicht im Klaren sind, von denen sie aber durch verbesserte Resilienz, reduzierten CO2-Fussabdruck und Nachhaltigkeit profitieren. Ein Teil meiner Organisation leitet unser internes Entwicklungsteam für Rechenzentren, wo wir unsere eigenen elektrischen Versorgungssysteme und unsere eigenen mechanischen Systeme entwickeln. Wenn wir die nächste Welle der Einführung von GPUs und generativer KI in Betracht ziehen, sehen wir weitere Innovationen, insbesondere bei der Kühlung.
Wenn Sie KI-Cluster erstellen, möchten Sie so viele GPUs wie möglich auf kleinstem Raum unterbringen. Das führt dazu, dass neuartige und innovative Methoden zur Kühlung der Chips erforderlich sind, die über herkömmliche Luftkühlungstechniken hinausgehen. Im Moment gibt es also eine Menge an Innovationen im Bereich der Kühltechnologie. Mein Team arbeitet bereits seit über einem Jahr daran, und es wird noch viel mehr dazu kommen.
Wenn ein neues Rechenzentrum gebaut wird, stellt sich immer auch die Frage des Stromverbrauchs, nach dem Platzbedarf oder nach dem Ort, wo es stehen wird.
Racks in einem AWS-RZ.
Wir haben mehrere Jahre Erfahrung in der Entwicklung von neuen Funktionen, die den Stromverbrauch für dieselbe Rechenleistung reduzieren. Wir haben unsere eigenen Graviton-Prozessoren sowie die KI-Chips Trainium und Inferentia. Diese Prozessoren sind viel energieeffizienter. Wir bauen sie oft in Racks ein, die an die Rechenzentren geliefert werden. Dabei kann man weitere Optimierungen vornehmen, um die elektrischen Verluste innerhalb der Racks zu minimieren.
Gleichzeitig gibt es eine wachsende Nachfrage nach Rechenkapazitäten, und das ist, was uns wirklich dazu antreibt, neue Rechenzentren zu bauen. Wenn wir bauen, arbeiten wir immer eng mit den Gemeinden vor Ort zusammen. Wir wollen verstehen, was die Gemeinde braucht, was sie von den Rechenzentren erwartet, wo die Gebäude gebaut werden sollen und wie sie aussehen sollen.
Wir sind flexibel, was den Bau angeht. Wir können RZs eingeschossig bauen und etwas mehr Land beanspruchen oder weniger Land beanspruchen und sie höher bauen. Amazon hat sich verpflichtet, bis 2040 CO2-neutral zu werden. Zudem wollen wir bis 2025 100% unseres Energiebedarfs durch erneuerbare Energien decken. Das haben wir letztes Jahr tatsächlich schon erreicht und sind sehr stolz darauf.
Tauchen wir ein das KI-Zeitalter ein, wie Sie es nennen. Was sind Anwendungen, die für Sie wirklich interessant sind?
Unsere Kunden nutzen AWS-AI-Dienste, um Codemigrationen durchzuführen, um Legacy-Software zu ersetzen oder um andere Änderungen zur Modernisierung vorzunehmen. Sie verwenden KI, um zu ermitteln, wo die Änderungen vorgenommen werden müssen. Natürlich gibt es immer noch einen menschlichen Entwickler, der sich diese ansieht und sie genehmigt.
Aber es erspart dieser Person eine Menge der Mühe, jede Zeile der gesamten Pakete durchgehen zu müssen. Normalerweise gibt es viele Dateien, die für die Änderung, die man vornimmt, nicht relevant sind, aber man muss sie sich trotzdem ansehen und sie überprüfen. Jetzt verwendet man KI, um diese Art von umfassender Suche durchzuführen. Das ist eine wirklich coole Verbesserung.
Haben Sie noch ein weiteres Beispiel?
Ein weiteres Beispiel, das mir derzeit sehr am Herzen liegt, ist etwas, das wir in meinem Team tun. In jeder Art von Betriebsumgebung gibt es normalerweise Tausende von Seiten Dokumentationen, die sich auf den Betrieb der Anlage beziehen. Für mich ist das der Betrieb eines Rechenzentrums. Wir haben dafür tatsächlich einen Standard, der es uns ermöglicht, unsere Rechenzentren sehr ähnlich zu bauen. Trotzdem kann es geringfügige Abweichungen geben. So gibt es immer einen allgemeinen Wissenssatz, der dann um spezifisches Wissen über eine bestimmte Anlage ergänzt wird. Wir benutzen generative KI unter anderem dafür, all diese Informationen zu katalogisieren und unseren Rechenzentrumsbetreibern zu helfen, fundierte Entscheidungen über den Ansatz zu treffen, der in einem bestimmten Gebäude verwendet werden muss.
Wie sieht die KI-Strategie von AWS aus?
Wir denken bei KI in drei Schichten. Es gibt die Basisschicht der Infrastruktur, und wir arbeiten weiterhin an Innovationen auf diese Ebene, bei Training, Inferenz und Prozessoren. Auf der mittleren Schicht bauen wir dann Dienste wie Amazon Bedrock auf, die die Verwendung von mehreren KI-Modellen zulässt und sich in andere Anwendungen integrieren lässt. Dann haben wir in der obersten Schicht des Stacks die Endnutzeranwendungen der KI, die wir bauen. Diese helfen dabei, die Leistungsfähigkeit von generativer KI zu nutzen, ohne etwas über die Modelle wissen zu müssen. Sie können einfach sagen: "Hier sind meine Daten, hier ist mein Problem. Was ist die richtige Antwort?" Dafür haben wir den KI-Assistenten Amazon Q.
Blicken wir in die Zukunft. Gibt es einen Bereich, wo etwas passiert, das alle überraschen wird?
Ich persönlich denke, dass die Anwendung generativer KI in verschiedenen Bereichen viel ungenutztes Potenzial birgt. Wir haben Beispiele von Kunden, die generative KI beispielsweise einsetzen, um neue Proteine oder neue Wege zur Entwicklung von Medikamenten zu identifizieren und die Entdeckung und letztendlich die Herstellung von Therapien für verschiedene Erkrankungen zu beschleunigen. Es besteht also die Hoffnung, das Leben der Menschen durch den Einsatz generativer KI in verschiedenen Bereichen wirklich grundlegend zu verbessern. Ich denke, es wird einfach grossartig sein, sich zurückzulehnen und zuzusehen, wie sehr dies die Welt verbessern wird.
Interessenbindung: Inside IT ist offizieller Medienpartner des "AWS Summit Zurich".