Red Hat: It's the Automation, stupid

15. August 2023 um 13:38
image
Chris Wright, Chief Technology Officer von Red Hat. Foto: zVg

Red Hats Tech-Chef Chris Wright im Interview über seine KI-Ambitionen, die grossen Herausforderungen seiner Kunden und warum er Autos spannend findet.

Seit fast 18 Jahren ist Chris Wright bei Red Hat tätig. Als CTO lenkt er die Entwicklung und Innovation beim Unternehmen. Wir haben mit dem US-Amerikaner über die Firmen-Strategie, neue Geschäftsfelder und die wichtigsten Ankündigungen des jährlichen Summits gesprochen.
Herr Wright, was waren Ihre persönlichen Highlights am Red Hat Summit 2023?
Chris Wright: Das schönste war, sich wieder persönlich zu begegnen. Auch vergangenes Jahr haben wir einen physischen Event durchgeführt, aber der war hybrid und entsprechend kleiner angelegt. Jetzt konnten wir uns endlich wieder in einem gewohnt grossen Rahmen treffen und uns intensiv austauschen. Das war fantastisch, die Energie unglaublich.
Wir bei Red Hat sprechen schon seit geraumer Zeit über "Hybrid Cloud". Langsam sieht man aber auch, dass es für die Kunden immer realer wird und immer mehr Anklang findet. Das Gleiche gilt für Edge, ein Bereich, der sich von frühen Gedanken zu realen Produkten in der Industrie entwickelt hat. Red Hat arbeitet seit Jahren an diesen Themen und es ist schön zu sehen, wie alles zusammenkommt.
Liegt das an den Kunden oder hat sich die Strategie von Red Hat in den letzten Jahren verändert?
Unsere Strategie ist seit vielen Jahren sehr konsistent: Wir sprechen von einer Open Hybrid Cloud. Der offene Teil ist, glaube ich, ziemlich einfach: Es geht um Open Source, aber auch um offene APIs und offene Ökosysteme. Bei der Hybrid Cloud geht es um die Bereitstellung von Anwendungen in Rechenzentren, in einer oder mehreren Public Clouds oder sogar um die Auslagerung von Anwendungen an den Edge.
Es geht darum, welche Tools und Plattformen Kunden benötigen, um in der Hybrid Cloud effektiv zu sein. Unsere Prämisse war schon immer, dass es kein einheitliches Ziel beim Deployment gibt. Auch wenn für Anwender "hybrid" nicht das Ziel war, hat sich der Zustand ganz natürlich entwickelt. Denn nicht alles wird immer und sofort in eine Cloud verlagert. Ein Teil des Portfolios geht zu einem Cloud-Anbieter, ein anderer Teil bleibt im eigenen Rechenzentrum. Was wir tun, hat sich nicht verändert. Aber es gab Bewegung im Markt und neue Herausforderungen, die bei den Kunden ganz oben auf der Agenda stehen.
Was sind das für Herausforderungen?
Ganz allgemein würde ich vier Bereiche nennen, die fast alle Unternehmen beschäftigen. Zum einen ist es das Ziel, sich mit seiner Technologie zu differenzieren und sich einen Wettbewerbsvorteil zu verschaffen. Jede Firma wird zur Softwarefirma, auch wenn sie keine Software verkauft. Das heisst, auch nicht-IT-Firmen müssen sich überlegen, wie ihre Entwickler-Teams möglichst effizient sein können. Sie müssen auch verstehen, wie sie Daten sinnvoll nutzen können, aber auch, ob und wie daraus entwickelte Modelle zu den Unternehmenszielen passen. Machine-Learning-Modelle müssen stets angepasst werden, was neue Abläufe in den Unternehmen mit sich bringt.
"MLOps" ist hier das Stichwort. Wenn ein Unternehmen datengetrieben arbeiten möchte, braucht es erfahrene und teure Ressourcen wie Datenwissenschaftler. Damit besteht aber auch das Risiko, dass viel Arbeit geleistet wird, die nicht auf ein Business-Ziel ausgerichtet ist oder die nicht in der Produktion verwendet werden kann.
Machine Learning bringt oft auch neue Datenschutz-Fragen mit sich.
Ja, eine zweite grosse Herausforderung ist Compliance. Dies hat einerseits mit Security und Resilienz zu tun, andererseits auch mit Regulierungen. Letzteres kann gerade für international tätige Firmen viel Aufwand bedeuten. Eine Konsequenz kann sein, dass eine Firma in unterschiedlichen Regionen unterschiedliche Cloud-Modelle einsetzt. Dies bringt viel Komplexität mit.
Und dann gibt es noch zwei Aspekte, die sozusagen alles überschatten. Das ist das makroökonomische Umfeld einerseits und der Mangel an Fachkräften andererseits. Es gibt nicht viele Fachleute auf dem Markt und die Unternehmen stellen nicht unbedingt massiv Personal ein. Sie wollen sich um Automatisierung und teilweise um KI-Technologien kümmern. Das bringt uns zurück zum ersten Punkt: Wie macht man Entwickler- und Operations-Teams wirklich effizient und effektiv? Passt all das in diesem breiten makroökonomischen Klima zusammen?
Ein omnipräsentes Thema für Firmen ist Security. Red Hat hat in Boston Lösungen vorgestellt, um die Supply-Chain-Sicherheit zu verbessern. Um was geht es hier?
In den vergangenen Jahren gab es eine Reihe prominenter Vorfälle. Die Solarwinds-Attacke ist nur ein Beispiel, aber sie illustriert grundlegende Probleme: Wie weiss man, woher Software kommt, was unterwegs mit ihr passiert ist und wo sie überall produktiv im Unternehmen eingesetzt wird? Red Hat musste sich schon immer damit befassen, weil wir in Open-Source-Communitys arbeiten. Wir kuratieren Inhalte und liefern diese dann als Produkte an unsere Kunden.
Diese Fähigkeiten wollen wir mit "Red Hat Trusted Software Supply Chain" auch für unsere Kunden zugänglich machen. Dazu gehört beispielsweise "Trusted Content", eine Datenbank mit Software und Softwarepaketen. Diese wurden überprüft und es ist sichergestellt, dass sie keine Hintertüren oder andere Lücken enthalten. Ein weiterer Teil ist "Trusted Application Pipelines", die die CI/CD-Pipeline verifizieren sollen. Im Prinzip geht es darum, Software-Hygiene umzusetzen und zu wissen, was in einer Applikation steckt. Was für eine Herausforderung das sein kann, illustrierte der Log4J-Vorfall eindrücklich. Bugs wird es immer geben, deshalb ist es umso wichtiger zu wissen, wo Tools produktiv eingesetzt werden.
Beim Thema Software-Bugs muss ich an generative KI denken. Wird es künftig weniger Bugs in Code geben oder verschärfen sich damit Probleme?
Wir sind an einem Punkt angekommen, wo der Output von generativer KI einigermassen gut ist. Die Tools werden immer besser, weshalb sie wohl bald Teil der Softwareentwicklung sein werden. Aber ich möchte das "ein Teil" betonen. Generative KI wird Entwicklerinnen und Entwickler nicht ersetzen. Aber die Tools können sehr gute Entwürfe liefern, was wiederum die Produktivität steigert. Wir können allerdings erwarten, dass auch mit KI generierte Software den einen oder anderen Bug enthalten wird. Hoffentlich wird er im Review-Prozess entdeckt. Und wenn nicht, dann im Testing- oder Validations-Prozess – so wie es mit von Menschen geschriebenem Code auch passiert.
Auch von Red Hat gab es am Summit Ankündigungen zum Thema generative KI. Wo positioniert sich Red Hat in der Welt der Large Language Models?
Wir haben zwei Blickwinkel auf das Thema: Einerseits geht es darum, wie wir die Fähigkeiten von generativer KI in unser Portfolio einbinden können. Andererseits geht es um die Datenerfassung, das Training und die Verwaltung von Modellen. Letzteres sind Fähigkeiten, die in unserer Openshift-AI-Plattform stecken. Das IBM-WatsonX-Portfolio baut auf dieser Plattform auf.
image
Chris Wright auf der Bühne des Red Hat Summits. Foto: zVg
Damit sind wir eine Plattform für die Erstellung von Modellen. Gleichzeitig stammt die generative KI, die wir nutzen, von IBM und seinem WatsonX-Portfolio. Darauf baut Red Hat mit kuratierten Daten spezifische Produkte auf, wie zum Beispiel Ansible Lightspeed. Das Tool ermöglicht es, Ansible Playbooks statt in Code in natürlicher Sprache zu verfassen. Damit sind wir auch eine Plattform für die Bereitstellung von Modellen. Schliesslich wollen wir Entwicklerinnen und Entwickler – in diesem konkreten Beispiel Developern für die Automatisierung von Ansible Playbook – effizienter machen. Diese Art von KI-Fähigkeiten wollen wir in verschiedenen Bereichen unseres Portfolios einbinden.
Red Hat will nicht der nächste grosse Entwickler eines LLMs werden, das ist nicht unsere Kernkompetenz. Wir setzen auf Partnerschaften. Unsere Mutterfirma IBM ist der wichtigste Partner, aber wir werden auch mit der Open-Source-Community zusammenarbeiten, wo es sehr viel Bewegung gibt. Wir setzen auf Bereiche, wo es die grösste Kundennachfrage und die beste Technologie gibt. Und diese Technologie werden wir als Partner in unser Ökosystem einbinden.
Und wie geht es weiter? Wo setzen Sie die Prioritäten für die nächsten Jahre?
Details kann ich natürlich keine verraten. Aber wir werden sicher weitere Neuigkeiten rund um KI auf den Markt bringen, so wie es sie für Ansible gibt. Ein einfaches Bespiel wäre Kubernetes YAML, das verwendet wird, um die Bereitstellung einer Anwendung auf Openshift zu beschreiben. Mit generativer KI könnte das vereinfacht werden. In einem ähnlichen Kontext schauen wir, wie der Betrieb unserer Plattform mit Automatisierung verbessert werden kann, etwa beim Deployment und Lifecycle-Management. Welche Daten erhalten Anwender von Logfiles und wie könnte generative KI den Operations-Teams helfen, wenn es Performance-Probleme gibt? Noch ist das nicht Realität, aber ich sehe sehr viele Möglichkeiten für "KI-Ops", Effizienz zu schaffen. Automatisierung ist ein wichtiger Bereich für uns. Die Frage ist nun: Wie kann man die Automatisierung mit KI automatisieren.
Dann gibt eine Menge Anwendungsfälle, die zufällig auf KI ausgerichtet sind, aber am Edge ausgeführt werden. Sprich, wie kann man Daten sammeln, analysieren und am Edge-Standort in Echtzeit auf Erkenntnisse reagieren, egal ob es sich dabei um Sensordaten oder Videoinhalte handelt. Die Machine-Learning-Modelle werden typischerweise auf Cloud-Plattformen trainiert, eingesetzt werden Lösungen dann aber am Edge-Standort. Dieser ganze Prozess des Ablaufs – vom Training in der Cloud über den Einsatz am Edge hin zur Anwendungslogik um das Modell herum – ist ein spannender Bereich.
Das Stichwort Edge ist ja nicht mehr ganz neu.
Wir arbeiten seit einigen Jahren an diesem Thema und jetzt sehen wir, dass die Use Cases immer ausgereifter werden. Es gibt auch immer mehr Branchen, die sich mit Edge-Computing beschäftigen. Ein wichtiger Partner und Kunde von uns in der Schweiz ist ABB. Gemeinsam haben wir an einem Projekt gearbeitet, das sich auf Industrieautomatisierung konzentriert und KI in den industriellen Edge bringt. Hier spielen viele Themen, die ich bereits angesprochen habe, eine wichtige Rolle: Wie lässt sich die Supply Chain sichern, wie können Policies durchgesetzt werden und wie lässt sich sicherstellen, dass CISOs einen umfassenden Überblick über die Risiken haben?
Wir haben über Hybrid Cloud, KI und Edge gesprochen. Welche anderen Bereiche sind für Red Hat wichtig?
Red Hat hat eine grosse Investition in die Automobilindustrie getätigt und ein Betriebssystem für Autos entwickelt, unser In-Vehicle OS. Vergangenes Jahr haben wir eine Partnerschaft mit General Motors angekündigt und der Bereich entwickelt sich rasant weiter. Derzeit handelt es sich um ein sicheres Linux OS, das in Fahrzeugen eingesetzt werden kann, aber es gibt weitere Bereiche. Es gibt eine Menge von Möglichkeiten für Linux, beispielsweise in der Industrieautomatisierung oder der Luft- und Raumfahrt. Wir haben Linux und Kubernetes bereits in den Weltraum gebracht, was an sich schon sehr aufregend ist. Eine neue Ebene wäre es, unser Linux in die Guidance-Systeme für Drohnen einzubauen, die beispielsweise Räume inspizieren, die für Menschen nicht sicher sind. Es ist wirklich ein spannender Bereich für Open Source und Linux. Wir beginnen mit Fahrzeugen, stellen sicher, dass wir die Anforderungen an die Sicherheit erfüllen können, und wachsen dann weiter in diese aufregenden neuen Bereiche hinein.

Loading

Mehr zum Thema

image

Alibaba Cloud: KI und Cloud für Europa & Schweiz

Alibaba Cloud, das Technologie- und Intelligenz-Rückgrat der Alibaba Group, treibt die digitale Transformation globaler Unternehmen voran, auch in der Schweiz und Europa. Mit KI, sicherer Infrastruktur & nachhaltigen Lösungen unterstützt es über 4 Mio. Firmen, darunter Fortune-500-Unternehmen.

image

Optimieren Sie Ihren Workflow mit CENT Systems

Das Bewusstsein für die Bedeutung von Workflow-Optimierungen in Schweizer Unternehmen steigt. Zu diesem Schluss kommt Sascha Büchler, Leiter Innovation und Digital New Business bei CENT Systems, nach seiner Teilnahme am Web Summit in Lissabon, einer der weltweit grössten Tech-Konferenzen.

image

Kanton Schwyz kann mit Microsoft 365 loslegen

Zahlreiche Anwendungen sollen mit M365 gebündelt werden. Upgreat hat den Auftrag dafür erhalten.

publiziert am 21.2.2025
image

An Basler Schulen wird Copilot eingeführt

Der Regierungsrat von Basel-Stadt hat sich zum Thema KI im Bildungswesen geäussert. Ein datenschutzkonformer Einsatz von Microsoft Copilot soll ab Sommer stattfinden.

publiziert am 21.2.2025