

Intel will generative KI auf die PCs bringen
21. September 2023 um 14:47Der Intel-Chef Pat Gelsinger glaubt, dass es bei Nutzern ein Bedürfnis gibt, KI-Systeme im Stil von ChatGPT lokal und privat auf dem eigenen PC zu verwenden. Eine Einordnung.
Pat Gelsinger, der CEO von Intel, hat in seiner Keynote am Intel-Innovationskongress in San José, Kalifornien, das Aufkommen einer neuen PC-Klasse beschworen. "Künstliche Intelligenz verändert die Wissenschaft und sehr viele weitere Bereiche fundamental. Es entstehen neue Anwendungen und ganz neue Möglichkeiten für die Produktivität und Kreativität. Aber wir glauben, dass KI auch eine neue Ära für PCs einleitet: Die Generation der KI-PCs."
Was OpenAI, Microsoft, Google oder Nvidia für zentralisierte Systeme im High-end-Bereich wie ChatGPT, Bard oder Dall-E tun würden, sei sehr wichtig, so Gelsinger weiter. Aber noch grössere Möglichkeiten könnten sich ergeben, wenn jedermann solche Anwendungen auch privat und lokal auf dem eigenen PC nützen könne, beispielsweise Large Language Models (LLMs) im Stil von ChatGPT oder Bildgenerierungs-Algorithmen wie Stable Diffusion.
Die Idee von Gelsinger ist natürlich nicht uneigennützig. Solche KI-PCs müssten wohl leistungsstärker sein, als normale Business-Laptops oder -Desktops. Und damit auch teurer und lukrativer sowohl für PC-Hersteller als auch die Hersteller von Komponenten wie den Chipriesen Intel.
Wie stark muss ein KI-PC sein?
Eine grosse Frage ist, wie leistungsstark beziehungsweise wie teuer solche "KI-Maschinen" sein müssten. Dabei geht es nicht um das Training von KI-Modellen, das deutlich mehr Computer-Leistung bedingt, sondern das "Inferencing", die Ausführung von bereits trainierten Modellen.
Für LLMs haben wir keine griffigen Berichte zu diesem Thema gefunden. Das Open-Source-Bildgenerierungsprogramm Stable Diffusion kann man dagegen schon jetzt auf normalen PCs installieren und lokal betreiben. Gemäss Nutzerberichten ist die Installation recht kompliziert und benötigt technische Kenntnisse. Die Ergebnisse beim Betrieb scheinen aber zufriedenstellend. Laut Berichten zu den Hardwareanforderungen spielt vor allem die Grafikkarte eine Rolle für die Performance. Sie sollte gut sein, eine extreme High-End-Karte scheint aber nicht notwendig zu sein. Hardware-Sites wie 'How To Geek' empfehlen meist lediglich Mittelklasse-Grafikkarten sowie einen PC mit ausreichend RAM.
Es ist schwer, dies zu beurteilen, aber die Ausführung von LLMs, glaubt inside-it.ch, dürfte ähnliche, vielleicht sogar tiefere Hardwareanforderungen haben. Ein "KI-PC" könnte damit preislich über handelsüblichen Business-PCs liegen, aber nicht ganz so teuer sein, wie High-End-Gaming-PCs.
Um die Nachfrage nach solchen PCs zu schüren, braucht es unter anderem "Killer-Apps", die lokal betrieben werden könnten. Gelsinger zeigte in seiner Keynote ein KI-Plugin für das Musikprogramm Audacity sowie ein Stable-Diffusion-Plugin für das Open-Source-Bildbearbeitungsprogramm Gimp. Anwenderinnen und Anwender könnten damit direkt in Gimp KI-Bilder erstellen lassen.
Nach der Vorstellung von Intel sollten KI-Modelle für PCs auf dem hauseigenen Inferencing-Framework Openvino betrieben werden. Das gleiche Framework, so Gelsinger, könnte auch dazu verwendet werden, um kleinere KI-Modelle auf leistungsschwachen Devices, beispielsweise IoT-Geräten, zu betreiben.
Software-as-a-Service vs. lokaler Betrieb
Zentral betriebene generative KI-Modelle wie ChatGPT, Bard, Dall-E oder Midjourney haben die gleichen Vorteile wie andere Applikationen, die man im Software-as-a-Service-Modell nutzt: Anwender können sie einfach nutzen und müssen sich nicht um die Infrastruktur kümmern. Die Anbieter trainieren die Modelle, halten die Systeme auf dem neuesten Stand und sorgen für Sicherheit und gute Performance.
Der grosse Nachteil ist, dass alle Eingaben von Usern an die zentralen Server, wo die KI-Modelle laufen, übermittelt und dort auch gespeichert werden. Unter anderem werden diese Daten oft dazu verwendet, die Modelle weiter zu trainieren und zu verfeinern. Die entscheidende Frage ist aber, was ausserdem noch mit diesen Daten geschieht. Wie sicher werden sie gespeichert und wie lange? Die Betreiber von KI-Systemen könnten zudem verlockt sein, sie an Drittunternehmen zur weiteren Analyse weiterzuverkaufen. Oder Behörden, vor allem in den USA, könnten Zugriff verlangen.
Privatsphäre und Firmengeheimnisse
Für Privatanwender kann dies einen empfindlichen Eingriff in ihre Privatsphäre bedeuten. Die italienischen Datenschützer haben deshalb ChatGPT in diesem Frühjahr zeitweise gesperrt.
Unternehmen befürchten, dass Firmengeheimnisse in falschen Händen oder sogar bei der Konkurrenz landen könnten. Bei Samsung beispielsweise sorgten Angestellte für Aufruhr, die ChatGPT verwendeten, um Sitzungsprotokolle zusammenzufassen und hauseigenen geheimen Softwarecode abchecken zu lassen. Ähnliches ist auch bei anderen Firmen geschehen. Viele haben deshalb ihren Angestellten vorsorglich verboten, ChatGPT zu benützen.
Eine Nachfrage danach, die Möglichkeiten von modernen generativen KI-Modelle lokal nutzen zu können, könnte es also sowohl bei Privatanwendern wie auch bei Unternehmen geben. Ob diese Nachfrage wirklich gross ist, ist eine andere Frage. Entscheidend dafür dürften tatsächlich "Killer-Apps" für PCs sein, die zumindest fast so gut sind, wie die zentral betriebenen KIs. Aber wer entwickelt die? OpenAI, Microsoft oder Google wohl eher nicht.
Zudem versuchen OpenAI und Microsoft auch bereits, die Bedenken von Unternehmen zu zerstreuen. OpenAI hat eine ChatGPT-Version für Unternehmen lanciert, bei denen eingegebene Daten nicht für das Training verwendet werden sollen. Und Microsoft hat gerade erst einen OpenAI-Azure-Service mit lokaler Datenhaltung in der Schweiz angekündigt.
Loading
Riesige Spende für KI-Forschung an der ETH
Der Lidl-Gründer und mehrfache Milliardär Dieter Schwarz spendet der ETH eine grosse Summe Geld. Es entstehen 20 neue Professuren und ein Ableger in Deutschland.
Googles KI Gemini kann viel, aber noch nicht so viel wie OpenAI
Trotz beeindruckender Demos liegt der Techkonzern noch hinter OpenAI zurück, wie ein Blick auf Benchmarks zeigt. Google hat aber die Präsentation von Gemini frisiert.
Zwei KI-Professoren der ETH werden pensioniert
Zwei Veteranen der Künstlichen Intelligenz treten in den Ruhestand. Die ETH ernennt zugleich neue Professoren für KI und Informatik.
AWS und Google schiessen gegen Microsoft
Die beiden Cloud-Anbieter werfen Microsoft wettbewerbswidrige Praktiken vor. Der Ball liegt jetzt bei der britischen Regulierungsbehörde.