Den Lesern dieser Kolumne dürfte es nicht entgangen sein, dass ich zu den vorsichtigen Befürwortern der Künstlichen Intelligenz gehöre, solange sie nicht verantwortungslos, unreflektiert, unkontrolliert und vor allem ohne Qualitätssicherung eingesetzt wird.
Viele Probleme zeigen sich erst im breiteren Einsatz, viele Knacknüsse warte noch auf eine Lösung. Hier will ich einige davon beschreiben, vor allem solche, die sich auf den Einsatz von Anwendungen der generativen KI wie beispielsweise Copilot beziehen.
Grosse Datenmengen als Grundvoraussetzung
Bereits einige Monate vor dem fulminanten Auftritt von ChatGPT war klar, dass Verfahren, die auf statistischen Modellen und auf maschinellem Lernen basieren, grosse Mengen qualitativer Daten benötigen, um wirklich gute Resultate zu bringen. Oder genauer gesagt, wenn eine Anwendung mittels KI automatisiert werden soll, dann müssen zu Trainings- und Testzwecken eine Vielzahl von Datensätzen bereitgestellt werden, die die Anwendung repräsentativ darstellen. Diese Daten dienen dann als Grundlage für die das Training eines Large Language Models (LLM).
Bevor ich zu möglichen Optionen komme, wie mögliche Datenlücken geschlossen werden können, will ich kurz einige typische Beispiele erwähnen, weshalb zum Zeitpunkt der Entwicklung einer KI-Anwendung Datensammlungen fehlen können:
- Viele Unternehmens-Prozesse waren bislang nicht digitalisiert. Deswegen gibt es oft nur wenige Daten oder lediglich Prozessbeschreibungen, die sich nicht für die Zwecke der KI eignen; oder
- es sind zwar Daten vorhanden, aber diese Daten sind verschmutzt und nicht repräsentativ, zum Beispiel Sprachdaten, die mit suboptimalen Mikrofonen aufgenommen wurden oder Umgebungsgeräusche enthalten; oder
- Daten sind vorhanden, jedoch enthalten sie möglicherweise persönliche oder vertrauliche Angaben und sind daher aus Datenschutzgründen nur mit Einwilligung verwendbar. Aus geschäftspolitischen Gründen wird deswegen oft auf die Verwendung solchen Materials verzichtet; oder
- es sind Daten vorhanden, aber viel zu wenige und die Generierung der Daten ist sehr zeitaufwändig und teuer.
Es ist kein Wunder, dass aus den genannten Gründen solche Unternehmen diese Lücke füllen, deren Business-Modell die professionelle Sammlung von Daten beinhaltet. Zu den bekannteren Unternehmen, die mit ihren LLMs den Markt dominieren, gehören
- OpenAI mit seiner GPT-X-Familie an Sprachmodellen und der gleichnamigen Chatbot-Lösung ChatGPT bezieht Datenquellen aus dem Internet. Die Datensammlungen umfassen z.B. Bücher, Artikel, Webseiten und andere Texte, die öffentlich zugänglich sind. Auch der Microsoft Copilot stützt sich ab auf Modelle von OpenAI.
- Meta nutzt für sein Sprachmodell LLaMA sowohl öffentlich zugängliche als auch lizenzierte Informationen; dazu zählen z.B. Wiki-Daten sowie öffentlich verfügbare Daten, die von Common Crawl gesammelt wurden.
- Google mit Gemini: Google sammelt die Daten mit vielen verschiedenen Tools im Web, bezieht Informationen aber auch von Daten-Partnern.
Viel hilft viel – gilt dies auch für Daten?
Wenn die Output-Qualität von KI-Systemen massgeblich von der zugrundeliegenden Datenmenge abhängt, ist es dann eine Lösung, einfach immer grössere LLMs zu bauen nach dem Prinzip "viel hilft viel"? Wenn wir genauer hinschauen, dann sehen wir, dass man mit grossen Sprachmodellen auf verschiedenen Ebenen an die Grenzen kommt.
Das erste Problem ist, dass die aktuellen Rechnerarchitekturen bereits jetzt mit der Verarbeitungskapazität für LLMs ein Limit erreichen zu scheinen. Das Training von grossen LLMs ist sehr zeitaufwändig und, viel schlimmer noch, es verbraucht Unmengen von Energie. Zu diesem Thema kursieren eine Vielzahl von Zahlen im Internet – mit sehr breiter Varianz jedoch ohne konkrete Belege. Es ist trotzdem unumstritten, dass sich der Energie-Verbrauch durch KI-Systeme jedes Jahr vervielfacht und so immer stärker zum globalen Energiekonsum beiträgt.
Aber nicht nur das Training kommt an Grenzen – auch die Antwortzeiten schwergewichtiger KI-Anwendungen kommen unter Druck; sie laufen Gefahr, die Benutzerakzeptanz beeinflussen.
Ein Weg aus diesem Dilemma können neue Verarbeitungsverfahren sein: Der prominenteste Kandidat ist Quantum Computing. Diese Technologie eignet sich vor allem für stark rechen- und datenintensive Einsatzgebiete – und hierzu zählen auch KI-Anwendungen mit ihren grossen Sprachmodellen bei gleichzeitigem Bedarf an hoher Performanz. Es gibt noch keine ausreichende Anzahl an praktischen Erfahrungen, jedoch sind bereits eine Vielzahl von Anwendungen im Erprobungsstadium wie zum Beispiel im Bereich der Medikamenten-Entwicklung, der Logistik-Optimierung … und der Künstlichen Intelligenz.
Gut für alle?
Auf einer sozialen Ebene ist die Häufung von Datenmodellen bei einzelnen Big-Tech-Firmen ein Problem. Der Zugang zu Daten ist teuer und für viele Stakeholder eine Herausforderung, etwa für Einzelpersonen, Kleinfirmen oder für Interessenten aus Regionen mit geringer Verfügbarkeit von Datenmaterial. Zugang zu Technologie für alle, eines der Nachhaltigkeitsziele der UN, muss stärker in den Fokus genommen werden.
Ein weiterer Punkt bei der Zentralisierung von Daten bei grossen Playern betrifft die Frage, welche Daten dort aufgenommen und abgebildet werden – unterrepräsentierte Daten, zum Beispiel selten gesprochenen Sprachen, sind wahrscheinlich nicht in ausreichendem Masse in den Sprachmodellen berücksichtigt, auch wenn viele Unternehmen mit Hochdruck solche Sammlungen aufbauen.
Für beide Fragestellungen gibt es Lösungen; dazu gehören zum Beispiel Small Language Models (SMLs), die nur auf einem Bruchteil der Datenmenge eines üblichen LLMs basieren, jedoch punktgenau auf einen Anwendungsfall zugeschnitten sind. Probleme mit der Skalierbarkeit sowie mit Trainings- und Antwortzeiten sind aufgrund des geringeren Datenumfangs unproblematisch.
Umgang mit Qualität und Verbindlichkeit
Oft sind sich Interessenten nicht darüber im Klaren, dass die Resultate von generativen Anwendungen, keine 100%ige Korrektheit versprechen. Halluzinationen des Systems, also die Generierung falscher Ergebnisse, sind ein bekanntes Problem, dem im Moment mit neuen Verfahren begegnet wird, wie zum Beispiel dem Retrieval-Augmented Generation (RAG), das vorabgefragte Angaben aus gesicherten Quellen in Antworten miteinbezieht.
Auch diese Verfahren sind nicht zwingend deterministisch. Die Ergebnisse können im Laufe der Zeit variieren, da es sich bei LLMs um lernende Systeme handelt, die fortlaufend mit neuen Daten aktualisiert werden.
In Abhängigkeit von konkreten Use Case bedeutet das, dass die Qualität von Fachpersonen überprüft werden muss. Das gilt vor allem dann, wenn für die Qualität der Verarbeitungsresultate gehaftet werden muss. Experten sind also in solchen Fällen nicht ersetzbar, sondern die Arbeitsinhalte verschieben sich von der Erstellung auf die Kontrolle von Arbeitsergebnissen – das benötigte Fachwissen ist aber in beiden Fällen annähernd identisch.
Vom Hype zum State of the Art
Auch noch nach knapp zwei Jahren seit der Veröffentlichung von ChatGPT ist Generative KI immer noch als Technologie im "Hype" Stadium zu sehen, das volle Potenzial ist noch nicht abschätzbar: Jeden Tag machen Projektteams neue Erfahrungen mit dieser Technologie und entwickeln neue Lösungen und Ansätze, mit denen generative KI noch besser wird.
Noch also sind wir alle dabei Erfahrungen zu machen, wie und wo diese KI eingesetzt werden kann und wie sie ein Maximum an Nutzen stiftet.
Führende KI Grössen wie Yann LeCun von Meta sehen aber immer noch systematische Begrenzungen bei aktuellen KI-Ansätzen, die menschliches Denken im Moment nur nachahmen, jedoch noch weit davon entfernt sind, menschliche Intelligenz, die von Verstehen und Intuition geprägt ist, zu zeigen.
Soko Maier ist die
Software-
Kolumne von inside-it.ch. Hier schreibt Karakun-Verwaltungsrätin Elisabeth Maier regelmässig über Themen rund um Software und Programmiersprachen.