DSI Insights: Wie die KI-Technologie Flüchtenden hilft und Propaganda erkennt

6. Februar 2025 um 14:33
  • kolumne
  • dsi insights
  • Künstliche Intelligenz
image
Kilian Sprenkamp

LLMs können in Krisensituationen bei der schnellen Informationsverarbeitung und effektiven Kommunikation helfen.

Mit dem Release von ChatGPT im November 2022 hat sich die öffentliche Wahrnehmung rund um das Thema Künstliche Intelligenz (KI) stark verändert. Oft wurde darüber diskutiert, welche Auswirkungen es haben wird, dass Chatbots nun Websites programmieren oder innert Sekunden ein ganzes Buch zusammenzufassen können. Sogenannten Large Language Models (LLMs) wie GPT-4 haben jedoch noch weit grösseres Potenzial. So sind in Krisensituationen beispielsweise schnelle Informationsverarbeitung und effektive Kommunikation von grösster Bedeutung. LLMs können hier wichtige Unterstützung bieten. Andererseits bergen KI-Technologien auch Risiken. Es stellt sich daher Frage, wie öffentliche Institutionen diese Technologie sinnvoll nutzen können.
Wenn Krisen eintreten, entstehen in Echtzeit Daten aus unzähligen Quellen, die Menschen nicht vollständig analysieren können. Ein Beispiel für eine solche Krise ist der Russisch-Ukrainische Krieg, der ein schnelles Handeln des öffentlichen Sektors erforderte. LLMs wie GPT-4 sind in der Lage, grosse Datenmengen effizient zu verarbeiten. Regierungen können LLMs für effizientere Bürgerdienste und Datenanalysen nutzen.
Meine Forschung konzentriert sich darauf, wie LLMs im Russisch-Ukrainischen Krieg eingesetzt werden können, wobei ich mich auf Flüchtlingshilfe und Propagandaerkennung konzentriere.

Flüchtlingshilfe

In der Flüchtlingshilfe veranschaulichen zwei Tools, wie LLMs vertriebene Bevölkerungsgruppen stärken und Entscheidungstragende unterstützen können.
RefuGPT ist ein Telegram-Chatbot, der von GPT-4 betrieben wird und Flüchtenden Antworten zu Themen wie Gesundheitsversorgung und Sozialleistungen bietet. Durch die Nutzung offizieller Daten und von Community-Informationen stellt RefuGPT klare, umsetzbare Antworten in einem Q&A-Format bereit, wodurch bürokratische Prozesse vereinfacht werden.
R2G ("Refugee to Government") sammelt Telegram-Nachrichten von ukrainischen Flüchtlingskanälen, um Bedürfnisse der Gemeinschaft in Echtzeit zu identifizieren. R2G erkennt Probleme wie die Suche einer Unterkunft oder Zugang zum Gesundheitssystem in den Telegram-Texten. Dies ermöglicht öffentlichen Einrichtungen und NGOs, dringenden Handlungsbedarf sichtbar zu machen, und bietet Entscheidungsträgern durch einen GPT-4-basierten Chatbot strukturierte Einblicke. Zukünftig soll R2G von internationalen Flüchtlingsorganisationen eingesetzt werden, um sicherzustellen, dass politische Massnahmen den tatsächlichen Bedürfnissen der Geflüchteten entsprechen.

Erkennung von Propaganda

Im Fall der Propagandaerkennung ist Apollolytics eine Browsererweiterung, die hilft, manipulative Inhalte in Onlinenachrichten zu erkennen und zu verstehen. Nutzerinnen und Nutzer können einen beliebigen Text auf einer Webseite markieren, um Propaganda zu erkennen. Im Hintergrund analysiert GPT-4 den Textausschnitt, kennzeichnet mögliche Propagandatechniken und liefert kurze Erklärungen. Erkannte Passagen werden dann im Artikel hervorgehoben, so dass ersichtlich wird, wo subtile Manipulationen stattfinden könnten.
Über die blosse Kennzeichnung von Propaganda hinaus bietet Apollolytics auch die Möglichkeit, Kontext über die Propagandapassage zu generieren. Behörden können damit Online-Diskussionen überwachen und aufkommende Desinformationskampagnen in Echtzeit erkennen, was eine schnelle und transparente Reaktion erleichtert.

Insights für den öffentlichen Sektor

Aus diesen Anwendungsbereichen lassen sich drei zentrale Erkenntnisse für den Einsatz von LLMs in Krisen ableiten:
Kontext von LLMs: Der öffentliche Sektor kann LLMs durch die Verknüpfung mit externen Datenquellen verbessern. Dies ermöglicht genauere und kontextspezifischere Antworten, insbesondere in dynamischen Situationen wie Flüchtlingskrisen, indem aktuelle und relevante Informationen genutzt werden. Ähnlich stellt Apollolytics mehr Kontext bereit, wenn LLMs auf als Propaganda markierte Texte zugreifen und diese verarbeiten können.
Wahl des LLM-Typs: Organisationen müssen entscheiden, ob sie Closed-Source-LLMs (z.Bsp.GPT von OpenAI) oder Open-Source-LLMs (z.Bsp. Llama von Meta) einsetzen wollen. Closed-Source-LLMs verfügen über umfangreiche Wissensbasen und sind einfach über APIs zugänglich. Im Gegensatz dazu bieten Open-Source-LLMs mehr Flexibilität und Anpassungsmöglichkeiten für spezifische Anwendungsfälle, erfordern jedoch eine eigene Hosting-Infrastruktur.
Ethik im Kriseneinsatz: Es ist wichtig, ein Gleichgewicht zwischen den Vorteilen von LLMs und dem Schutz individueller Rechte zu finden. In Krisenzeiten muss die Dringlichkeit des Einsatzes von LLMs gegen den Datenschutz abgewogen werden. Beispielsweise entspricht die Nutzung von R2G der Datenschutz-Grundverordnung, wirft jedoch ethische Fragen auf.
Zudem können Tools wie R2G durch böswillige Akteure genutzt werden, um Geflüchtete zu gefährden, daher sollte der Einsatz solcher Tools Transparent mit der Öffentlichkeit diskutiert werden.
Die Applikationen RefuGPT, R2G und Apollolytics demonstrieren, wie LLMs den öffentlichen Sektor in Krisensituationen durch gezielte Flüchtlingshilfe und effektive
Propagandaerkennung unterstützen können. Für die konkreten Kriseneinsätze sollten Behörden die entsprechenden LLMs mit externen Datenquellen verknüpfen, um genauere Antworten zu erhalten. Zudem müssen sie entscheiden, ob sie Closed- oder Open-Source-LLMs einsetzen wollen, und gewährleisten, dass LLMs ethisch verantwortungsbewusst eingesetzt werden, sodass Transparenz und Datenschutz gewährleistet sind.

Der Autor
Kilian Sprenkamp ist Doktorand bei der Digital Society Initiative (DSI) an der Universität Zürich. Er hat einen Abschluss in Economics und Data Science und arbeitete als Machine Learning Engineer in London. Seine Forschung konzentriert sich auf die Anwendung von LLMs für den öffentlichen Sektor in Krisensituationen, angetrieben von der Überzeugung, dass KI eingesetzt werden sollte, um eine gerechtere Gesellschaft zu schaffen.



Loading

Mehr zum Thema

image

Optimieren Sie Ihren Workflow mit CENT Systems

Das Bewusstsein für die Bedeutung von Workflow-Optimierungen in Schweizer Unternehmen steigt. Zu diesem Schluss kommt Sascha Büchler, Leiter Innovation und Digital New Business bei CENT Systems, nach seiner Teilnahme am Web Summit in Lissabon, einer der weltweit grössten Tech-Konferenzen.

image

Journalistische Inhalte sollen vor KI geschützt werden

Der Bundesrat stellt sich hinter die Forderung, journalistische Inhalte und andere urheberrechtliche geschützte Werke zu schützen, wenn diese von KI-Anbietern genutzt werden.

publiziert am 20.2.2025
image

Parldigi direkt: Existentielle Quantum-Resilienz für die Schweiz

Sowohl der öffentliche als auch der private Sektor müssen jetzt Massnahmen ergreifen und die Umstellung auf neue, quantensichere Verschlüsselungsverfahren vorantreiben, schreibt der neue Vorsitzende der Swiss Cyber Security Days, Nationalrat Nik Gugger.

publiziert am 19.2.2025
image

HP übernimmt den vermeintlichen Smartphone-Killer

Humane wollte das Mobiltelefon durch einen KI-Pin ersetzen. Doch die Idee ist krachend gescheitert: Patente und Teile der Mit­ar­bei­ten­den werden von HP übernommen.

publiziert am 19.2.2025