Theoretisch wäre die Polizei prädestiniert, um erfolgreich mit modernen KI-Lösungen zu arbeiten, welche auch halten, was sie versprechen. Strafverfolgungsbehörden sind sowieso im "Daten-Analyse-Business" tätig, sie arbeiten mit hochsensiblen Daten, die aus unterschiedlichen Quellen stammen und sowohl unstrukturiert wie strukturiert sein können. Eine Polizei ist eine komplexe Organisation (beispielsweise mit der Wache und Patrouillen im öffentlichen Raum, international tätig…).
Für ihre Arbeit muss die Qualität der Daten und der Analyse-Instrumente so sein, dass die Informationen in Echtzeit verfügbar sind, sofortige Entscheidungen erleichtern und schliesslich erfolgreich strafprozessual verwendet werden können. Dabei müssen die KI-Lösungen unter anderem datenschützerischen Vorgaben jederzeit genügen.
Aufmerksamkeit von Medien und Politik erhalten aktuell vor allem Facial Recognition und Predictive Policing. Während China mit Sensoren, KI, Backdoors, Gesetzen und eventuell mit einer jederzeit rückverfolgbaren digitalen Währung die Träume von Strafverfolgern erfüllt, gibt es einen Backlash gegen KI bei westlichen Polizeien. Die Gesetzgeber in Massachusetts haben beispielsweise soeben für ein neues Polizeireformgesetz gestimmt, das den Polizeibehörden und öffentlichen Einrichtungen den Einsatz von Gesichtserkennungstechnologie im gesamten Bundesstaat verbieten wird. Dies
berichtet 'TechCrunch'.
Auch Tech-Konzerne wie Microsoft, IBM oder AWS
lassen die Finger davon, zu heiss ist dieses Eisen offenbar zumindest heute.
Predictive Policing: Aller Anfang ist schwer
Aber wo stecken die Schweizer Polizeien beim Einsatz von KI? In den Anfängen, wie sich an zwei Events zeigte: So sagte Kirsten Scherer Auberson, Forensikerin bei der Kantonspolizei Zürich, am 'FuW'-Forum "AI 2020": "Wir können nicht alles tun, was technisch möglich ist." Gleichentags hiess es an einem Podium der Digital Society Initiative der Universität Zürich vom auf Polizei-KI spezialisierten Dr. Matthias Leese vom Center for Security Studies an der ETH, dass hierzulande primär das deutsche Produkt "Precobs" am meisten verbreitet sei. Das Tool ermöglicht eine Form von Predictive Policing. Mit der Software will man Einbrüche zeitlich und geographisch basierend auf Daten von angezeigten Delikten verhindern oder Einbrecher in flagranti erwischen können.
Dominik A. Balogh, Chef Analyse und Entwicklung bei der Stadtpolizei Zürich, ergänzte dazu, der Einsatz von "Precobs" ergebe zwar Sinn, aber ebenso müsse eine Skepsis gegenüber Daten und deren Analyse bestehen bleiben: "Es gibt viele mögliche Verzerrungen von der Erfassung bis hin zur Interpretation." Ganz abgesehen davon, dass nie klar sein wird, ob ein verstärktes Patrouillieren in einem potenziellen Risikogebiet etwas verhindert hat, oder ein Einbruch im prognostizierten Zeitraum sowieso nicht stattgefunden hätte.
Der Nutzen ist auch bei Polizisten nicht unumstritten. So ergab ein
Evaluationsbericht des Max-Planck-Instituts 2019 basierend auf Aussagen von 700 Polizisten: "Der Nutzen bleibt ungewiss. (…) So wurde zum Beispiel festgestellt, dass sich die Anzahl an Near-Repeat-Folgedelikten in bestimmten Gebieten reduzierte. Aus Modellrechnungen ergab sich jedoch, dass die kriminalitätsmindernden Effekte von Predictive Policing im Pilotprojekt P4 wahrscheinlich nur in einem moderaten Bereich liegen."
"Precobs ist eine erste Applikation und basiert auf minimalistischer KI. Es geht dabei primär um Mustererkennung, was nicht wirklich einer künstlichen Intelligenz bedarf. Richtige KI ist bei der Schweizer Polizei noch nirgendwo angekommen", so Tobias Bolliger, ehemaliger Senior Cyber Advisor beim Bundesamt für Polizei Fedpol und heute Acceleration Manager beim Winterthurer Anbieter von Facial Recognition, Deep Impact.
Woher Daten fürs Training nehmen und sie nicht stehlen?
Und das dürfte möglicherweise noch einige Jahre dauern, hört man den Referierenden und Bolliger zu. Die Probleme beginnen bei der Legacy-IT. Schon simple Analysen brauchen viel Rechenleistung, die nötige Hardware dazu kostet schnell Summen im sechsstelligen Bereich. Und manche Applikationen laufen nur auf Linux, während bei Behörden manchenorts nur Windows-Betriebssysteme erlaubt sind.
Scherer Auberson erklärte, ein Pilotprojekt der Zürcher Kapo mit einer Predictive-Policing-Software sei an der Legacy-IT gescheitert. Auch Bolliger, der mehr als 10 Jahre für die Polizei arbeitete, bestätigt: "Legacy-IT ist ein reales Problem."
Die zweite Herausforderung sind die Daten aus strukturierten und unstrukturierten Quellen und deren Erfassung. Echte, aktuelle Daten wären natürlich die beste Basis. Die Schweizer Polizeien habe konsistente Daten für sich, aber jede erfasst sie anders und praktisch immer endet der Datenraum an den Kantons- oder Stadtgrenzen, so Bolliger. "Bereinigte Daten und deren Austausch fehlen." Damit beschränkt sich das Machine Learning auf kantonale Daten und Predictive Policing sagt nichts mehr voraus, sobald die Einbrecherbande die Kantonsgrenze überschreitet.
In einigen Bereichen gibt es erste kantonsübergreifende Polizei-Netzwerke, beispielsweise bei Meldungen über Kinderpornografie und digitale Betrugsdelikte, teilweise sind die Daten gar nach gleichen Standards erfasst, aber das seien "Babyschritte", so Bolliger.
Für weitergehendes Trainieren von KI-Systemen fehlen oft die Daten in der nötigen Fülle und Qualität und die Anonymisierung realer Fälle ist technologisch und datenschützerisch herausfordernd. Die Daten-Hygiene (Duplikate, Attachments…) sei ebenso ein Problem wie deren Heterogenität, sagt die Zürcher Forensikerin Scherer Auberson.
"Für Facial Recognition wäre es beispielsweise ideal, wenn die Polizeien öffentliche Foto-Datenbanken und Passdatenbanken nutzen könnten und das Trainieren outsourcen würde. Aber das geht datenschützerisch nicht und den Polizeien fehlt das Geld", erklärt Bolliger. Da die Datenlage volatil ist – ein Verdächtiger wird beispielsweise entlastet – müssten die Daten so aktuell wie möglich sein, um sinnvoll genutzt zu werden.
Meist werden die Daten allerdings nur wöchentlich erfasst, manchmal zweimal täglich. Damit sind die Daten immer nur ein Abbild der Vergangenheit, ergo von beschränkter Aussagekraft.
Die Polizei hinkt den Kreditkarten-Firmen Jahre hinterher
So hat die Kapo Zürich beispielsweise NLP-Lösungen im Einsatz inklusive Active Learning und Watson Explorer, um öffentliche Quellen wie Foren oder Facebook zu crawlen. Hier ist das Training der Systeme mit vielen öffentlichen Daten, ob aus Chats und anderen Internettexten, auch vergleichsweise gut möglich. Eine zentrale Schweizer NLP-Lösung mit standardisierter Datenerfassung, -weiterleitung und dem Erstellen automatisierter konsolidierter Berichte dürfte in der Schweiz noch lange auf sich warten lassen.
Nichtsdestotrotz besteht Hoffnungen auf den KI-Einsatz bei den Polizeien, sei es beim Auffinden von gestohlenen Autos, bei Audio-Analysen oder bei der Optimierung von Ressourcen. Insbesondere im Audiobereich scheint die Technologie weit fortgeschritten, dies zeigt beispielsweise das Open-Voice-Modell, das laut MIT-Wissenschaftlern eine
Corona-Erkrankung am Husten erkennen kann.
Fraud Detection, wie es Finanzinstitute oder Kreditkartenanbieter können, die mit KI und einem Scoring-Modell die Wahrscheinlichkeit eines Betrugs erkennen, sind für die Polizei noch Zukunftsmusik. "Von Fraud Detection mit KI sind wir noch Jahre entfernt", sagt Bolliger. "Die Polizei arbeitet extrem verzögert im Vergleich zum Consumer-Bereich."
Sinnvoll wäre KI bei Wirtschaftskriminalität, wie Scherer Auberson festhielt. Bei einem Fall können laut der Kapo-Forensikern 20TB Daten anfallen, also Milliarden von A4-Seiten, deren Analyse Tausende von Personenjahren benötigen würde.
Automatisierung oder Mensch?
Alle, von ETH-Forscher Leese, der über KI in der Polizeiarbeit forscht, über Scherer Auberson, Balogh bis hin zu Bolliger sind sich einig trotz aller Wünsche und Hoffnungen: Daten sind nur eine von mehreren Möglichkeiten, die Welt zu verstehen, Automatisierung ist zwar eine KI-Kernfunktion aber nicht alleinseligmachend, datengestützte Analysen enthalten viele potenzielle Fehlerquellen (Daten-Generierung, -Konsolidierung, -Aufbereitung, theoretische Modelle oder auch die Operationalisierung von Variablen) und die Strafverfolger dürfen Risikoeinschätzungen nicht als Fakten missverstehen.
"Der Mensch ist entscheidend", sagte Balogh, "seine Erfahrung und Intuition. Denn wir haben es mit Menschen zu tun." Scherer Auberson wies auf "Fairness", "Transparenz" und "Accountability" als Grundprinzipien hin und darauf, dass die Verantwortung beim Menschen liegen müsse. Hierzu dürfte es kaum abweichende Meinungen geben.
Aber, das wird nicht genügen für einen breiten Einsatz von KI, sind sich die Genannten einig. Die Polizei muss gesellschaftliches und politisches Vertrauen schaffen und erklären können, wie ihre KI-Lösungen überhaupt funktionieren: Womit werden sie trainiert? Arbeiten sie womöglich mit voreingenommenen Algorithmen? Wie beweise ich, dass sie nicht "biased" sind? Und, nicht zuletzt, wie finden Datenschutz und KI zusammen?
Viele innovative KI-Lösungen aus dem Consumer-Bereich (jedes Smartphone hat heute Facial Recognition) dürften aus all den genannten Gründen noch länger nicht bei der Schweizer Polizeien eingesetzt werden, glaubt Bolliger. "Zuerst werden alle Ermittlungs- und Prozessakten digitalisiert. Erst wenn die Grundprozesse digitalisiert sind, dann könnte KI die Versprechungen auch einlösen."
Der biometrische Pass, IMSI-Catcher und GPS-Tracker sind derweil in China wohl nebensächlich geworden.
Interessenbindung: Deep Impact ist Mehrheitseigner unseres Verlags Winsider AG und Technologie-Partner.