Jeder 5. kali­fornische Abge­ordnete ist ein Krimineller (sagt eine KI)

Die American Civil Liberties Union (ACLU) hat einen Test mit Amazons Cloud-basiertem Gesichtserkennungssystem Rekognition durchgeführt. Die Datenschutzorganisation liess Rekognition Fotos von 120 kalifornischen Abgeordneten mit Fotos von 25'000 Kriminellen vergleichen. Und siehe da: 26 der Abgeordneten, also genau ein Fünftel, wurde von der Software als einer oder eine der Kriminellen identifiziert.
 
Der Hintergrund dieses Tests ist ein Vorstoss des Abgeordneten Phil Ting (den Rekognition übrigens auch als Kriminellen identifizierte). Ting möchte erreichen, dass die kalifornische Polizei die von Bodycams der Polizisten aufgenommenen Bilder nicht wie geplant mit Gesichtserkennungs-Software analysieren darf. Laut Tings Meinung ist dies ein Versuch, eine öffentliche Diskussion um den Einsatz solcher Systeme in Überwachungskameras zu umgehen. Die ACLU unterstützt dieses Anliegen und das Resultat des Tests ist natürlich Wasser auf Tings Mühlen.
 
Amazon warf in einem Statement gegenüber US-Medien der ACLU vor, den Test bewusst falsch angelegt zu haben, um Rekognition schlecht aussehen zu lassen. Es sei hinlänglich bekannt, dass Amazon allen Kunden empfehle, einen "Confidence Score" von 99 zu verwenden.
 
Der Confidence Score ist ein Wert zwischen Null und hundert. Er gibt Rekognition vor, wie sicher sich die KI sein soll, bevor sie eine positive Identifikation ausspuckt.
 
Die ACLU wiederum erklärte daraufhin, dass Amazon ganz genau wisse, dass seine Kunden aus dem Polizeibereich tiefere oder sogar gar keine Confidence Scores verwenden würden. Aus den von uns gefundenen Berichten konnten wir nicht herausfinden, welchen Confidence Score die ACLU für ihren Test verwendet hat. (hjm)