Shift: Was passiert, wenn ein Rechenzentrum pleite geht?

8. April 2022 um 12:52
  • innovation
  • künstliche intelligenz
  • shift
  • ethik
image
Foto: Darya Tryfanava / Unsplash

Die Konferenz zur digitalen Ethik stellte den Umgang mit künstlicher Intelligenz ins Zentrum. Beleuchtet wurde etwa der Einsatz bei der öffentlichen Verwaltung oder bei Justizbehörden.

Die vierte Ausgabe der Shift-Konferenz begann mit einer kleinen Daten-Erhebung: Abgefragt wurden Alter, Geschlecht, ungefähre berufliche Einordnung (Wirtschaft, Verwaltung, NGO, Medien) der Teilnehmenden. Erfreut wurde beim Ergebnis darauf hingewiesen, dass sowohl bei den Teilnehmenden wie auch bei den Referentinnen und Referenten eine Parität zwischen Frauen und Männern erreicht wurde – oder erstere sogar etwas stärker vertreten waren.
Und damit war die Konferenz auch schon mitten im Thema: Was könnte mit diesen Daten gemacht werden? So wies Katharina Zweig, Informatik-Professorin an der Technischen Universität Kaiserslautern, in ihrer Keynote darauf hin, was mit Daten verbessert werden könne. Sie schlug gleichzeitig vor, dass Einzelpersonen zukünftig selbst entscheiden könnten, wem sie welche Daten zur Verfügung stellen. Dass diese Daten dann zum Beispiel in einem europäischen Rechenzentrum nach Wahl gespeichert würden. Und nur der selbstbestimmte Teil einem Unternehmen oder einer Organisation zur Verfügung gestellt würde.

Wem gehört das Rechenzentrum?

image
Katharina Zweig.
Das warf im Publikumschat (die Konferenz fand online statt) natürlich gleich Fragen auf: Was passiert, wenn ein RZ gehackt wird? Oder Konkurs geht? Ist das RZ privat oder staatlich geführt? Fragen, die in der Cloud-Diskussion zurzeit auch die Schweiz beschäftigen. Doch weder Katharina Zweig noch andere Speaker wollten (oder konnten?) pfannenfertige Antworten liefern – es ging vor allem um Denkanstösse.
Das zeigte sich auch im Umgang mit Begriffen: künstliche Intelligenz, Algorithmen, Machine Learning, Bots, Data Analytics… Sie spreche lieber von "Automatic Decision Making System", sagte etwa Anna Mätzener, Leiterin Algorithmwatch Schweiz. Sie stellte das von Algorithmwatch erarbeitete "Impact Assessment Tool" für den Einsatz solcher Systeme in der öffentlichen Verwaltung vor.

Risikosignale bei der öffentlichen Verwaltung

image
Anna Mätzener.
Anhand eines Fragenkatalogs sollen diese mit Blick auf ethische Fragen bei der Entscheidung begleitet werden. In einer ersten Phase wird bewertet, ob ein System besondere Transparenzanforderungen erfüllen muss. "Werden Risikosignale deutlich, müssen die Behörden in einer zweiten Phase einen Transparenzbericht erstellen", so Algorithmwatch. Wie Mätzener dann am Beispiel "Zuteilung von Kindern in Schulklassen" zeigte, indem sie die Teilnehmenden Fragen für ein mögliches System und dessen Anwendung beantworten liess, tauchen solche Risikosignale relativ schnell auf.
Mit Fragen arbeitete auch Monika Simmler, Co-Direktorin Kompetenzzentrum für Strafrecht und Kriminologie an der Universität St. Gallen, für die Studie "Smart Criminal Justice". Fragen, die an Personen der Polizei und des Justizvollzugs in 14 deutschschweizer Kantonen gestellt wurden. Zum Beispiel welche algorithmischen Tools etwa für Kriminalanalyse, Bedrohungsmanagement oder Predictive Policing eingesetzt werden.
Für Letzteres sei die Schweiz wohl zu kleinräumig, sei eine Erkenntnis der Studie gewesen. "Es braucht ein gewisses Datenvolumen, damit der Algorithmus funktioniert. Und vielleicht ist die Schweiz da einfach zu wenig kriminell", hätte eine Antwort bei der Befragung gelautet.

Polizei-System ohne unabhängige Evaluation

image
Monika Simmler.
Kritischer betrachtet werden müsse das "Dynamische Risiko Analyse System" (DyRiAS), das im Bedrohungsmanagement bei vielen Polizeikorps im Einsatz sei, erklärte Simmler. Der Hersteller stamme aus Deutschland, der den Fragenkatalog zur Ermittlung einer "Risikozahl" für eine mögliche Bedrohung durch eine Person erarbeitet habe. Dabei habe keine unabhängige Evaluation stattgefunden, so die Juristin.
Weil die Schweiz die allgemeine Wehrpflicht kenne und deshalb Waffen in vielen Haushalten verbreitet seien, liessen sich Fragen nicht eins zu eins "übersetzen". "Klickt ein deutscher Beamter die Waffenfrage mit 'Ja' an, steht gleich die Polizei vor der entsprechenden Haustür. Das ist in der Schweiz sicher anders", sagte Simmler.
Als Juristin fordere sie deshalb die "frühzeitige Klärung der Rechtmässigkeit des Einsatzes" solcher Systeme. Gleichzeitig müsse Kompetenz geschaffen werden: Beamte müssten ein Verständnis für Algorithmen entwickeln, und die entsprechenden Stellen sich zu einer regelmässigen unabhängigen Evaluation verpflichten.
Interessenbindung: Inside IT ist Medienpartner der Shift-Konferenz 2022.

Loading

Mehr zum Thema

image

OpenAI sichert sich in der Schweiz "GPT" als Markenname

Die USA haben die Eintragung als Marke nicht akzeptiert, in der EU ist ein Löschungsverfahren hängig. Eine Einschätzung.

publiziert am 20.2.2024
image

KI darf mit Reddit-Inhalten lernen

60 Millionen Dollar zahlt ein KI-Entwickler, um die Inhalte der Plattform für das Training seiner Software verwenden zu dürfen. In der Schweiz ringen Medienhäuser mit dem Umgang mit KI.

publiziert am 19.2.2024
image

Andy's AI Almanac: Technology Trilogy Engineer – die Köche der Zukunft

Alle reden von KI. Doch hinter den Kulissen braut sich etwas Grösseres zusammen, schreibt Andy Fitze in seiner ersten Kolumne.

publiziert am 19.2.2024
image

Big Tech schliesst Abkommen gegen Wahl­mani­pula­tionen durch KI

Vertreterinnen und Vertreter von 20 Unternehmen haben sich zur Zusammenarbeit verpflichtet, um schädliche KI-Inhalte besser zu erkennen und zu bekämpfen.

publiziert am 19.2.2024