Shift: Was passiert, wenn ein Rechenzentrum pleite geht?

8. April 2022, 12:52
  • innovation
  • künstliche intelligenz
  • shift
  • ethik
image
Foto: Darya Tryfanava / Unsplash

Die Konferenz zur digitalen Ethik stellte den Umgang mit künstlicher Intelligenz ins Zentrum. Beleuchtet wurde etwa der Einsatz bei der öffentlichen Verwaltung oder bei Justizbehörden.

Die vierte Ausgabe der Shift-Konferenz begann mit einer kleinen Daten-Erhebung: Abgefragt wurden Alter, Geschlecht, ungefähre berufliche Einordnung (Wirtschaft, Verwaltung, NGO, Medien) der Teilnehmenden. Erfreut wurde beim Ergebnis darauf hingewiesen, dass sowohl bei den Teilnehmenden wie auch bei den Referentinnen und Referenten eine Parität zwischen Frauen und Männern erreicht wurde – oder erstere sogar etwas stärker vertreten waren.
Und damit war die Konferenz auch schon mitten im Thema: Was könnte mit diesen Daten gemacht werden? So wies Katharina Zweig, Informatik-Professorin an der Technischen Universität Kaiserslautern, in ihrer Keynote darauf hin, was mit Daten verbessert werden könne. Sie schlug gleichzeitig vor, dass Einzelpersonen zukünftig selbst entscheiden könnten, wem sie welche Daten zur Verfügung stellen. Dass diese Daten dann zum Beispiel in einem europäischen Rechenzentrum nach Wahl gespeichert würden. Und nur der selbstbestimmte Teil einem Unternehmen oder einer Organisation zur Verfügung gestellt würde.

Wem gehört das Rechenzentrum?

image
Katharina Zweig.
Das warf im Publikumschat (die Konferenz fand online statt) natürlich gleich Fragen auf: Was passiert, wenn ein RZ gehackt wird? Oder Konkurs geht? Ist das RZ privat oder staatlich geführt? Fragen, die in der Cloud-Diskussion zurzeit auch die Schweiz beschäftigen. Doch weder Katharina Zweig noch andere Speaker wollten (oder konnten?) pfannenfertige Antworten liefern – es ging vor allem um Denkanstösse.
Das zeigte sich auch im Umgang mit Begriffen: künstliche Intelligenz, Algorithmen, Machine Learning, Bots, Data Analytics… Sie spreche lieber von "Automatic Decision Making System", sagte etwa Anna Mätzener, Leiterin Algorithmwatch Schweiz. Sie stellte das von Algorithmwatch erarbeitete "Impact Assessment Tool" für den Einsatz solcher Systeme in der öffentlichen Verwaltung vor.

Risikosignale bei der öffentlichen Verwaltung

image
Anna Mätzener.
Anhand eines Fragenkatalogs sollen diese mit Blick auf ethische Fragen bei der Entscheidung begleitet werden. In einer ersten Phase wird bewertet, ob ein System besondere Transparenzanforderungen erfüllen muss. "Werden Risikosignale deutlich, müssen die Behörden in einer zweiten Phase einen Transparenzbericht erstellen", so Algorithmwatch. Wie Mätzener dann am Beispiel "Zuteilung von Kindern in Schulklassen" zeigte, indem sie die Teilnehmenden Fragen für ein mögliches System und dessen Anwendung beantworten liess, tauchen solche Risikosignale relativ schnell auf.
Mit Fragen arbeitete auch Monika Simmler, Co-Direktorin Kompetenzzentrum für Strafrecht und Kriminologie an der Universität St. Gallen, für die Studie "Smart Criminal Justice". Fragen, die an Personen der Polizei und des Justizvollzugs in 14 deutschschweizer Kantonen gestellt wurden. Zum Beispiel welche algorithmischen Tools etwa für Kriminalanalyse, Bedrohungsmanagement oder Predictive Policing eingesetzt werden.
Für Letzteres sei die Schweiz wohl zu kleinräumig, sei eine Erkenntnis der Studie gewesen. "Es braucht ein gewisses Datenvolumen, damit der Algorithmus funktioniert. Und vielleicht ist die Schweiz da einfach zu wenig kriminell", hätte eine Antwort bei der Befragung gelautet.

Polizei-System ohne unabhängige Evaluation

image
Monika Simmler.
Kritischer betrachtet werden müsse das "Dynamische Risiko Analyse System" (DyRiAS), das im Bedrohungsmanagement bei vielen Polizeikorps im Einsatz sei, erklärte Simmler. Der Hersteller stamme aus Deutschland, der den Fragenkatalog zur Ermittlung einer "Risikozahl" für eine mögliche Bedrohung durch eine Person erarbeitet habe. Dabei habe keine unabhängige Evaluation stattgefunden, so die Juristin.
Weil die Schweiz die allgemeine Wehrpflicht kenne und deshalb Waffen in vielen Haushalten verbreitet seien, liessen sich Fragen nicht eins zu eins "übersetzen". "Klickt ein deutscher Beamter die Waffenfrage mit 'Ja' an, steht gleich die Polizei vor der entsprechenden Haustür. Das ist in der Schweiz sicher anders", sagte Simmler.
Als Juristin fordere sie deshalb die "frühzeitige Klärung der Rechtmässigkeit des Einsatzes" solcher Systeme. Gleichzeitig müsse Kompetenz geschaffen werden: Beamte müssten ein Verständnis für Algorithmen entwickeln, und die entsprechenden Stellen sich zu einer regelmässigen unabhängigen Evaluation verpflichten.
Interessenbindung: Inside IT ist Medienpartner der Shift-Konferenz 2022.

Loading

Mehr zum Thema

image

DSI-Insights: Von "guten" zu "ethischen" Drohnen

Was ist notwendig, um aus "guten" Drohnen, die für humanitäre Zwecke eingesetzt werden, "ethische" Drohnen zu machen? Und wie können ethische Aspekte in die Anwendung und Entwicklung neuer Technologien integriert werden?

publiziert am 25.5.2022
image

Dyson will auch Roboter-Hersteller sein

Noch in diesem Jahrzehnt will Dyson seine Roboter in Privathaushalten sehen. Dazu baut der Konzern eine Robotik-Sparte auf.

publiziert am 25.5.2022
image

Das WEF will ins Metaverse

Klaus Schwab, Gründer des Weltwirtschaftsforums (WEF), hat ein globales Dorf für die Zusammenarbeit in der digitalen Parallelwelt angekündigt.

publiziert am 23.5.2022
image

Microsoft eröffnet Schweizer Technology Center

Im Tech-Center sollen Co-Innovation von Kunden und Partnern entstehen. Gleichzeitig kündigt Microsoft die "Innovate Switzerland" Community an.

publiziert am 23.5.2022