Künstliche Intelligenzen können in vielen Lebensbereichen zum Einsatz kommen. Beispielsweise kann eine KI eine medizinische Diagnose erstellen, Falschnachrichten in sozialen Netzwerken erkennen, Personen für ein Vorstellungsgespräch einladen, die Prämie einer Versicherung festlegen oder entscheiden, ob ein Häftling entlassen werden soll oder nicht.
Doch akzeptieren es Schweizerinnen und Schweizer, wenn KIs in diesen Bereichen tatsächlich eingesetzt würden? Dies hat die Digital Society Initiative (DSI) der Universität Zürich in einer nationalen Bevölkerungsumfrage zu KI erhoben. Diese wurde im Januar und Februar 2022 durchgeführt – also ein knappes Jahr bevor ChatGPT der breiten Bevölkerung vor Augen geführt hat, was KI zu leisten imstande ist. DSI-Geschäftsführer Markus Christen sagte auf die Frage von inside-it.ch: "Es ist durchaus möglich, dass ChatGPT eine Reihe der Daten verändern würde." Viele Menschen hätten heute eine differenziertere Ansicht auf KI als vor der Lancierung des Chatbots.
Wenig Vertrauen in Banken
Dennoch sind die Ergebnisse der Umfrage interessant. Sie zeigen, dass Frauen, Menschen mit tiefer Ausbildung, tieferem Einkommen und politisch linker Ausrichtung gegenüber KI-Anwendungen grundsätzlich skeptischer sind als Männer und gut gebildete sowie besser bezahlte Menschen. Darüber hinaus vertraut mehr als die Hälfte der Befragten Organisationen des Gesundheitswesens, Gerichten und Behörden "komplett" oder "teilweise", wenn diese KI-Anwendungen einsetzen würden. Kaum Vertrauen geschenkt wird hingegen sozialen Netzwerken, Banken und Versicherungen.
Die Befragten denken, dass KI für positive Zwecke eingesetzt werden kann und dass sie "unbeeinflusste, objektive Entscheidungen" treffen kann, wobei Letzteres mehrfach widerlegt ist. Der wohl prominenteste Fall ist eine KI, die Amazon in seinem Bewerbungsprozess einsetzte und
dabei Frauen massiv benachteiligte.
Ironischerweise wurden als Gegenargument zu KI am häufigsten "fehlende menschliche Emotionen" genannt, welche ja häufig objektive Entscheidungen verhindern. Die Studienautoren nennen das ein "interessantes Spannungsfeld zwischen 'Objektivität' und 'Emotionalität'".
Ebenfalls abgefragt wurde die Akzeptanz und Kontrolle von KI-Anwendungen. 80% der Befragten finden den Einsatz von KI akzeptabel, wenn es um die Erkennung von Fake News geht. Gut die Hälfte findet, dass eine KI bei Versicherungsprämien "mitreden" darf und je rund 20% finden den KI-Einsatz bei Kreditentscheiden sowie medizinischen Diagnosen in Ordnung.
Akzeptanz hängt von Auswirkungen ab
Kritischer sind die Befragten bei der Entscheidung, ob Häftlinge entlassen werden. Dort finden rund drei Viertel der Befragten, dass der KI-Einsatz "gar nicht" oder "eher nicht" akzeptabel wäre. Auch wenn es um die Beendigung von Therapien und die Selektion von Kandidatinnen und Kandidaten für Bewerbungsgespräche geht, sagt über die Hälfte: "Nein danke."
Die Studienautoren bilanzieren, dass die Akzeptanz tiefer ist, je höher der "Impact" des KI-Entscheids sei. Fakt ist jedoch, dass Künstliche Intelligenz schon heute vielerorts eingesetzt wird. Auch in Behörden: Der Bundesrat will auf jeden Fall die systematische Nutzung des Automatisierungspotenzials ermöglichen, um die
Effizienz bei administrativen Abläufen zu steigern.
Die Problematik dabei: Algorithmen oder Künstliche Intelligenzen sind selten fair. "Ja, wir haben ein Diskriminierungsproblem", sagt ZHAW-Professor Christoph Heitz, der gleichzetig Präsident der Data Innovation Alliance ist. Das Problem dabei sei, dass Algorithmen auf Nutzenmaximierung optimiert seien. Ausserdem gebe es wenig Lerndaten für Minoritäten. Der Gesetzgeber hilft da wenig. "Die Schweiz hat eine unterentwickelte Diskriminierungsgesetzgebung", vieles werde über den Datenschutz geregelt.
Perfektes Beispiel dafür: Das neue Datenschutzgesetz (DSG), welches am 1. September 2023 in Kraft tritt. Dort sind selbstständige Beschlüsse einer Künstlichen Intelligenz geregelt, nicht aber Entscheide von Menschen, die auf den Empfehlungen einer KI basieren.
"Wie entscheidet wohl ein Richter, wenn ihm eine KI eine bestimmte Empfehlung abgibt?", fragt Christoph Heitz rhetorisch.