Heutzutage gibt es für jede Art von Angst ein Wort. Arachnophobie ist die Angst vor Spinnen. Gelatophobie ist nicht etwa die Angst vor italienischem Glacé, sondern die Angst davor, ausgelacht zu werden. Und so gibt es auch einen Fachbegriff – wenn auch keinen lateinischen – für die Angst vor Algorithmen: Algorithm Anxiety.
Algorithmen lassen sich grob als "computergestützte Systeme zum Erreichen bestimmter Ziele" beschreiben, (
Jago, 2019). Trotz des weit verbreiteten und allgegenwärtigen Einsatzes dieser computergestützten Systeme in Unternehmen auf der ganzen Welt, sind Menschen allgemein Algorithmen gegenüber nach wie vor abgeneigt. Ganze 62 Prozent der Bevölkerung weisen eine "Algorithmus-Aversion" (
Gosline & Yang, 2019) auf, empfinden Algorithmen als angstauslösend und vertrauen ihnen weniger als Menschen (Jago, 2019). Diese Gefühle und Ängste beruhen scheinbar auf einem mangelnden Verständnis von Algorithmen – z.B. was sie sind, wie sie funktionieren, wie sie sich auf die eigene Arbeit auswirken können (
McClure, 2018) – und auch darauf, dass sie unecht, ja sogar unmoralisch erscheinen (Jago, 2019). Mit anderen Worten: Algorithmen gelten als unverständlich, inhuman und wecken bei Menschen, die mit ihnen zu tun haben, Angst und Misstrauen.
Um diese Probleme anzugehen, möchten wir auf zwei zusammenhängende, jedoch separate Themen eingehen: Zunächst diskutieren wir kurz einige bewährte Ansätze, um die durch Algorithmen getroffenen Entscheidungen besser zu verstehen. Anschliessend widmen wir uns der Frage, wie diese Erklärungen einem technisch weniger versierten Publikum vermittelt werden können. Abschliessend wollen wir der Möglichkeit nachgehen, die "menschliche Seite des Algorithmus" aufzuzeigen, d.h. die Menschen, die hinter einem Algorithmus stehen.
Viele Algorithmen, die zur Vorhersage dienen, wie neuronale Netze oder Random Forests, sind sogenannte Black-Box-Verfahren. Deshalb ist es nicht einfach, potenziellen Kandidatinnen und Kandidaten, Teammitgliedern oder Kundinnen und Kunden zu erklären, wie genau ihre Entscheidungen zustandekommen. Die Forschungsbereiche des interpretierbaren maschinellen Lernens und der erklärbaren KI besitzen jedoch das Potenzial, sowohl den Data Scientists als auch deren Kundinnen und Kunden zumindest einen gewissen Einblick zu ermöglichen (
Rudin, 2019). So können etwa Variable Importance Masse einen Eindruck davon vermitteln, welche Variablen am meisten zur Vorhersage beitragen; Interpretationshilfen wie Partial Dependance Plots auf globaler oder Surrogate Models auf lokaler Ebene können Aufschluss darüber geben, wie bestimmte Merkmale die Vorhersagen allgemein oder für einzelne Personen beeinflussen (vgl. z.B.
Molnar, 2020, für einen Überblick). Diese Ansätze können als Plausibilitätsprüfungen für Entwickler/-innen und für die Kommunikation mit ihren Vorgesetzten im Entwicklungsprozess, sowie zur Vermittlung der Ergebnisse an Aussenstehende dienen. Das Anbieten von solchen zusätzlichen Erklärungen oder Berichte über Plausibilitätsprüfungen können helfen, Algorithmen verständlicher und weniger angstauslösend erscheinen zu lassen. Eine weitere mögliche Vorgehensweise ist der bewusste Einsatz von White-Box-Modellen, wie z.B. der logistischen Regression, die von entsprechend geschulten Personen direkt interpretiert werden können. Dadurch sind diese Modelle insbesondere für Entscheidungen mit hoher Tragweite bedenkenswert (Rudin, 2019).
Dennoch sollten wir uns darüber im Klaren sein, dass viele Menschen die Art von Erklärungen, die interpretierbares maschinelles Lernen oder White-Box-Modelle liefern, nicht sonderlich verständlich finden werden. Das bringt uns zu der Frage, wie man einem technisch weniger versierten Publikum die Funktionsweise von Algorithmen vermitteln kann. Die erste Herausforderung für Data Scientists besteht darin, die komplexen Mechanismen eines Algorithmus in einer leicht verständlichen Weise darzustellen. Um die Vermittlung zu erleichtern, könnten Data Scientists auf eine allgemeinere Erklärungsart zurückgreifen. Alle datengesteuerten Vorhersagealgorithmen teilen beispielsweise die Grundidee, dass jemand eine bestimmte Prognose erhält, weil andere Personen mit ähnlichen Merkmalen spezifische Werte der Zielvariablen aufweisen. Darüber hinaus könnten die Data Scientists statistische Kennwerte, z.B. zur Vorhersagegüte des Algorithmus, sowie dessen Rolle im Entscheidungsprozess offenlegen. Die empfundene Leistung hängt auch damit zusammen, ob Algorithmen des maschinellen Lernens als gerecht empfunden werden (
Harrison et al., 2020), was weitere Auswirkungen für Entscheidungsträger/-innen haben kann (
Marcinkowski et al., 2020).
Alternativ kann, auch wenn dies keine direkte Erklärung der technischeren Details ist, das Hervorheben der "menschlichen Seite des Algorithmus" ebenfalls zur Verringerung der Angst vor Algorithmen beitragen, wodurch die Algorithmen weniger fremd und befremdlich erscheinen und gleichzeitig der Entwicklungs- und Designprozess transparenter wird. Eine mögliche Strategie wäre die Würdigung der hinter dem Algorithmus stehenden Personen. Dabei könnten verschiedene Personen miteinbezogen werden, die an unterschiedlichen Phasen der Entwicklung und des Designs eines Algorithmus beteiligt waren – von den ursprünglichen Entwicklerinnen und Entwicklern, den internen Data Scientists, die den Algorithmus an speziell ausgewählten und vorverarbeiteten Daten trainiert haben, bis hin zu den Personen, deren Daten für das Trainieren des Algorithmus verwendet wurden. Eine solche Massnahme könnte schnell und unkompliziert durch eine kurze Erklärung, ein Foto oder eine Bildunterschrift erfolgen, die zusammen mit dem entsprechenden algorithmischen Prozess, Output oder Produkt präsentiert werden. Ein Beispiel könnte ein kurzer Hinweis unter einer Stellenanzeige sein, worin es heisst: "Sie sehen diese Anzeige, weil Menschen wie Sie [in Ihrer derzeitigen beruflichen Rolle/mit Ihrem Abschluss] Interesse daran gezeigt haben." Dies könnte zumindest die vielen täglichen auf Algorithmen basierenden Interaktionen mehr in den Blickpunkt rücken, wodurch mit der Zeit die Vertrautheit erhöht und die Angst verringert wird.
Da Führungskräfte und Unternehmen gewissermassen frei entscheiden können, ob und wie sie Algorithmen einsetzen wollen, dieses Privileg jedoch in der Regel nicht für potenzielle und/oder gegenwärtige Mitarbeitende gilt, sollten die letztgenannten Interessengruppen und ihre Ansichten nicht übersehen werden. Algorithmen können mehrere Rollen in den einzelnen Schritten des Einstellungsverfahrens übernehmen, wie beispielsweise Bewerber/-innen durch Stellenanzeigen auf bestimmte Arbeitsstellen aufmerksam zu machen. Andere Algorithmen können Kandidatinnen und Kandidaten für die Einstellung vorselektieren und sogar Lebensläufe sortieren oder bewerten (
Bogen, 2019). Für Personen, die bereits in Unternehmen arbeiten und mit anderen Arten von algorithmischen Anwendungen konfrontiert sind (z.B. Leistungsmanagement-Ratings oder -Systeme), können teilnehmende Designprozesse, bei denen die Mitarbeitenden auch bei der Entwicklung, Implementierung und/oder Anpassung von algorithmischen Entscheidungshilfen berücksichtigt werden (
Leicht-Deobald et al., 2019), ebenfalls dazu beitragen, Algorithmen weniger undurchsichtig und beängstigend erscheinen zu lassen. Dies kann in Form einer kurzen Frage- und Antwortrunde mit den projektleitenden Personen oder in Form von Fokusgruppen mit den Entwicklerinnen und Entwicklern erfolgen. Auch wenn dies zu Beginn etwas mehr Zeit und Mühe in Anspruch nimmt, gilt hier das Prinzip: Vorbeugung ist die beste Medizin, wenn es um das Kurieren von Ängsten vor Algorithmen geht.
Algorithmen werden sich in Unternehmen in Zukunft immer stärker durchsetzen; sie haben auch das Potenzial, modernen Unternehmen zahlreiche Vorteile zu bieten, z.B. eine Effizienzsteigerung, eine verringerte Voreingenommenheit (in einigen Fällen – zumindest im Vergleich zum Menschen; siehe
Sunstein, 2018) oder zumindest die Möglichkeit, potenzielle Verzerrungen im Urteil zu überprüfen (was bei menschlichen Entscheidungsträgern nur schwer möglich ist; siehe
Kleinberg et al., 2020). Aufgrund zunehmender virtueller Interaktionen angesichts der COVID-19-Pandemie und der zunehmend globalen Belegschaft dürfen Führungskräfte und Unternehmen potentielle negative Folgen, von denen viele durch Ängste noch verschärft werden können, nicht ausser Acht lassen.
Mit Hilfe der hier dargestellten Strategien – Verständnis und Humanisierung – können Data Scientists, Personalleiter/-innen, Führungskräfte und Unternehmen das Vertrauen der Mitarbeitenden in Algorithmen erhöhen, indem sie die von ihnen hervorgerufenen Ängste Schritt für Schritt abbauen. Wenn wir das allgemeine Verständnis für Algorithmen fördern, die Einflussgrössen und Prinzipien, die hinter den Vorhersagen stehen, transparenter machen, die "Menschen hinter den Algorithmen" hervorheben, sorgfältiger prüfen, wie Menschen von den Algorithmen betroffen sind, oder sie sogar in den Entwicklungsprozess miteinbeziehen, sind wir vielleicht auf dem richtigen Weg raus aus der Angst vor Algorithmen am Arbeitsplatz.
Über die AutorInnen:
Dr. Jamie Gloor (Bild) ist Digital Society Fellow an der Universität Zürich und Senior Lecturer an der Exeter University Business School. Sie promovierte in Wirtschaftswissenschaften (Betriebswirtschaft) an der Universität Zürich nach psychologischer Forschung an der Universität Yale sowie einem Master- und Bachelor-Studium in Psychologie in North Carolina. Forschungsaufenthalte führten sie nach Brisbane, Singapur und München. In der Forschung setzt sie ihre Schwerpunkte in den Themen Führung, Gender & Diversity und Humor.
Prof. Dr. Carolin Strobl ist Ordinaria für Psychologische Methodenlehre, Evaluation und Statistik an der Universität Zürich. Ihre Forschungsschwerpunkte liegen in der Entwicklung und Validierung von unverzerrten und interpretierbaren statistischen Verfahren in den Bereichen Psychometrie und Maschinelles Lernen.
Dr. Rudolf Debelak ist Oberassistent am Lehrstuhl für Psychologische Methodenlehre, Evaluation und Statistik an der Universität Zürich. Neben seiner Promotion in Psychologie hat er mehrere Jahre in der Entwicklungsabteilung des Testentwicklers Schuhfried gearbeitet, u.a. an der Rückmeldung von algorithmischen Entscheidungen an Testpersonen. Seine Forschungsschwerpunkte umfassen statistische Methoden zur Analyse psychologischer Testdaten sowie Anwendungen von Machine Learning in der Psychologie.
Unter "DSI Insights" äussern sich regelmässig Forscherinnen und Forscher der "Digital Society Initiative" (DSI) der Universität Zürich. Die DSI fördert die kritische, interdisziplinäre Reflexion und Innovation bezüglich aller Aspekte der Digitalisierung von Wissenschaft und Gesellschaft.