"KI steht an einem Wende­punkt"

21. September 2021, 13:33
image

Es sei an der Zeit ernsthaft über KI und ihre Folgen zu diskutieren. Die negativen Konsequenzen der Technologie könnten nicht länger ignoriert werden, mahnen Forscher.

Junge wie etablierte Unternehmen investieren Geld in Künstliche Intelligenz, um neue Services anzubieten, die sich in nie dagewesener Weise skalieren lassen. Die Erfolge in diesen Bereichen hätten zu einem Wendepunkt geführt, heisst es in einem Report der Stanford University. Es sei dringend nötig, sich mit den Risiken auseinanderzusetzen, die der breite KI-Einsatz mit sich bringe, so die Autoren.

Die wirtschaftliche Bedeutung ist noch gering, die Auswirkungen aber nicht mehr

Die wirtschaftliche Bedeutung von KI sei zwar bislang vergleichsweise gering. Aber die Technologie sei weit genug fortgeschritten, um "reale Auswirkungen auf Menschen, Institutionen und Kultur" zu haben, heisst es im Report. Die Technologie habe einen Wendepunkt erreicht, an dem ihre Schattenseiten in der realen Welt immer schwerer zu übersehen seien – und immer schwerer aufzuhalten.
Offensichtlich sei die Gefahr, dass KI es einfacher machen kann, Maschinen zu bauen, die in grossem Massstab spionieren können. Aber es gebe noch viele andere wichtige und subtilere Gefahren, heisst es im Report.
Einsatzgebiete seien etwas die Strafverfolgung, Gesundheitsfürsorge oder die Kreditvergabe. Sorge bereitet Wissenschaftlern etwa die Frage, was passiert, wenn KI im täglichen Leben eingesetzt wird, ohne dass ihre Macken vollständig behoben sind. Die Autoren verweisen hier auf Algorithmen, die zu Verzerrungen führen. Dadurch würden Vorurteile oder Ungleichheiten verstärkt.

KI ist kein Allheilmittel

Als weitere drängende Gefahr nennt die Studie "Techno-Solutionismus", die Ansicht, dass KI als Allheilmittel dienen könne, obwohl sie schlicht ein Werkzeug sei. In einigen Ecken des öffentlichen Bewusstseins würde man mit KI-Entscheidungen Neutralität und Unparteilichkeit verbinden, so die Autoren. Dies führe dazu, dass Systeme als objektiv akzeptiert werden, obwohl sie das Ergebnis voreingenommener historischer Entscheidungen oder sogar offenkundiger Diskriminierung sein können.
Amazon beispielsweise musste 2018 ein Rekrutierungstool verwerfen, weil die historischen Daten, mit denen es trainiert wurde, zu einem System führten, das systematisch Frauen benachteiligte.
Je mehr Fortschritte man in der Technologie sehe, desto grösser werde die Versuchung, KI-Entscheidungen auf immer mehr gesellschaftliche Probleme anzuwenden. Doch die Technologie schaffe oft grössere Probleme, während sie kleinere löst, führen die Autoren aus. Als Beispiel nennen sie Systeme, die die Verteilung von Sozialleistungen automatisieren und Personen, die durch das Raster fallen, den Zugang verweigern.
Automatisierte Entscheidungsfindung kann zu verzerrten Ergebnissen führen, die bestehende Vorurteile wiederholen und verstärken. Eine weitere potenzielle Gefahr bestehe darin, dass die Öffentlichkeit die von der KI abgeleiteten Schlussfolgerungen als Gewissheit akzeptiert, führen die Autoren aus.

Fallbeispiele aus Strafverfolgung und Gesundheitswesen

Dieser Ansatz bei der KI-Entscheidungsfindung könne beispielsweise in der Strafverfolgung oder im Gesundheitswesen fatale Folgen haben. Dies könne mit dem Beispiel einer Polizei-Software illustriert werden, die vorhersagen sollte, wo und wie Verbrechen geschehen werden. In einer Fallstudie habe man festgestellt, dass mit dem Ansatz unverhältnismässig viele Verbrechen in Gebieten mit einem höheren Anteil an nicht-weissen und einkommensschwachen Einwohnern vorhergesagt werden. "Wenn Datensätze die schwächeren Mitglieder der Gesellschaft unverhältnismässig stark repräsentieren, ist eklatante Diskriminierung ein wahrscheinliches Ergebnis", so die Mahnung der Autoren.
Ein ähnliches Problem zeige sich bei einem System, das auffällige Muttermale und somit potenziell Hautkrebs erkennen soll. Ein schlecht trainierter Algorithmus, der mit zu wenig Bildern von dunkelhäutigen Personen gefüttert wurde, sei entsprechend bei diesen Gruppen weniger treffsicher.
Der gut 80-seitige Bericht ist Teil des AI100-Projekts, das sich die Untersuchung der Auswirkungen von KI auf Mensch und Gesellschaft zum Ziel gesetzt hat. Dazu wird alle fünf Jahre ein Gremium gebildet, um den aktuellen Stand der KI zu bewerten. Dem aktuellen Report geht eine Publikation aus dem Jahr 2016 voran. Das Projekt soll Studien und Bewertungen erarbeiten, die als Leitlinien für die KI-Entwicklung dienen können, aber auch der Politik bei der Entwicklung von Richtlinien helfen sollen. Der aktuelle Report ist online verfügbar.

Loading

Mehr zum Thema

image

Quantencomputing: Uptown Basel will sich mit 433-Qubit profilieren

Auf dem Areal des Innovationsprojekts sollen Firmen auf die Quanteninfrastruktur von IBM zugreifen können. Leiter wird Damir Bogdan.

publiziert am 8.12.2022
image

Daten sollen strategisches Gut sein

Eine Befragung zeigt, dass Unternehmen noch wenig Wert aus ihren Daten generieren. HPE AI Advisor Bernd Bachmann erklärt, warum das so ist und wie sich das ändern könnte.

publiziert am 8.12.2022
image

EU-Gericht: Suchmaschinen müssen Links zu Falschinformationen löschen

Betroffene brauchen Beweise um Links löschen zu lassen, aber kein gerichtliches Urteil, sagt der Europäische Gerichtshof.

publiziert am 8.12.2022
image

Autonomer Päckli-Roboter kommt 2023 in die Schweiz

Der Loxo Alpha soll künftig Pakete auf Abruf liefern. Ein Testversuch in der Schweiz soll im Frühling 2023 starten. In welcher Region ist allerdings noch unklar.

publiziert am 7.12.2022