"KI steht an einem Wende­punkt"

21. September 2021, 13:33
image

Es sei an der Zeit ernsthaft über KI und ihre Folgen zu diskutieren. Die negativen Konsequenzen der Technologie könnten nicht länger ignoriert werden, mahnen Forscher.

Junge wie etablierte Unternehmen investieren Geld in Künstliche Intelligenz, um neue Services anzubieten, die sich in nie dagewesener Weise skalieren lassen. Die Erfolge in diesen Bereichen hätten zu einem Wendepunkt geführt, heisst es in einem Report der Stanford University. Es sei dringend nötig, sich mit den Risiken auseinanderzusetzen, die der breite KI-Einsatz mit sich bringe, so die Autoren.

Die wirtschaftliche Bedeutung ist noch gering, die Auswirkungen aber nicht mehr

Die wirtschaftliche Bedeutung von KI sei zwar bislang vergleichsweise gering. Aber die Technologie sei weit genug fortgeschritten, um "reale Auswirkungen auf Menschen, Institutionen und Kultur" zu haben, heisst es im Report. Die Technologie habe einen Wendepunkt erreicht, an dem ihre Schattenseiten in der realen Welt immer schwerer zu übersehen seien – und immer schwerer aufzuhalten.
Offensichtlich sei die Gefahr, dass KI es einfacher machen kann, Maschinen zu bauen, die in grossem Massstab spionieren können. Aber es gebe noch viele andere wichtige und subtilere Gefahren, heisst es im Report.
Einsatzgebiete seien etwas die Strafverfolgung, Gesundheitsfürsorge oder die Kreditvergabe. Sorge bereitet Wissenschaftlern etwa die Frage, was passiert, wenn KI im täglichen Leben eingesetzt wird, ohne dass ihre Macken vollständig behoben sind. Die Autoren verweisen hier auf Algorithmen, die zu Verzerrungen führen. Dadurch würden Vorurteile oder Ungleichheiten verstärkt.

KI ist kein Allheilmittel

Als weitere drängende Gefahr nennt die Studie "Techno-Solutionismus", die Ansicht, dass KI als Allheilmittel dienen könne, obwohl sie schlicht ein Werkzeug sei. In einigen Ecken des öffentlichen Bewusstseins würde man mit KI-Entscheidungen Neutralität und Unparteilichkeit verbinden, so die Autoren. Dies führe dazu, dass Systeme als objektiv akzeptiert werden, obwohl sie das Ergebnis voreingenommener historischer Entscheidungen oder sogar offenkundiger Diskriminierung sein können.
Amazon beispielsweise musste 2018 ein Rekrutierungstool verwerfen, weil die historischen Daten, mit denen es trainiert wurde, zu einem System führten, das systematisch Frauen benachteiligte.
Je mehr Fortschritte man in der Technologie sehe, desto grösser werde die Versuchung, KI-Entscheidungen auf immer mehr gesellschaftliche Probleme anzuwenden. Doch die Technologie schaffe oft grössere Probleme, während sie kleinere löst, führen die Autoren aus. Als Beispiel nennen sie Systeme, die die Verteilung von Sozialleistungen automatisieren und Personen, die durch das Raster fallen, den Zugang verweigern.
Automatisierte Entscheidungsfindung kann zu verzerrten Ergebnissen führen, die bestehende Vorurteile wiederholen und verstärken. Eine weitere potenzielle Gefahr bestehe darin, dass die Öffentlichkeit die von der KI abgeleiteten Schlussfolgerungen als Gewissheit akzeptiert, führen die Autoren aus.

Fallbeispiele aus Strafverfolgung und Gesundheitswesen

Dieser Ansatz bei der KI-Entscheidungsfindung könne beispielsweise in der Strafverfolgung oder im Gesundheitswesen fatale Folgen haben. Dies könne mit dem Beispiel einer Polizei-Software illustriert werden, die vorhersagen sollte, wo und wie Verbrechen geschehen werden. In einer Fallstudie habe man festgestellt, dass mit dem Ansatz unverhältnismässig viele Verbrechen in Gebieten mit einem höheren Anteil an nicht-weissen und einkommensschwachen Einwohnern vorhergesagt werden. "Wenn Datensätze die schwächeren Mitglieder der Gesellschaft unverhältnismässig stark repräsentieren, ist eklatante Diskriminierung ein wahrscheinliches Ergebnis", so die Mahnung der Autoren.
Ein ähnliches Problem zeige sich bei einem System, das auffällige Muttermale und somit potenziell Hautkrebs erkennen soll. Ein schlecht trainierter Algorithmus, der mit zu wenig Bildern von dunkelhäutigen Personen gefüttert wurde, sei entsprechend bei diesen Gruppen weniger treffsicher.
Der gut 80-seitige Bericht ist Teil des AI100-Projekts, das sich die Untersuchung der Auswirkungen von KI auf Mensch und Gesellschaft zum Ziel gesetzt hat. Dazu wird alle fünf Jahre ein Gremium gebildet, um den aktuellen Stand der KI zu bewerten. Dem aktuellen Report geht eine Publikation aus dem Jahr 2016 voran. Das Projekt soll Studien und Bewertungen erarbeiten, die als Leitlinien für die KI-Entwicklung dienen können, aber auch der Politik bei der Entwicklung von Richtlinien helfen sollen. Der aktuelle Report ist online verfügbar.

Loading

Mehr zum Thema

image

BRACK.CH liefert – auch an Geschäftskunden

Bei der Beschaffung von Betriebs- und Verbrauchsmaterial gibt es in vielen Unternehmen und Institutionen Potenzial, um Kosten zu sparen. Dabei kann sich die Lieferantenwahl als entscheidender Schlüsselfaktor erweisen. Vier Gründe, warum es sich lohnt, bei BRACK.CH einzukaufen.

image

Insurtech-Startup Grape sichert sich 1,7 Millionen Franken

Der Schweizer SaaS-Anbieter will mit dem Geld aus einer Pre-Seed sein Produkt weiterentwickeln und das Team ausbauen.

publiziert am 5.8.2022
image

Wie es zur Warnung vor Kaspersky kam

Dokumente des deutschen Amtes für Cybersicherheit stützen die Position von Kaspersky. Der Security-Anbieter kritisierte die BSI-Warnung als politischen Entscheid.

publiziert am 5.8.2022
image

ETH hat Augmented Reality für Zahnmediziner entwickelt

Game Developer des ETH Game Technology Centers haben eine Augmented-Reality-App programmiert, die in der Zahnmedizin die Prozesse des Knochenumbaus spielerisch vermittelt.

publiziert am 5.8.2022