Workday: "KI darf keine Entscheidungen fällen"

26. Februar 2024 um 08:59
image
Clare Hickie, Chief Technology Officer EMEA bei Workday. Foto: zVg

Unternehmen werden nicht müde, zu betonen, dass sie Künstliche Intelligenz verantwortungsvoll einsetzen. Workday erklärt, was dies für den ERP-Anbieter konkret bedeutet.

Für den Business-Software-Anbieter Workday ist klar: KI soll keine Entscheidung fällen. Der Mensch müsse die finale Instanz bleiben, so Clare Hickie, EMEA CTO, in einem Gespräch mit inside-it.ch. Sie vergleicht dies mit der Nutzung von beispielsweise einer Karten- oder Musik-App. Diese mache zwar Vorschläge, basierend auf dem aktuellen Verkehr oder den bisherigen Präferenzen, die Entscheidung, ob man diesen auch folgen möchte, liebe aber beim Mensch. "Das ist ein sehr wichtiger Grundsatz für uns: Wir automatisieren mit KI keine Entscheidungen", so die EMEA-Technologiechefin.
Workday arbeite seit 10 Jahren mit Machine Learning und Künstlicher Intelligenz, so das Unternehmen im Rahmen einer Medienveranstaltung am EMEA-Hauptsitz in Dublin. Seit dem Launch von ChatGPT vor rund eineinhalb Jahren spreche er aber praktisch über nichts anderes mehr, sagte der globale CTO Jim Stratton. "Danke OpenAI", fügte er mit leicht ironischem Unterton an.
Generative KI gibt es aber bald auch bei Workday. Das Unternehmen hat kürzlich Lösungen vorgestellt, um beispielsweise Stelleninserate zu verfassen oder Verträge zu analysieren. Dies entlaste die Angestellten, so Hickie, die betonte: "Damit wollen wir den Menschen nicht ersetzen, sondern ihnen die Arbeit erleichtern und Zeit verschaffen." Die Mitarbeitenden blieben die letzte Entscheidungsinstanz.

Transparenz als Schlüsselfaktor

Eine von Workday durchgeführte Befragung unter Führungspersonen und Angestellten zeigt, dass diese beiden Gruppen unterschiedliche Auffassungen über den Einsatz von KI haben. So glauben gut zwei Drittel der Führungskräfte, dass Künstliche Intelligenz in einem Unternehmen verantwortungsvoll eingesetzt werden könne. Unter den Mitarbeitenden ist der Anteil aber deutlich kleiner. Diese Diskrepanz nennt Workday den "Trust Gap" – Angestellte haben weniger Vertrauen in die Technologie. Diese Skepsis äussere sich auch bei der Frage, wie Unternehmen sicherstellen wollen, dass am Schluss der Mensch entscheidet.
Nur ein kleiner Anteil der Angestellten weiss gemäss der Befragung, ob ihre Unternehmen KI-Richtlinien implementiert haben und wie diese konkret aussehen. Darüber hinaus gaben gerade einmal 23% der Angestellten an, zu glauben, dass die Arbeitgeber ihre Bedürfnisse an erste Stelle stellen, wenn es um KI geht. Interessanterweise sei diese Zahl bei den Business-Leadern noch kleiner, sagte Chandler Morse, beim Unternehmen für Corporate Affairs zuständig.
Bei vielen dieser Unsicherheiten würde mehr Transparenz helfen, so Workday. Die Firmenvertreter meinen damit nicht nur Transparenz im Sinne von Informationen, wie KI in einem Unternehmen konkret genutzt werden soll, sondern auch Einblicke in die Technologie dahinter. Man stelle seinen Kunden deshalb Informationen zur Verfügung, wie die KI-Modelle funktionieren oder welche Daten dahinter stecken.
image
Chandler Morse, VP Public Policy und Leiter Corporate Affairs bei Workday. Foto. zVg
Mit mehr Transparenz könne man den "Trust Gap" schliessen, zeigte sich Morse überzeugt. Dies sei essenziell. Denn Angestellte, die ihren Tools nicht vertrauen, würden diese auch nicht verwenden.

"Es braucht Regulierung"

In Sachen KI-Regulierung sei die EU ein Vorreiter, so Morse vor Medienvertretern. Er geht davon aus, dass auch in anderen Regionen ähnliche Vorstösse kommen werden. Auf Bundesebene sei die USA manchmal langsam, das habe man auch nach der DSGVO gesehen. Dafür aber würden einzelne Staaten, etwa Kalifornien, die KI-Regulierung langsam vorantreiben, ähnlich wie sie es vor einigen Jahren beim Datenschutz gemacht hätten.
Im Grossen und Ganzen zeigt sich Morse zufrieden mit dem "AI Act" der EU. Dass Regulierung nötig ist, stehe für ihn ausser Frage. Mit der DSGVO habe die EU Erfahrungen gesammelt und auch gelernt, dass Technologie schwierig zu regulieren sei. Den risikobasierten Ansatz, den die EU für die KI-Regulierung fährt, bewertet er positiv. Spannend werde nun, wie die weiteren Rechtsvorschriften aussehen werden, etwa was die Vorgaben an Transparenz für Large Language Models (LLM) anbelange.
Zufrieden zeigte sich auch Dympna O'Sullivan, KI-Forscherin und akademische Leiterin des Digital Futures Research Hubs an der Technischen Universität (TU) Dublin. Sie sehe die EU-Regulierung nicht als Einschränkung. Gerade Wissenschaft und Forschung sollten beim transparenten und verantwortungsvollen Umgang mit KI an vorderster Front sein.
Interessenbindung: Die Autorin wurde von Workday an den Medienevent nach Dublin eingeladen (Flug, Unterkunft).

Loading

Mehr erfahren

Mehr zum Thema

image

Mozilla kritisiert Online­platt­formen wegen mangelnder Transparenz

Die EU hat Facebook, X oder Snapchat besondere Transparenz­pflichten bei Werbung auferlegt. Einem Mozilla-Bericht zufolge sind deren Tools aber ungenügend.

publiziert am 16.4.2024
image

Was das Unispital Zürich von seinem KIS-Anbieter erwartet

Das USZ hat eine Ausschrei­bung für ein neues Klinik­informations­system publiziert. Zunächst trifft das Spital eine Vorauswahl.

publiziert am 15.4.2024
image

Erstes deutsches Bundesland setzt einen KI-Beirat ein

In Sachsen soll sich ein Beirat für digitale Ethik mit dem Einsatz von KI befassen. Ein solcher sei "dringend notwendig", so die Landesregierung.

publiziert am 15.4.2024
image

Winterthur genehmigt Kredit für Steuersoftware Nest

Mit Winterthur fällt die nächste Zürcher Gemeinde den Entscheid für ein Nest-Update und bewilligt 4,6 Millionen Franken. Der Zuschlag ist bereits an KMS erfolgt.

publiziert am 15.4.2024