Tech-Angestellte protestieren gegen KI-Waffen­systeme

21. Mai 2024 um 10:43
image
Kritik von Mitarbeitenden passt nicht in das Image von Google mit seinen farbenfrohen Büros.

Google-Mitarbeitende fordern, dass die von ihnen entwickelten Technologien nicht für Zwecke verwendet werden, die Menschenrechte verletzen. Der Tech-Gigant unterbindet ihren Protest rabiat, kritisiert die Gewerkschaft Syndicom.

An einer nationalen Konferenz zu KI und Ethik hat der ICT-Sektor der Gewerkschaft Syndicom 2019 eine Resolution verabschiedet, die unter anderem ein Verbot von Waffen mit KI-Systemen forderte. "Die Aktualität dieser Forderung wird gerade auch im Krieg in Gaza und Israel augenscheinlich", schreibt die Gewerkschaft nun.
Mit Bezug auf Medienberichte kritisiert die Gewerkschaft die Verwendung von KI-Systemen. Rechtsstaatliche und demokratische Prinzipien müssten bei der Verwendung von KI unbedingt geschützt, geachtet und von Abhilfe­me­cha­nismen begleitet werden, so Syndicom. Komplett autonome KI-Systeme seien ethisch unhaltbar, es brauche den Menschen im Loop.
Schliesslich stehe auch die Politik in der Pflicht, KI-Systeme zu regulieren, möglichst global, schreibt die Gewerkschaft.

Israel bezieht Cloud-Infrastruktur von Google und Amazon

Vor wenigen Wochen gelangte das "Project Nimbus" von Google an die Öffentlichkeit. Dabei handelt es sich um einen gemeinsamen Vertrag von Israel, Google und Amazon, der 2021 unterzeichnet wurde, und die Bereitstellung von Cloud-Infrastrukturen, KI und weitere Technologien an die israelische Regierung und ihr Militär regelt.
Von Google-Mitarbeitenden in den USA gab es deswegen Proteste, die mittlerweile auch die Schweiz erreicht haben. Die Kritiker fordern laut einem Bericht des 'Tages-Anzeigers' einen Stopp oder zumindest mehr Transparenz darüber, wie die Produkte, die sie entwickeln, eingesetzt werden.

KI im Kriegseinsatz

"Wenn die israelische Armee KI-Instrumente nutzt, ist es für mich naheliegend, dass dabei auch Google-Systeme involviert sind", so ein Mitarbeiter von Google Zürich gegenüber dem 'Tages-Anzeiger'. Er halte es für möglich, dass die israelische Armee durch Nimbus auch "Lavender" verwendet.
Bei "Lavender" handelt es sich um ein von israelischen Streitkräften entwickeltes KI-Tool, mit dem Angriffsziele bestimmt werden. Darüber hatten unter anderem die 'Washington Post' und 'The Guardian' berichtet. Demnach werden die Entscheidungen der KI kaum von Menschen hinterfragt.
Die Lavender-KI gesellt sich zu "The Gospel", ein ebenfalls von Israel entwickeltes KI-System. Ein grundlegender Unterschied zwischen den beiden Systemen liege in der Definition des Ziels: Während "The Gospel" Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiere "Lavender" Menschen, berichtete die israelisch-palästinensische Publikation '+972 Magazine'.

Syndicom nimmt Google in die Verantwortung

In ihrer aktuellen Resolution fordert Syndicom die Technologiekonzerne auf, ihre Verantwortung über die ganze Liefer- und Wertschöpfungskette wahrzunehmen. Google und andere sollen sicherstellen, dass ihre Technologien nicht für Zwecke eingesetzt werden, die Menschenrechte verletzen oder Konflikte verschärfen.
Transparenz sei unerlässlich, so die Gewerkschaft, und Google wie auch andere Tech-Firmen sollten sich öffentlich zu ethischen Grundsätzen verpflichten. Ausserdem sollten sie ihre Mitarbeitenden aufklären, wofür der Code verwendet wird, den sie entwickeln.
Falls sich Mitarbeitende für diese Forderungen einsetzen, "dürfen dadurch keine beruflichen Nachteile entstehen", so eine weitere Forderung der Gewerkschaft. In den USA hat Google aufgrund ihrer Beteiligung an den Protesten mehrere Dutzend Mitarbeitende entlassen, berichtete unter anderem 'CNN'.
Gemäss dem 'Tages-Anzeiger' erklärt Google, seine Tools nicht für militärische Zwecke zu verkaufen, und verweist auf die Bedingungen, die besagen, dass die Tools nicht missbräuchlich verwendet werden dürfen. Rechtsprofessorin Christine Kaufmann erklärt: "Heute wird von Firmen nicht nur erwartet, dass sie keine gesellschaftlichen Schäden verursachen, sondern dass sie einen positiven Beitrag zur Gesellschaft leisten." Sie leitet den OECD-Ausschuss "Responsible Business Conduct", dessen Richtlinien eine Sorgfaltsprüfung im Technologiesektor umfassen: "Unternehmen müssen überwachen, wofür ihre Produkte verwendet werden."

Loading

Mehr erfahren

Mehr zum Thema

image

Schwyzer Kantonsratsdebatten können im Internet übertragen werden

Die Regierung war zwar dagegen, das Volk hat sich aber dafür entschieden.

publiziert am 10.6.2024
image

Neuer Leitfaden für den M365-Einsatz in Gemeinden

Die Zürcher Datenschutzbeauftragte erklärt, was bei der Einführung von Microsoft 365 berücksichtigt werden sollte, etwa mit Blick auf den Cloud Act.

publiziert am 7.6.2024 2
image

Swisscom bietet Zugang zu Nvidia-Supercomputern

Die Swiss AI Platform helfe Kundinnen und Kunden beim Entwickeln von KI-Lösungen oder dem Training von Sprachmodellen, sagt Swisscom.

publiziert am 7.6.2024
image

Podcast: Was SAP von US-Anbietern lernen kann

Die erste internationale Episode überhaupt: Wir senden aus Orlando, Florida, und berichten über die Neuheiten der Hausmesse von SAP. Alles zu KI, Cloud und die Realität von Unternehmen, die oft anders ist, als es SAP gerne hätte.

publiziert am 7.6.2024