Googles sieben Prinzipien für "nette" KI

8. Juni 2018 um 14:25
  • innovation
  • künstliche intelligenz
  • google
  • f&e
image

Google arbeitet mit dem US-Verteidigungsministerium an einer Software, die mit künstlicher Intelligenz die Erkennung von Objekten durch Drohnen verbessern soll.

Google arbeitet mit dem US-Verteidigungsministerium an einer Software, die mit künstlicher Intelligenz die Erkennung von Objekten durch Drohnen verbessern soll. Rund 4600 Google-Mitarbeiter haben kürzlich in einem offenen Brief gefordert, dass der Konzern aus dem Pentagon-Projekt Maven aussteigen soll, 13 haben das Unternehmen gar aus Protest verlassen.
Der Tech-Konzern reagierte auf den Protest und erklärte, dass man den Vertrag mit dem Pentagon 2019 auslaufen lassen werde. Zudem hat Google nun in einem Blogpost seine angekündigten heiligen sieben Prinzipien für den Einsatz von KI veröffentlicht.
Soziale Vorteile: Google werde dort in die Entwicklung künstlicher Intelligenz investieren, wo der Gesamtnutzen die vorhersehbaren Risiken und Nachteile deutlich übersteige.
Keine Vorurteile: Künstliche Intelligenz kann bekanntlich auch rassistische und sexistische Vorurteile reproduzieren und verstärken – wenn sie mit den entsprechenden Daten gefüttert wird. Google gelobt Anstrengungen zu unternehmen, um dies zu verhindern.
Sicherheit: Der US-Konzern will Sicherheitspraktiken entwickeln und anwenden, um unbeabsichtigte Ergebnisse zu vermeiden, die zu Schäden führen können.
Rechenschaftspflicht: Neben menschlicher Führung und Kontrolle will Google auch Feedback-Mechanismen in KI-Lösungen einbauen und die Funktionsweise erklären.
Datenschutz: Google will in die Entwicklung und Nutzung von KI-Technologie Datenschutzgrundsätze einfliessen lassen.
Wissenschaftliche Standards: Google strebe nach hohen wissenschaftlichen Leistungen und Standards, um die Entwicklung im Feld der künstlichen Intelligenz voranzutreiben.
Verfügbarkeit: KI soll für jene Bereiche zur Verfügung gestellt werden, die diesen Prinzipien entsprechen.
Google-Chef Sundar Pichai, erklärte im Blogpost, bei "Waffen oder andere Technologien, deren Zweck das Zufügen oder Begünstigen von Verletzungen beim Menschen" ist, dürfe keine KI-Technologie verwendet werden. Allerdings werde man weiter mit Regierungen und auch dem Militär in anderen Gebieten zusammenarbeiten. (ts)

Loading

Mehr zum Thema

image

Der "emotionale" Chef sieht viel weiblicher aus als der "vernünftige"

Mit neuen Tools kann man sich Vorurteile und stereotype Darstellungen von Künstlicher Intelligenz zeigen lassen. Sie sind zum Teil erschreckend deutlich.

publiziert am 24.3.2023
image

Zurich prüft ChatGPT im Versicherungsgeschäft

Der Versicherer will untersuchen, wie Künstliche Intelligenz die Schadensregulierung und das Underwriting effizienter machen kann.

publiziert am 24.3.2023
image

Schweizer Forscher sezieren KI-Entscheidungsprozesse

Das Forscherteam glaubt Methoden gefunden zu haben, um zuverlässiger als bisher Licht ins Dunkel von "KI-Black-Boxes" zu werfen.

publiziert am 24.3.2023
image

Mozilla investiert 30 Millionen in eigenes KI-Startup

Mozilla.ai will eine vertrauenswürdige und unabhängige Open-Source-KI aufbauen.

publiziert am 23.3.2023