Linkedin: Wer KI-Unsinn teilt, kann zur Verantwortung gezogen werden

9. Oktober 2024 um 11:37
image
Foto: Shutter Speed / Unsplash

Linkedin räumt ein, dass seine KI-Assistenten irreführende Informationen generieren können. Wer diese verbreitet, ist aber selbst verantwortlich.

In der nächsten Version seines User-Agreements, die am 20. November in Kraft tritt, räumt Linkedin ein, dass seine KI-Tools falsche oder irreführende Informationen generieren können. Allerdings müssen User und Userinnen selbst die KI-Inhalte daraufhin prüfen. Wer dies nicht tut oder die Fehler übersieht und die Inhalte trotzdem teilt, kann von Linkedin dafür zur Verantwortung gezogen werden.
Dies ist die – von uns übersetzte – relevante Passage der neuen Nutzungsbestimmungen: "Generative KI-Funktionen: "Durch die Nutzung der Dienste können Sie mit den von uns angebotenen Funktionen interagieren, die die Generierung von Inhalten für Sie automatisieren. Die generierten Inhalte sind möglicherweise ungenau, unvollständig, verzögert, irreführend oder für Ihre Zwecke nicht geeignet. Bitte überprüfen und bearbeiten Sie diese, bevor Sie sie mit anderen teilen. Wie bei allen Inhalten, die Sie auf unseren Diensten teilen, sind Sie dafür verantwortlich, sicherzustellen, dass sie unseren Community-Policies entsprechen, einschliesslich der Nichtweitergabe irreführender Informationen."
Verstösse gegen die Richtlinien können je nach der Schwere des Vergehens unterschiedliche Folgen haben. In leichten Fällen wird die Verbreitung von beanstandeten Inhalten limitiert oder sie werden gelöscht. Bei wiederholten Verstössen können Accounts suspendiert werden und in besonders schwerwiegenden Fällen kann Linkedin auch eine sofortige Accountsperrung durchführen.

Die Frage der Verantwortlichkeit

KI-Tools auf Linkedin gibt es unter anderem für Recruiting-Kampagnen, zur Erstellung von Profilen oder für Sales, die bestimmte Leads suchen. Die KI-Tools funktionieren aber derzeit nur auf Englisch und sind nur für Premium-User zugänglich.
Die neuen Bestimmungen von Linkedin werfen ein Schlaglicht auf die wichtige Frage nach der Verantwortlichkeit für KI-generierte Inhalte. Selbstverständlich sollten Nutzerinnen und Nutzer KI-Inhalte prüfen, bevor sie sie veröffentlichen. Aber können die Anbieter der KI-Tools wirklich jegliche Verantwortung von sich schieben?
Linkedin hat kürzlich schon für negative Schlagzeilen rund um seine KI-Tools gesorgt. Vor knapp einem Monat kam heraus, dass das soziale Netzwerk eine Zeit lang Posts und andere Daten von Userinnen und Usern ohne um Erlaubnis zu fragen gesammelt und zum Training von generativen KI-Modellen verwendet hat.

Loading

Mehr zum Thema

image

Software bremst Aargauer Friedensrichter aus

Die fehlerhafte Umstellung auf Windows 11, neue Gesetzestexte und die auslaufende Wartung behindern den Arbeitsalltag der Friedensrichterinnen und -richter im Aargau.

publiziert am 10.4.2025
image

Eraneos will weiter expandieren

Vergangenes Jahr ist der IT-Dienstleister dank Expansion nach Grossbritannien und der Übernahme der Luzerner Beratungsboutique Sevenq moderat gewachsen.

publiziert am 10.4.2025
image

RZs werden bald so viel Strom brauchen wie ganz Japan

Der Strombedarf von Rechenzentren wird sich gemäss der Internationalen Energieagentur bis 2030 mehr als verdoppeln. Ein Haupttreiber ist KI.

publiziert am 10.4.2025
image

Europa hinkt bei der KI-Einführung hinterher

Eine Studie der ETH hat die Verbreitung und Auswirkungen von Künstlicher Intelligenz untersucht. Dabei zeigte sich, dass in den USA und China bessere Voraussetzungen herrschen.

publiziert am 9.4.2025