Cyberkriminelle können KI-Funktionen von Slack nutzen, um persönliche Daten von Nutzerinnen und Nutzern zu stehlen. Die entsprechende Lücke wurde von Sicherheitsexperten von
Promptarmor entdeckt und publik gemacht.
Slack-KI lässt sich manipulieren
Demnach ist es möglich, die Slack-KI mittels Prompt Injection dazu zu bringen, vorhandene Sicherheitsmechanismen zu umgehen und so Daten zu stehlen.
Folgendes Szenario ist laut Promptarmor denkbar: Cyberkriminelle gelangen über öffentliche Slack-Kanäle in die Umgebungen von Unternehmen und manipulieren die KI so, dass Userinnen und User bei der Nutzung der Künstlichen Intelligenz die Antwort erhalten, dass sie sich erneut authentifizieren müssen.
Beispielhaft haben die Experten die Suche nach API-Schlüsseln aufgeführt, wenn Nutzende diese in Slack geteilt haben. Der präsentierte Link führt dann natürlich nicht zur richtigen Authentifizierungsseite, sondern zu einer manipulierten. So könnten die Cyberkriminellen auch an sensible Informationen gelangen, die in privaten Unterhaltungen stecken.
"Keine Beweise für unbefugten Zugriff"
Ebenso soll es möglich sein, denselben Effekt zu erzielen, wenn Nutzerinnen und Nutzer manipulierte Dokumente, etwa PDF-Dateien, in Slack hochladen. Die Sicherheitsexperten empfehlen Slack-Admins deshalb, den Zugriff der Slack-KI auf Dokumente einzuschränken. Wie das geht, hat Slack
an dieser Stelle beschrieben.
Slack selbst sagt zur Schwachstelle, dass eine Untersuchung des beschriebenen Szenarios eingeleitet worden sei. Man habe einen Patch bereitgestellt, um das Problem zu beheben und "wir haben derzeit keine Beweise für einen unbefugten Zugriff auf Kundendaten".