"Jedes Kind wird mit KI einen Hackerangriff durchführen können"

22. November 2023 um 10:22
image
Isabel Steiner von AlpineAI. Foto: zVg

Isabel Steiner befasst sich intensiv mit Künstlicher Intelligenz. Im Interview sagt sie, was in Zukunft noch so alles auf uns zukommen wird.

Anfang Dezember findet in Zürich der GOHack23 von Gobugfree statt. Unternehmen können am Event Webanwendungen oder digitale Dienste von einer Community von Cybersicherheitsexperten und professionellen ethischen Hackern prüfen lassen. Für die White-Hat-Hacker steht ein Topf mit Bountys im Wert von 5000 Franken parat.
Auf der Bühne stehen wird auch Isabel Steiner. Sie ist seit kurzem als Lead Engineer bei AlpineAI tätig und mit ihrem Team für die Entwicklung von SwissGPT zuständig. Wir haben uns im Vorfeld der Veranstaltung mit ihr darüber unterhalten, wie Cybersecurity und Künstliche Intelligenz zusammenhängen und wo die Chancen und Gefahren liegen.
Sie sprechen am GOHack23 in Zürich. Können Sie schon etwas zu Ihrer Keynote verraten? Ich bin bekannt dafür, dass ich sehr mutig bin und mich mit Zukunftsprognosen gerne auf die Äste hinaus wage. Dazu werde ich am GOHack23 ein paar Wetten abschliessen, wie die Welt in 10 bis 15 Jahren unter dem Einfluss von Künstlicher Intelligenz aussehen könnte.
Können Sie dazu Beispiele nennen? Ich glaube fest daran, dass die nächste Generation gleich mit Künstlicher Intelligenz interagieren wird, wie wir mit Menschen. Der Umgang mit KI wird in Zukunft super gewöhnlich sein. Heute geborene Kinder werden sich in ihrer Jugend nicht mehr darum kümmern, ob sie mit Menschen oder Maschinen interagieren.
Dazu wird der Mensch auch immer mehr mit der Technologie verschmelzen, so dass quasi Cyborgs entstehen. Wo sollen da die Grenzen gezogen werden, beispielsweise bei der Gesetzgebung? Als Beispiele für die Zukunft denke ich an Cyborgs mit sehr schneller Reaktionszeit, die als Busfahrer arbeiten, oder solche mit speziell ausgeprägten emotionalen Fähigkeiten, die dann als Lehrpersonen tätig sind. Dabei muss man sich aber auch immer fragen, wer haftet, wenn etwas schiefgeht?
Mit solchen Fragen werden wir uns in den nächsten 10 Jahren und darüber hinaus beschäftigen müssen.
Also deutlich mehr Automatisierung? Genau. Dazu müssen wir uns als Gesellschaft überlegen, wie viele Menschen noch arbeiten müssen und was es überhaupt noch zu tun gibt. Ich glaube deshalb auch, dass ein bedingungsloses Grundeinkommen sehr schnell Realität werden wird, weil die Welt so stark automatisiert sein wird.
Am GOHack23 steht die Cybersicherheit im Fokus. Was sind die Gründe dafür, dass KI und Cybersecurity derzeit in aller Munde sind? Bei der KI sind meiner Meinung nach ChatGPT und Midjourney dafür verantwortlich. Diese beiden Tools haben stark dazu beigetragen, dass die Technologie einer breiteren Öffentlichkeit zugänglich wurde. Was vorher unvorstellbar war, wurde plötzlich so greifbar.
Und wie sieht es mit der Cybersicherheit aus? Bei der Sicherheit hat unter anderem der Krieg in der Ukraine dafür gesorgt, dass das Thema heute präsenter ist. Es wird viel darüber geschrieben und immer mehr Individuen haben schon einmal einen Cyberangriff am eigenen Leib erlebt. Und sei es auch nur eine einfache Phishing- oder Fraud-E-Mail. Es passiert immer öfter und es wird immer mehr darüber berichtet. Ich glaube, das führt generell zu mehr Aufmerksamkeit.

Tickets

Der GOHack23 am 1. und 2. Dezember in Zürich steht ganz im Zeichen von Cybersecurity. Das Event bietet Gelegenheit, um das stetig wachsende Feld zu erkunden. Treffen Sie Schlüsselpersonen aus der Industrie und erfahren Sie mehr über Karrierewege in der Cybersecurity. Die Veranstaltung eignet sich für Einsteiger, Fortgeschrittene und Interessierte aus allen Branchen. Tickets sind online erhältlich.
Welche Zukunftsszenarien sehen Sie im Zusammenhang mit Künstlicher Intelligenz und Cybersicherheit? Es gibt ganz gefährliche Szenarien mit Angriffen auf die kritische Infrastruktur, insbesondere wenn sie von ausländischen Regierungen zum Beispiel auf die Strom- oder Wasserversorgung der Schweiz abzielen. Solche Angriffe sehe ich als eine grössere Gefahr als die normale Kriegsführung. Man kann ein Land praktisch zerstören, indem man Wasser oder Strom abschaltet.
Kann KI dabei helfen, solche Angriffe zu verhindern? Je mehr Systeme ans Internet angebunden sind, desto mehr werden wir solche Angriffe erleben. In einem utopischen Szenario gäbe es eine General AI, die alle Gefahren erkennen und gleichzeitig bannen könnte.
Gleichzeitig können auch Cyberkriminelle die Technologie nutzen. Das ist richtig. Es herrscht ständiges Aufrüsten. Gut und Böse sind immer auf dem gleichen Entwicklungsstand der Technologie. Wenn einer etwas verhindern kann, dann kann es ein anderer wieder umgehen und das muss dann auch wieder verhindert werden. Dabei ist in diesem Rennen jeder einzelne Fortschritt entscheidend, um dem Gegner einen Schritt voraus zu sein.
Kennen Sie in Bezug auf die Cybersicherheit KI-Anwendungen, die schon gut funktionieren? Ja, ich habe 2015 für Swisscom im Silicon Valley gearbeitet und da ist mir die Firma E8 Security Case begegnet. Diese setzt Machine Learning ein, um Gefahren im Cyberraum zu erkennen. Dazu analysiert das Unternehmen alle Daten seiner Kunden, zum Beispiel Logs, Website Traffic und Netzwerkdaten. Daraus wird ein Datenpool geschaffen, der für die Mustererkennung verwendet wird. So können auch die kleinsten Anomalien aufgedeckt werden.
Was können Large Language Models (LLM) zur Cybersicherheit beitragen? Eine universitäre Forschung hat untersucht, wie LLMs Spam entdecken können. Das ist recht paradox, denn ein LLM schreibt eine Spam-Nachricht und irgendein anderes sagt, dass dieses wahrscheinlich vor einer Maschine geschrieben worden ist. Das finde ich noch lustig, aber bei den Menschen ist es auch so: Irgendjemand generiert Fraud und ein anderer Mensch sagt, da musst du aufpassen, das ist wahrscheinlich Betrug.
Grundsätzlich bin ich überzeugt, dass Prediction Modeling und Clustering in Zukunft noch besser werden, weil immer mehr Kapazitäten zur Verfügung stehen. Mit weiteren Skalierungen können solche Dienste irgendwann vielleicht vollständig automatisiert werden.
Was glauben Sie, was kann KI besser als der Mensch? Eigentlich fast alles. Irgendwann wird sicher der Moment kommen, in dem uns KI in wichtigen Belangen überholen wird. Bis jetzt ist das in der Gesamtkonstellation aber noch nicht der Fall. Gerade für die Erarbeitung einer Strategie oder einer Ressourcenplanung sind heute immer noch Menschen am besten. Ich schätze, dass sich dies in den nächsten 5 Jahren ändern könnte. Je mehr es um operative Arbeiten geht, desto besser sind die Maschinen geeignet, denn sie sind viel schneller und können sich gleichzeitig mit unzähligen Details in der Tiefe und Breite beschäftigen.
Welche Risiken ergeben sich daraus? Jedes achtjährige Kind kann einen automatisierten Hackerangriff basteln, der super gut skaliert und höchstwahrscheinlich nicht getrackt werden kann. Das Know-how für Cyberangriffe ist zugänglicher geworden. Jeder, der ein bisschen böses Blut in sich hat, kann fast ohne Vorkenntnisse hacken.
Weitere Risiken ergeben sich aus der Skalierbarkeit der Technologie. Staaten mit grossen finanziellen Mitteln und bösen Absichten könnten viel Geld in automatisierte oder sehr personalisierte Hackerangriffe stecken, um mehr Wirkungen zu erzielen. Ich glaube, die Geschwindigkeit, mit der man Riesenmengen an Daten saugen, analysieren und für Angriffe aufbereiten kann, wird stetig zunehmen.
Dazu kosten solche Angriffe immer weniger. Früher wurde dafür noch viel Geld ausgegeben. Heute kann man eine Vielzahl von Attacken fast gratis erzeugen und um die Welt schicken. Mit dem Preisrückgang für Rechenleistung in der Cloud werden solche Angriffe immer günstiger und auch sehr einfach zugänglich.
Würden Sie sagen, dass KI mehr zu unserer Cybersicherheit beiträgt oder ihr mehr schadet? Weder noch. Es wird so sein, dass die eine Seite etwas macht und die andere Seite nachzieht. Ich fürchte, dass die Cyberkriminellen am Ende gewinnen, weil sie sich an keine Regeln halten müssen. Die grossen Tech-Konzerne müssen stets auch die lokalen Regulierungen und die Datenschutzvorgaben beachten. Die Hacker hingegen befolgen keine Vorgaben und missachten Gesetze ganz einfach.
Interessenbindung: Das Interview wurde im Rahmen einer Medienpartnerschaft von inside-it.ch mit dem GOHack23 geführt.

Möchten Sie uns unterstützen?

Inside IT steht für unabhängigen und qualitativ hochwertigen Journalismus. Unsere Inhalte sind kostenlos verfügbar und bleiben dies auch weiterhin. Umso mehr würden wir uns freuen, wenn Sie unsere Arbeit und unsere Recherchen mit einem Betrag Ihrer Wahl unterstützen. Vielen Dank!
Jetzt unterstützen



Loading

Mehr zum Thema

image

Wie Künstliche Intelligenz KI-Modelle zerstören könnte

OpenAI bemüht sich, Zugang zu von Menschen generierten Inhalten zu bekommen. Das ist auch dringend nötig, denn das Internet wird bald mit KI-Inhalten überschwemmt sein.

publiziert am 4.3.2024
image

Beim VBS bleiben Meldungen zu Sicher­heits­ver­letzungen liegen

Ein Bericht deckt Mängel im Information-Security-Management des VBS auf. Schulungen und ein neues zentrales Tool sollen Besserungen bringen.

publiziert am 4.3.2024
image

Schweiz hat grosses Potenzial für generative KI

Laut einer PwC-Studie liegt die Schweiz beim KI-Wachstumspotenzial weltweit an der Spitze. Damit könne das Bruttoinlandsprodukt um bis zu 50 Milliarden gesteigert werden.

publiziert am 4.3.2024
image

Cyberkriminelle stehlen schützenswerte Daten von Franz Carl Weber

Die Ransomware-Bande Black Basta behauptet, über 700 GB an Daten des Spielwaren-Händlers ergaunert zu haben. Darunter finden sich vor allem persönliche Daten von Angestellten. Das Mutterhaus bestätigt den Angriff.

publiziert am 1.3.2024 1