Mit Tools wie ChatGPT lässt sich sehr schnell und nahezu ohne Programmierkenntnisse Code erstellen. Das machen sich Hacker zunutze, um Malware in ganz neuen Dimensionen zu erzeugen. Doch auch die »gute Seite« kann und sollte KI nutzen, um ihre Verteidigungslinien zu stärken.
Praktisch jede innovative Technologie kann in den falschen Händen gefährlich werden. So verhält es sich auch mit KI. Durch sie können Hackerangriffe effizienter, zielgerichteter und hochgradig automatisiert durchgeführt werden. KI-unterstützte Bots und Automatismen erlauben es Hackern, riesige Mengen von Systemdaten in sehr kurzer Zeit nach offenen Schwachstellen zu untersuchen und diese dann automatisiert mit hoher Treffsicherheit zu exploitieren. Und Cyberkriminelle haben sich bereits intensiv mit dem Thema befasst, auch wenn noch keine dezidierten KI-Angriffe bekannt geworden sind. Nachdem ChatGPT gelauncht wurde, nahmen die Diskussionen rund um KI in Darknet-Foren immens zu, so ein Report von NordVPN. Unter anderem soll dort diskutiert werden, wie sich das Tool für die Erstellung von Malware verwenden lässt.
Die meisten Large Language-Models (LLMs) haben zwar Filter, um bösartige oder gefährliche Eingabeaufforderungen zu blockieren. Jedoch sind sogenannte Prompt-Injections problematisch, mit denen Hacker Wege finden, die Filter zu umgehen und das System zum Schreiben von bösartigem Code zu missbrauchen. Es wurden bereits Hunderte solcher Prompt-Injections gemeldet, auch von White-Hat-Hackern und Forschern, die die Fähigkeiten der Systeme testen möchten. Hacker könnten alternativ auch öffentlich zugängliche LLMs herunterladen und mit bösartigem Code trainieren, um ausgefeilte Modelle zu erschaffen. Dieser Trend wird voraussichtlich in Zukunft zunehmen.
Sicherheitsexperten von CyberArk haben Möglichkeiten gefunden, um ChatGPT so zu manipulieren, dass das Tool potenziell gefährlichen Code ausgibt. Unter anderem setzten sie dabei auf wiederholte penetrante Nachfragen und spezielle Schreibweisen, etwa indem die Anweisung, die die Sicherheitsmechanismen triggert, in geschweifte Klammern gesetzt wurde.
Die größte Gefahr ist aber nicht die einmalige Erstellung von Schadcode, sondern neue Typen von Malware, die durch KI-Integration überhaupt erst möglich werden. So können Kriminelle vergleichsweise einfach polymorphe Malware erstellen, das heißt Programme, die sich selbst an unterschiedliche Sicherheitsumgebungen anpassen und so die Verteidigungsmechanismen umgehen. Die Art von Malware existiert zwar schon länger, doch mutiert sie bisher nach vordefinierten Routinen. Durch KI könnte sie sich spontan an neue Situationen anpassen, wodurch sie noch gefährlicher wird.
Cyberkriminelle einerseits und Betreiber von Chatbots wie ChatGPT andererseits liefern sich aktuell ein Kopf-an-Kopf-Rennen, was Prompt-Injection und Gegenmaßnahmen angeht. Ganz verhindern lässt sich die Nutzung von KI für Cyberangriffe jedoch nicht. Daher ist es wichtig, dass Unternehmen selbst Gegenmaßnahmen für die neue Dimension der Bedrohung ergreifen und sich für den Ernstfall eines erfolgreichen Angriffs vorbereiten. Hierzu gehören beispielsweise die Implementierung und konsequente Anwendung eines »Secure by Design«-Prinzips, welches aus der »klassischen« Systementwicklung hinlänglich bekannt ist, gepaart mit einem konstanten Code-Security-Monitoring.