Gerade die Kombination aus massenhafter automatisierter Verarbeitung von Daten und Prozessen mit der schnellen Ausnutzung von Lücken bedeutet neben der IT auch eine gravierende Gefahr für die Betriebstechnologie (OT). Denn noch immer gibt es dort viele veraltete Systeme, die zwar ursprünglich nie für eine weitreichende externe Vernetzung gedacht waren, inzwischen jedoch entweder direkt oder indirekt angebunden wurden, um beispielsweise Fernwartung zu ermöglichen. Diese Systeme und ihre Schwachstellen lassen sich hervorragend per KI aufspüren und dann infizieren.
Wie Stephan Gerling, Senior Security Researcher im ICS CERT bei Kaspersky, im INterview mit Markt&Technik ausführt, wurde im vergangenen Jahr bereits jeder fünfte ICS-Computer (ICS: Industrial Control-System) in Deutschland mindestens einmal attackiert. Diese Schlagzahl wird sich in den nächsten Jahren sicherlich noch deutlich erhöhen. Besonders gefährdet sind kritische Infrastrukturen, zahlungskräftige Unternehmen sowie wichtige Glieder der Lieferkette, deren Ausfall zu weitreichenden Problemen führt. Immer häufiger werden sie Ziele von Ransomware-Attacken, der seit einigen Jahren beliebtesten Angriffsart der Cyberkriminellen.
Hinzu kommt, dass sich mit all diesen Vorteilen bei der einfachen Automatisierung und Fälschung mittels KI nicht nur das Risiko erfolgreicher Angriffe erhöht, sondern zugleich auch die Zahl der Angreifer. Somit ist davon auszugehen, dass dadurch auch die Zahl der Angriffe künftig noch schneller ansteigen wird als derzeit schon. »2024 wird Unternehmen vor die Situation stellen, ob Cyberkriminelle mit der Einführung von KI schneller sein könnten als die Sicherheitsbranche«, warnt deshalb Stefan Schachinger, Product Manager Network Security bei Barracuda Networks.
Last, but not least werden auch die KI-Tools selbst immer häufiger zum Sicherheitsproblem. In den vergangenen Monaten wurden mehrfach Fälle bekannt, in denen Chatbots sensible Informationen aus Prompts in anderen Anfragen wiedergaben. Während viele Unternehmen deshalb inzwischen explizit die Eingabe sensibler Informationen oder gleich die Nutzung öffentlicher KI-Tools verbieten, suchen die Hacker nach Wegen, den Bots solche Informationen gezielt zu entlocken. Einer davon sind gehackte Accounts für beliebte Tools wie ChatGPT, Dall-E oder Whisper. Meist werden diese per Phishing erbeutet oder bei Datenangriffen abgesaugt und anschließend missbraucht. Security-Anbieter berichten, dass es solche Accounts vermehrt im Darknet zu kaufen gibt, samt detaillierter Anleitungen, wie das Mitlesen möglichst effizient und unauffällig erfolgen kann.
Zudem ist es wohl nur eine Frage der Zeit, bis eine KI selbst kompromittiert wird. So hält etwa das WatchGuard Threat Lab »ein Szenario, in dem ein cleverer Prompt-Engineer – sei es ein krimineller Angreifer oder ein Forscher – den Code knacken und ein LLM (Large Language-Model, Anmerkg. der Red.) so manipulieren wird, dass vertrauliche Daten durchsickern, in den kommenden Monaten für durchaus realistisch«.