Die rasanten Fortschritte auf dem Gebiet der künstlichen Intelligenz sowie die allgemeine Verbreitung der entsprechenden Tools sollen helfen, die digitale Sicherheit zu verbessern. Bislang schaffen sie jedoch vor allem neue Herausforderungen und Gefahren, gerade für die Industrie.
Als OpenAI sein Sprachmodell ChatGPT mit der dritten Version im November 2022 erstmals öffentlich zugänglich machte, wurde künstliche Intelligenz innerhalb weniger Tage von einem Nischenthema zu einem omnipräsenten Alltagsbegriff. Das liegt vor allem daran, dass sich nun plötzlich jeder Interessierte ohne große Vorkenntnisse einfach hinsetzen und eine Konversation mit dem Chatbot führen kann, um sich so selbst ein Bild von dieser Zukunftstechnologie zu machen. Eine zumeist beeindruckende Erfahrung, die trotz aller oft noch klar erkennbaren Einschränkungen und Fehler eindrucksvoll und für die breite Masse nachvollziehbar das Potenzial dieser Technologie aufzeigt.
Seither ist nicht nur im technischen Umfeld plötzlich überall von KI die Rede und das Thema dringt in alle Bereiche vor – von der Gesellschaft und Kunst über Verkehr und Verwaltung bis in die Industrie und Produktion. In der digitalen Wirtschaft hat damit einhergehend ein Rennen um die KI-Vorherrschaft begonnen, in das inzwischen alle großen Tech-Firmen eingestiegen sind. Aufseiten der Software hat sich Microsoft einen Vorteil verschafft, indem der Konzern Open AI eng umarmt und dessen Tools umgehend als »Kopiloten« in seine Produkte integriert hat. Aber auch Google und Facebook haben beachtliche Fortschritte gemacht, während sich gerade in vertikalen Bereichen viele kleinere Anbieter und Startups lukrative Nischensegmente des KI-Kuchens sichern. Sie entwickeln beispielsweise hochspezialisierte, branchenspezifisch angepasste Machine-Learning- und auch komplexere Deep-Learning-Modelle, die sich für Aufgaben wie intelligente Wartung und Überwachung eignen, für die große Sprachmodelle wie ChatGPT weniger geeignet sind.
Bei der Hardware ist indes derzeit kaum ein Vorbeikommen an Nvidia, dessen Chips fast alle Anbieter für ihr Training nutzen. Gleichzeitig müssen auch die Chips für Endgeräte und allerlei andere elektronische Anwendungen angepasst werden, um die neuen Technologien effizient nutzen zu können. Angetrieben durch das rasant wachsende Interesse, werden aktuell jeden Tag weitere Neuheiten vorgestellt, und die generativen KI-Modelle werfen immer realistischere und überzeugende Ergebnisse aus. Zudem verarbeiten und generieren sie neben Texten längst auch andere Medienformen wie Bilder, Videos oder sogar Programmcode.
Noch schneller als Anwender wie Privatleute, Kreative, Unternehmen oder Wissenschaftler hat jedoch noch eine andere Gruppe die Möglichkeiten der neuen Technologie für sich erkannt und sofort damit begonnen, sie auszunutzen: Cyberkriminelle. Für Dr. Sebastian Schmerl, Vice President Security Services EMEA beim Security-Anbieter Arctic Wolf, eine typische Entwicklung: »Kriminelle sind erfahrungsgemäß immer die ersten, die sich eine neue Technologie zunutze machen. So auch im Cyberraum. Sie adaptieren generative KI in ihrer Angriffskette, und die Vorgehensweise wird immer raffinierter.«
Fast jeder Vorteil, den die künstliche Intelligenz im normalen produktiven Umfeld bietet, lässt sich auch für Angriffe und Betrügereien missbrauchen. Umgehend begannen die einschlägigen Hackergruppen damit, LLM wie ChatGPT dazu zu nutzen, beliebte Angriffspfade zu optimieren und verstärken. Besonders naheliegend ist der Einsatz beim Phishing und Social Engineering, wo die KI-Tools ihnen helfen, mit deutlich weniger Zeitaufwand glaubwürdigere Anschreiben und Auftritte in verschiedensten Sprachen zu verfassen. Genauso lassen sich damit nun aber auch mit minimalem Aufwand massenhaft hochindividualisierte Profile und Anschreiben für gezieltes Spear-Phishing erstellen.
So ist es nicht zuletzt ChatGPT geschuldet, dass Phishing im vergangenen Jahr einen rasanten Aufschwung erlebte. Waren laut Bitkom 2022 noch knapp 25 Prozent der Attacken auf deutsche Unternehmen Phishing-Angriffe, stieg ihr Anteil im ersten Jahr nach der GPT-Veröffentlichung auf 31 Prozent.