Generative KI als Sicherheitsrisiko

Wofür man ChatGPT im Büro besser nicht einsetzt

8. November 2023, 12:41 Uhr | Corinne Schindlbeck
© mindscapephotos/stock.adobe.com

Kundenanfragen beantworten, Texte schreiben, Quellcode erstellen: Der IT-Security-Spezialist Forcepoint warnt davor, generative KI allzu sorglos am Arbeitsplatz einzusetzen. Die Tools könnten Geschäftsgeheimnisse verraten.

Diesen Artikel anhören

Anbieter von generativer KI verwenden nicht nur Informationen, die im Internet frei verfügbar sind, um ihre KI-Modelle zu trainieren. Sondern auch die Eingaben der Nutzer, warnt der IT-Security-Anbieter Forcepoint. 

So könnten Daten, die man selbst eingibt, den Weg in die Antworten anderer Nutzer finden. Unternehmen und Mitarbeiter sollten sich deshalb zweimal überlegen, welche Aufgaben sie ChatGPT und Co. übertragen.

Forcepoint erläutert, wofür Sie generative KI-Tools bei der Arbeit besser nicht nutzen sollten: 

  • Antworten auf Kundenanfragen oder Support-Tickets schreiben:
    Solche Texte enthalten fast immer persönliche Informationen über Kunden und geistiges Eigentum des eigenen Unternehmens. Es droht die Gefahr, der Konkurrenz einen Vorteil zu verschaffen und Ärger mit den Datenschutzbehörden zu bekommen.
     
  • Inhalte für eine Produkteinführung oder andere wichtige Unternehmensankündigungen erstellen: 
    Die neueste Akquisition ist noch supergeheim und muss unter Verschluss gehalten werden bis alle Unterschriften da sind? Durch den Prompt eines Dritten könnte sie in dessen Antwort auftauchen und so den Weg in die Öffentlichkeit finden. 
     
  • Preise, die finanzielle Performance oder Budgets des eigenen Unternehmens analysieren:
    Wenn ein Mitbewerber nach Informationen über die finanzielle Situation des Unternehmens sucht, könnte er so fündig werden. Deshalb besser ein lokal gespeichertes Tool oder einen Taschenrechner benutzen.
     
  • Code debuggen oder neuen Code schreiben: 
    Erstellt generative KI einen Code, kann er Schadsoftware oder eine Hintertür enthalten. Verwendet man sie zum Debugging, wandert der eigene Code unter Umständen in die Hände anderer Programmierer.
     
  • Personenbezogene Inhalte wie Lebensläufe oder unternehmensinterne Präsentationen und Dokumente zusammenfassen:
    Solche Inhalte haben bei ChatGPT und Co. laut Forcepoint nichts verloren. Zumal die Betreiber dieser Tools selbst das Opfer einer Datenpanne werden könnten und sensible Daten dann unter Umständen auch auf diesem Weg abfließen.

Doch auch wenn generative KI-Tools große Sicherheitsrisiken bergen würden - einfach im Büro den Zugriff zu sperren, schieße über das Ziel hinaus und sei zudem oft zwecklos, so Fabian Glöser, Team Lead Sales Engineering bei Forcepoint in Deutschland. „Besser ist es, die Mitarbeiter für die Risiken zu sensibilisieren und sie mit Data-Security-Lösungen vor folgenschweren Unachtsamkeiten im hektischen Arbeitsalltag zu schützen.“


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu elektroniknet

Weitere Artikel zu Arbeitswelt