Zusammen mit Cybersicherheitsorganisationen 17 anderer Länder hat das BSI am Wochenende ein internationales Abkommen zur sicheren Entwicklung und Nutzung Künstlicher Intelligenz verabschiedet. Auch die USA, Israel und Großbritannien sowie mehrere EU-Länder tragen die Leitlinien mit.
Mit dem öffentlichkeitswirksamen Boom der letzten Monate rund um Künstliche Intelligenz ist auch die Politik aufgewacht und sucht nun nach ihrem Platz bei der Bewertung und Regulierung der Technologie. Um dabei nicht den Anschluss zu verlieren, ist angesichts der rasanten Fortschritte größte Eile geboten. Fast alle Länder und Regionen, inklusive der EU, USA und auch China arbeiten deshalb aktuell unter Hochdruck an eigenen AI-Acts. Denn neben der Gesellschaft brauchen vor allem die Anbieter und Anwender Sicherheit über die Rahmenbedingungen, national wie international. Ein wichtiger Schritt in diese Richtung der globalen Abstimmung ist am vergangenen Sonntag (26.11.2023) insgesamt 23 Cybersicherheitsbehörden aus 18 Nationen, darunter neben dem deutschen BSI auch entsprechende Einrichtungen aus den USA, Australien, Großbritannien, Israel und Italien, gelungen. „Ich freue mich, dass wir international dafür an einem Strang ziehen“, erklärte BSI-Präsidentin Claudia Plattner nach der Unterzeichnung.
Expertenmeinungen zum European AI Act
Basis der 20 Seiten umfassenden »Guidelines for Secure AI System Development« ist eine unter anderem auf Security-Prinzipien wie „security-by-design“ und „security-by-default“ aufbauende Analyse der KI-spezifischen Schadensanfälligkeiten. Daraus haben die Experten einen grundsätzlichen Leitfaden für die sichere KI-Entwicklung und -Anwendung vorgelegt, der sich insbesondere an die Softwarehersteller und -Betreiber richtet. Angesichts der zu erwartenden zentrale Rolle der Lösungen in künftigen digitalen Ökosystemen müssten diese laut dem Papier etwa die Verfügbarkeit und Ausfallsicherheit ihrer Lösungen besonders gründlich sicherstellen. Gleichzeitig sollen die Softwarehersteller dazu verpflichtet werden, schon bei der Entwicklung darauf zu achten, dass ihre KI-Anwendungen möglichst kein Missbrauchspotenzial bieten und entsprechende Versuche blockieren. Darüber hinaus fordern BSI und Co., dass Betreiber von KI-Systemen die Anwender zu möglichen Risiken informieren müssen und ihnen Wege aufzeigen, wie sie die Systeme sicher nutzen. Dazu kommt eine besondere Sorgfaltspflicht hinsichtlich des Schutzes der verarbeiteten Daten vor unerlaubtem Zugriff und Manipulationen. Eine Aufgabe, bei der aber auch die Anwenderunternehmen mit in die Pflicht genommen werden sollen. Die Politik muss währenddessen aus Sicht der Security-Experten brauchbare Werkzeuge schaffen, um die Einhaltung dieser Vorgaben zu überwachen und sanktionieren.
Auch wenn die jetzt vereinbarten Leitlinien noch nicht verpflichtend sind, sieht Plattner in ihnen ein wichtiges Signal und eine tragfähige Grundlage für weitere Schritte zur Evaluierung, Regulierung und sicheren Nutzung sowie Weiterentwicklung der Technologie in Deutschland und weltweit: „Das BSI gestaltet die Cybersicherheit bei der Entwicklung von KI-Systemen von Anfang an mit. So können wir sicherstellen, dass wir die Potenziale dieser Schlüsseltechnologie für die Digitalisierung Deutschlands sicher nutzen und Risiken transparent kommunizieren.“ Aus ihrer Sicht helfen klare Leitplanken wie die nun erarbeiteten KI-Vorgaben dabei, die Cyberresilienz der Gesellschaft zu erhöhen und das Vertrauen der Bürgerinnen in die Technologie zu stärken.