ChatGPT & Co. stehen vor neuen Regeln: Die EU verpflichtet KI-Anbieter zu mehr Offenheit über Training, Technik und Risiken. Nun legt die EU-Kommission Leitlinien zur Umsetzung vor.
Die EU-Kommission hat kurz vor Inkrafttreten neuer Transparenzpflichten für KI-Systeme zentrale Leitlinien zur Umsetzung vorgelegt. Ziel ist es, Anbietern sogenannter General-Purpose-KI-Modelle wie ChatGPT oder Gemini rechtliche Orientierung zu geben, damit diese den Vorgaben des AI Act nachkommen können.
Ab dem 2. August 2025 müssen Entwickler großer, breit einsetzbarer KI-Modelle offenlegen, wie ihre Systeme funktionieren, mit welchen Daten sie trainiert wurden und wie potenzielle Risiken bewertet und reduziert werden. Die neuen Regeln gelten für Modelle, die mit erheblichem Rechenaufwand trainiert wurden.
Für besonders leistungsfähige KI-Modelle, die ein systemisches Risiko für Grundrechte oder Sicherheit darstellen könnten, sieht das EU-KI-Gesetz erweiterte Pflichten vor. Dazu zählen unter anderem umfassende Risikoanalysen und Maßnahmen zur Risikominderung.
Die behördliche Kontrolle erfolgt schrittweise: Ab 2026 kann das neue EU-KI-Amt erstmals neue Modelle überprüfen, ab 2027 folgen auch bereits bestehende Modelle. Bis dahin will die Kommission eng mit Anbietern zusammenarbeiten, um einen reibungslosen Übergang zu ermöglichen. Bei Verstößen drohen Bußgelder.