Autonome KI-Agenten übernehmen komplexe Aufgaben – doch wer haftet bei Fehlentscheidungen? Eine neue Studie überträgt Prinzipien aus dem Verkehrsrecht auf KI-Systeme und fordert eine Neusortierung der Verantwortung.
KI-Agenten, die weitgehend selbstständig handeln - war haftet da eigentlich im Schadensfall? Eine aktuelle Analyse des europäischen Technologie-Thinktanks interface (vormals Stiftung Neue Verantwortung) schlägt eine fünfstufige Klassifikation von KI-Agenten vor, um Verantwortlichkeiten juristisch besser zu verorten. Entwickelt wurde das Modell in Kooperation mit dem Ada Lovelace Institute.
»2025 ist das Jahr der KI-Agenten«, zitiert die Studie einen OpenAI-Manager – ein Hinweis darauf, dass KI-Systeme nicht mehr nur Fragen beantworten, sondern aktiv in reale Prozesse eingreifen. Beispiele reichen von Terminplanung über Code-Erstellung bis hin zur Steuerung logistischer Abläufe. Doch was passiert, wenn dabei ein Schaden entsteht?
Orientierung bietet laut der Studie das britische Verkehrsrecht. Dort regelt der Automated Vehicles Act 2024, dass mit steigendem Autonomiegrad die Haftung schrittweise vom Menschen auf Hersteller und Softwareanbieter übergeht. Dieses Prinzip will das Autorenteam auf KI-Agenten übertragen.
Die vorgeschlagenen fünf Autonomiestufen reichen von einfach assistierenden Systemen (Stufe 1), bei denen Nutzer die Kontrolle behalten, bis hin zu vollständig autonomen Agenten (Stufe 5), die weitgehend unabhängig agieren. Ab Stufe 3 beginnt ein Übergangsbereich, in dem die Verantwortung graduell von den Anwendern zu den Entwicklern wandert.
„Wo die Kontrolle durch den Menschen sinkt, muss die rechtliche Verantwortung entsprechend neu verteilt werden“, so die Autor:innen.
Die Studie sieht in der Klassifikation ein Hilfsmittel für die Zuordnung von Pflichten entlang der KI-Wertschöpfungskette – von der Modellentwicklung bis zur Integration. In der Praxis würden Nutzer, Entwickler, Systemintegratoren und Infrastrukturbetreiber jeweils je nach Autonomiestufe haftungsrechtlich unterschiedlich in die Pflicht genommen.
Zu den empfohlenen Maßnahmen zählen:
Gleichzeitig soll das Modell einen innovationsfreundlichen Rahmen schaffen. Entwicklern biete es die Möglichkeit, gezielt Kontrollmechanismen zu integrieren – etwa Freigabeprozesse, Notabschaltungen oder Nachvollziehbarkeit von Entscheidungen –, um so regulatorischen Anforderungen frühzeitig zu entsprechen.
Die Klassifikation könne, so das Fazit, Gerichten, Regulierungsbehörden und auch Unternehmen helfen, „angemessene Sorgfaltspflichten“ im Sinne des Deliktrechts zu definieren – analog zu bestehenden Standards aus dem Produkthaftungs- oder Verkehrsrecht.
„Rechtliche Unklarheit ist kein Innovationsmotor“, heißt es dazu im Dokument. Vielmehr brauche es vorausschauende Konzepte, um Vertrauen und Rechtssicherheit für alle Beteiligten zu schaffen.