Kommentar Das KI-Dilemma

Ingo Kuss, Chefredakteur Markt&Technik

Zu dumm oder zu gefährlich? Aktuelle KI-Projekte offenbaren zwei ganz unterschiedliche Risiken beim Einsatz von künstlicher Intelligenz - und stellen damit Forscher und Entwickler vor große Herausforderungen.

Wie leistungsfähig ist künstliche Intelligenz (KI) inzwischen geworden? Legt man zwei aktuelle Meldungen aus China zugrunde, lässt sich der Status quo in etwa so auf den Punkt bringen: KI ist noch zu blöd, um zuverlässig einen Straßenverlauf zu erkennen, aber für die Unterdrückung von Minderheiten reicht’s schon. Das ist natürlich eine polemische Zuspitzung, die zudem auf einer ausgesprochen dünnen Quellenlage beruht. Doch genau diese beiden Meldungen zeigen meiner Ansicht nach exemplarisch, vor welchem Dilemma die KI-Forschung steht.

Konkret ging es in den entsprechenden Artikeln zum einen um Sicherheitsexperten des chinesischen Google-Pendants Tencent, denen es mit einem einfachen Trick gelungen ist, Teslas Autopilot-Funktion so zu täuschen, dass sie das Fahrzeug in den Gegenverkehr steuert. Dazu reichten den Forschern schon geringfügige, für das menschliche Auge kaum wahrnehmbare Manipulationen der Fahrbahnmarkierungen. Zum anderen meldete die „New York Times“, dass chinesische Behörden die KI-basierte Software SenseNets des Unternehmen SenseTime für Überwachungskameras nutzt, um gezielt Uiguren zu identifizieren und Bewegungsprofile von den Mitgliedern dieser überwiegend muslimischen Minderheit zu erstellen.

Die erste Meldung verdeutlicht sehr schön, wie unausgereift und fehlerträchtig viele KI-basierte Systeme heute noch sind. Und wie schwer es ist, diese Mängel auszubügeln, weil lernfähige Systeme mit ihrer Dynamik klassische Funktionstests aushebeln. Für die Entwicklung wirklich intelligenter Systeme ist daher nicht nur ein enormer zusätzlicher Forschungsaufwand erforderlich, sondern zugleich auch immer ein sorgfältiges Abwägen, zu welchem Zeitpunkt und mit welchen ergänzenden Sicherheitsmaßnahmen derartige Systeme auf die Menschheit losgelassen werden dürfen. Gerade beim Einsatz von künstlicher Intelligenz im Auto geht es schließlich buchstäblich um Leben und Tod.

Die zweite Meldung wiederum zeigt, dass die KI-Forschung trotz aller noch vorhandener Mängel inzwischen einen solchen Entwicklungsstand erreicht hat, dass sie nicht mehr nur im Fehlerfall zu einer ernsthaften Gefahr werden kann. Mag die SensNets-Software auch keine hundertprozentige Trefferquote haben, erlaubt sie dennoch eine so umfassende und permanente Überwachung der eigenen Bevölkerung, wie sie allein mit menschlichen Beobachtern nie möglich wäre. In demokratischen Staaten limitiert der Gesetzgeber zwar die Einsatzmöglichkeiten für eine derartige Software. Forscher und Entwickler stehen dennoch vor dem Problem, dass sich die Anwendung und Verbreitung ihrer Erkenntnisse nur schwer kontrollieren lässt.

Unternehmen, die im Bereich KI tätig sind, tragen also gleich in mehrfacher Hinsicht eine besondere Verantwortung: Sie müssen ihre Produkte so schnell wie möglich optimieren, um Schäden durch Fehler zu verhindern. Und dabei realistisch einschätzen, was sie der KI schon überlassen dürfen und was nicht. Gleichzeitig müssen sie aber auch verhindern, dass ihre Produkte missbräuchlich eingesetzt werden. Entsprechend groß ist das Risiko, in einem dieser Punkte zu scheitern.