TU Berlin und Fraunhofer HHI KI doch nicht so intelligent?

Das Spiel »Pinball« kennt jeder: Forscher der TU Berlin und des Fraunhofer HHI fanden ein KI-System, welches gelernt hatte, bei dem Spiel möglichst viele Punkte zu sammeln.
Das Spiel »Pinball« kennt jeder: Forscher der TU Berlin und des Fraunhofer HHI fanden ein KI-System, welches gelernt hatte, bei dem Spiel möglichst viele Punkte zu sammeln.

Unser Leben wird immer stärker von Künstlicher Intelligenz (KI) beeinflusst und ist aus unserem Alltag nicht mehr wegzudenken. Mehr und mehr vertrauen wir KI – doch wie intelligent ist sie wirklich?

Algorithmen der KI und Machine Learning drängen sich immer mehr in unser Leben: Sie ermöglichen digitale Sprachassistenten, verbessern die medizinische Diagnose und tragen zum Fortschreiten von autonomen Fahrzeugen bei. Solche Algorithmen scheinen der menschlichen Leistungsfähigkeit überlegen zu sein – doch: Bislang bleibt es Wissenschaftlern oft verborgen wie solche KI-Systeme zu Entscheidungen gelangen. Somit bleibt oft unklar, ob es sich wirklich um intelligente Entscheidungen handelt, oder ob die Entscheidung auf einem statistisch erfolgreichen Verfahren beruht.

Entscheidungen erkennen und analysieren

Forscher der TU Berlin, des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design sind der Frage nachgegangen und haben KI-Einheiten hinsichtlich ihrer Intelligenz mit einer speziellen Technik analysiert. Wichtigste Voraussetzung dafür ist die »Layer-wise Relevance Propagation« (LRP)-Technik. Sie macht sichtbar, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen. Eine Weiterentwicklung der LRP-Technik ist die »Spectral Relevance Analysis« (SpRAy), die ein breites Spektrum an erlernten Entscheidungen identifiziert und ausgibt.

Laut Dr. Klaus-Robert Müller von der TU Berlin ist die sogenannte erklärbare KI einer der wichtigsten Schritte für die praktische Anwendung und Verbreitung von KI. Insbesondere in der Medizin sei es wichtig, dass keine unsicheren KI-Algorithmen oder »Schummel-KI« zum Einsatz kommen. Das entwickelte Verfahren stellt KI-Systeme auf die Probe und ganz wichtig – liefert konkrete Ergebnisse.

Die »Clever-Hans-Strategie«

Wichtig für die Forscher ist, sogenannte Clever-Hans-Strategien zu erkennen. Der Kluge Hans war ein Pferd, das in den Jahren um 1900 als Sensation galt, da es angeblich rechnen und zählen konnte. Wie sich später herausstellte, konnte das Pferd jedoch lediglich die richtige Antwort aus der Reaktion des Fragestellers ableiten. Ähnliche Strategien fanden die Wissenschaftler auch bei verschiedenen KI-Methoden. Beispielsweise vorfolgte eine KI zur Klassifikation von Bildern eine einfache Lösungsstrategie: Es klassifizierte Bilder überwiegend anhand des Kontextes. Bilder wurden der Kategorie »Schiff« zugeordnet wenn Wasser zu sehen war, andere Bilder als »Zug« wenn Schienen auf dem Bild waren. Bei der eigentlichen Aufgabe, Schiffe oder Züge zu erkennen, hat das System aber versagt – auch wenn es in den meisten Fällen richtig lag.

Auch bei neuronalen Netzen, den neusten KI-Algorithmen, fanden die Forscher solche fehlerhaften Lösungsstrategien. »Solche KI-Systeme sind für den praktischen Einsatz völlig unbrauchbar. Ihr Einsatz in der medizinischen Diagnostik oder in sicherheitskritischen Bereichen birgt sogar enorme Gefahren«, erklärt Klaus-Robert Müller. Es sei denkbar, dass die Hälfte der aktuellen KI-Verfahren solche Clever-Hans-Strategien verwenden. Nun sei es an der Zeit die Systeme systematisch zu prüfen, so Müller weiter.

Einsatz robuster KI-Systeme

Die Wissenschaftler des Projekts fanden aber auch Algorithmen, die völlig unerwartet intelligente Strategien anwandten. Sie fanden Systeme, die zum Beispiel die Atari-Spiele »Pinball« und »Breakout« gelernt haben. Dabei wurde ganz klar das Konzept des Spiels von der KI verstanden und sie fand Wege, zielgerecht sehr viele Punkte zu sammeln – unter dem Einsatz von Möglichkeiten, die ein menschlicher Spieler nicht angewandt hätte.

Die Forscher stellen die automatisierte Technik als Open Source zur Verfügung. Sie wollen mit ihrer Arbeit KI-Systeme in Zukunft robuster, erklärbarer und sicherer machen. Das ist die wesentliche Voraussetzung für KI in der Zukunft.