KI und Neuronale Netze verstehen Neue Analysemethode für KI

Layer-wise Relevance Propagation ermöglicht den Blick in die »Black Box«
Die neuartige Methode Layer-wise Relevance Propagation ermöglicht den Blick in die »Black Box«

Forscher des Fraunhofer Heinrich-Hertz-Instituts HHI und der TU Berlin haben eine Technik entwickelt, die erkennt, anhand welcher Kriterien KI-Systeme Entscheidungen fällen.

Künstliche Intelligenz, kurz KI, ist längst in unserem Alltag angekommen und dringt in immer mehr Bereiche vor. Sprachassistenten etwa sind bereits als Helfer auf dem Smartphone, im Auto oder zu Hause Normalität geworden. 

Fortschritte im Bereich der KI beruhen vor allem auf der Verwendung Neuronaler Netze. Vergleichbar mit der Funktionsweise des menschlichen Gehirns verknüpfen sie mathematisch definierte Einheiten miteinander. Doch bisher wusste man nicht, wie ein Neuronales Netz Entscheidungen trifft. Hier setzt die neue Technik der Berliner Forscher an.

Mit der Layer-Wise Relevance Propagation (LRP)…

...haben Forscher am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI, und der Technischen Universität Berlin eine Technik entwickelt, die KI-Prognosen erklärbar macht und somit unsichere Problemlösungsstrategien aufdeckt. Die Weiterentwicklung der LRP-Technologie, die sogenannte Spectral Relevance Analysis (SpRAy) identifiziert und quantifiziert ein breites Spektrum erlernten Entscheidungsverhaltens und erkennt somit auch in riesigen Datensätzen unerwünschte Entscheidungen.

Bilder: 4

KI transparent gemacht

Neue Analysemethode macht Künstliche Intelligenz erklärbar

In der Praxis identifiziert die Technik…

...einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wird also beispielsweise ein medizinisches Gewebebild in ein KI-System eingegeben, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie »krebsartig« oder »nicht krebsartig« das Gewebebild ist, wird also mit der Angabe der Basis für diese Klassifikation ergänzt. 

»Nicht nur das Ergebnis soll korrekt sein,…

...sondern auch der Lösungsweg«, sagt Dr. Wojciech Samek, Leiter der Forschungsgruppe Machine Learning am Fraunhofer HHI. »Bislang wurden KI-Systeme als Black Box angewendet. Man hat darauf vertraut, dass sie das richtige tun. Mit unserer Open-Source-Software, die die Layer-Wise Relevance Propagation einsetzt, ist es uns gelungen, die Lösungsfindung von KI-Systemen nachvollziehbar zu machen.« Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin, ergänzt: »Mit LRP visualisieren und interpretieren wir Neuronale Netze und andere Machine Learning-Modelle. So messen wir den Einfluss jeder Eingangsvariablen für die Gesamtvorhersage und zerlegen die Entscheidungen des Klassifizierers.«

Dass KI-Systeme nicht immer sinnvolle…

...Lösungswege finden, ergaben die Tests der Forscherteams. Beispielsweise klassifizierte ein renommiertes KI-System Bilder anhand des Kontextes. Es ordnete Fotos der Kategorie Schiff zu, wenn viel Wasser im Bild zu sehen war. Die eigentliche Aufgabe, Schiffe zu erkennen, löste es nicht, auch wenn die Mehrzahl der Bilder korrekt identifiziert war. »Zahlreiche KI-Algorithmen wenden unsichere Strategien an und kommen zu wenig sinnvollen Lösungen«, resümiert Samek das Ergebnis der Untersuchungen.

Die LRP-Technologie entschlüsselt…

...die Funktionsweise von Neuronalen Netzen, und findet heraus, anhand welcher Merkmale ein Pferd als Pferd identifiziert wird und nicht als Esel oder Kuh. An jedem Knotenpunkt des Netzes erkennt sie, wie Informationen durch das Netz fließen. Somit lassen sich sogar sehr tiefe Neuronale Netze untersuchen.

Derzeit erarbeiten die Forscherteams des Fraunhofer HHI und der TU Berlin neue Algorithmen, um weitere Fragestellungen zu untersuchen und KI-Systeme noch sicherer und robuster zu gestalten.