Nachvollziehbare künstliche Intelligenz

Der KI ins Gehirn blicken

14. April 2022, 8:06 Uhr | Ute Häußler
Automation KI Künstliche Intelligenz Explain Nachvollziehbar
Beim Kaschieren von Profilen arbeiten bis zu 47 Roboter zeitgleich, die KI soll diesen Fertigungsprozess nachvollziehbar optimieren.
© Düspohl

Wie können die Entscheidungen einer künstlichen Intelligenz nachvollzogen, überprüft und gelenkt werden? Markt&Technik spricht mit Steven Koppert vom Fraunhofer IEM über das Forschungsprojekt ExplAIn und den Ansatz erklärbarer KI in der industriellen Fertigung.

Herr Koppert, was bedeutet »ExplAIn« und was ist das Ziel des Forschungsprojektes?

Unser Projekt heißt in Langform »Explainable artificial intelligence for safe and trusted industrial applications«. Wir entwickeln darin ein Modell für verlässliche und erklärbare künstliche Intelligenz. Die daraus resultierende Anwendung soll es Menschen und Unternehmen möglich machen, besser zu verstehen, wie KI arbeitet, und darauf Einfluss zu nehmen.

Wie sieht dieses KI-System aus und wie funktioniert es?

Wir entwickeln das KI-System in vier Teilen, die aufeinander aufbauen. Die erste Stufe ist das »Safe Training«. Algorithmen werden für Machine Learning auf Daten trainiert. Unser Ziel ist, dass ein solches Training sicher abläuft und nur gewinnbringende Daten ins System eingespielt werden.

Die zweite Stufe, »Safe Usage«, muss parallel mit der ersten Stufe entwickelt werden. KI hat immer einen gewissen Kompetenzspielraum, also Datenbereiche, in denen sie sehr gut funktioniert. In anderen Bereichen sollte dieselbe KI dagegen nicht zum Einsatz kommen. Der zweite Teil des Modells stellt sicher, dass KI den definierten ‚guten‘ Datenbereich nicht verlässt. Zuerst wird die KI daraufhin getestet, ob sie für den Einsatzzweck geeignet ist. Anschließend schauen wir uns die Ergebnisse an und überprüfen deren Plausibilität. Dieser Schritt soll unsinnige Datenausgaben verhindern, die möglicherweise sogar schaden.

Anbieter zum Thema

zu Matchmaker+
Automation KI Künstliche Intelligenz Explain Nachvollziehbar
»KI hat immer einen gewissen Kompetenzspielraum, also Datenbereiche, in denen sie sehr gut funktioniert. In anderen Bereichen sollte dieselbe KI dagegen nicht zum Einsatz kommen,« sagt Steven Koppert vom Fraunhofer IEM in Paderborn.
© Fraunhofer IEM

Meist wird KI in der industriellen Fertigung sehr spezifisch eingesetzt. Wie kann es zu »nicht geeigneten« Einsatzbereichen kommen?

Das bezieht sich auf die Datenräume. In unseren Praxisanwendungen bei einem Automobilzulieferer wird der Stromfluss beim Schweißen aufgenommen. Der KI-Algorithmus lernt anhand von Beispieldaten z. B. den optimalen Schweißablauf, um später eine Aussage zu treffen, ob die Schweißung korrekt abgelaufen ist. Der Algorithmus kann folgend in sehr ähnlichen Situationen Aussagen treffen, aber nicht bei Schweißvorgängen, die sich stark von den gelernten Beispielbedingungen unterscheiden. Dort könnten falsche oder unsinnige Aussagen die Folge sein – genau das soll Safe Usage verhindern.

Wie geht es weiter im Pyramidenmodell für erklärbare KI?

Die ersten beiden Stufen bilden die untere Basis der Pyramide. Denn wer nicht grundsätzlich sicherstellt, dass KI richtig lernt und im täglichen Einsatz kontrolliert wird, der braucht unserer Auffassung nach mit erklärbarer KI nicht zu beginnen. Das Risiko wäre zu hoch, dass die Anwendung bereits fehlerhaft aufgesetzt ist oder im Betrieb ihre Kompetenzen verletzt. Auf solch einer möglicherweise konfusen oder willkürlichen Basis könnten keine Entscheidungen überprüft werden.

Wie sehen die dritte und die vierte Stufe aus?

Im »Explainability Module« als Stufe 3 geht es darum, wie der Algorithmus zu seinem Ergebnis gelangt. Wenn die KI im Falle der Schweißung ausgibt, dass es einen Fehler gibt, sehen wir uns an, auf welchen Daten diese Aussage beruht – also welche Spitzen, welche Bereiche, welche Plateaus in den Messgraphen ausschlaggebend sind. Das hilft dem Werker zu verstehen, wie die KI zu ihrer Entscheidung kam und was gegebenenfalls verändert werden muss.

Die vierte Stufe als Spitze der Pyramide ist ein »Adaptability Module«, um aufgetretene Fehler der KI anzupassen. Der Mensch soll und kann also Einfluss darauf nehmen, wie sich das Verhalten der künstlichen Intelligenz ändert. Das ist ein sehr wichtiger, aber auch schwieriger Teil des ExplAIn-Projektes.

Haben Sie ein Beispiel dafür, wo das sinnvoll ist?

Ein schnell verständliches Alltagsbeispiel sind Online-Übersetzer. Am Anfang zogen die KIs vieler Anbieter ihre Übersetzungen ausschließlich aus von Experten übersetzten Fachtexten. Das gesamte Internet als Datenquelle für die KI dagegen bildet zwar eine viel größere Datenbasis, erzeugt aber teilweise ungenauere Ergebnisse, eventuell angereichert um radikale Sprache. Hier können Sie in der KI-Entwicklung entgegenwirken, indem Sie beispielweise die Grammatik höher gewichten oder unerwünschte Quellen für den Algorithmus ausschließen.


  1. Der KI ins Gehirn blicken
  2. Bereits real: Erklärbare KI in der Fertigungspraxis

Das könnte Sie auch interessieren

Verwandte Artikel

Fraunhofer IEM Institut für Entwurfstechnik Mechatronik