Forschungsprojekt ExplAIn soll nachvollziehbare KI-Anwendungen etablieren
Situationsbedingte Fehler, fehlende Nachvollziehbarkeit und fehlende Beeinflussbarkeit sorgen für mangelndes Vertrauen in Machine Learning (ML) und die Künstliche Intelligenz. Dabei sind die Punkte per se keine Schwächen der KI selnbst, sondern Schwächen in der Kontrolle der Anwendung.
Diese Herausforderungen geht jetzt das neue Forschungsprojekt 'Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn) des Spitzenclusters »it's owl« und des Fraunhofer IEM an. Innerhalb des Projekts anhand von Anwendungsfällen bei Benteler und Düspohl Maschinenbau ein nachvollziehbares KI-System entwickelt und pilotiert.
Ziel ist es, vorhandene und neue Verfahren für Maschinelles Lernen nachvollziehbarer und dadurch sicherer zu machen. Dafür wird auf Basis von Explainable Artificial Intelligence (XAI, erklärbare Künstliche Intelligenz) entwickelt. XAI setzt sich aus Prozessen und Methoden zusammen, die es Anwender:innen ermöglichen, die durch Maschinelles Lernen erzeugten Ergebnisse zu verstehen und ihnen zu vertrauen. Das XAI-System soll somit sichere und nachvollziehbare KI-Anwendungen in der Praxis etablieren.
ExplAIn ist eines von sieben neuen Praxis-Projekten des Industrie 4.0-Clusters »it's owl« in Paderborn, die einen Gesamtumfang von 13,8 Millionen Euro haben. Das Land NRW plant, die Projekte in Höhe von bis zu 8,2 Millionen Euro zu fördern. (uh)