Künstliche Intelligenz

»Transparent und unerklärlich zugleich«

6. September 2019, 14:50 Uhr | Joachim Kroll
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Warum KI-Projekte misslingen

D&E: Was sind Gründe dafür, dass KI-Projekte misslingen?

Tung (grinst): Leute, Entwicklungswerkzeuge, Daten und das Verständnis.

D&E: Also eigentlich alles…

Tung: Das Management sagt oft: Wir müssen an vorderster technischer Front sein, weil wir eine innovative Firma sind. Da verspricht KI so viele Vorteile, dass die Firmen KI vorantreiben wollen. Und dann haben sie aber Angst, dass traditionelle Ingenieure KI nicht verstehen oder sich weigern, sie einzusetzen. Trotzdem wollen die Unternehmen die Transformation vorantreiben. Das ist prinzipiell gut, aber es führt manchmal auch zur Parteienbildung innerhalb der Firma. Da gibt es dann die neuen Aufgeschlossenen, und die alten Konservativen. Die erfolgreichen Firmen schaffen es, beide Seiten zusammenzubringen: das neue Team, das sie eingestellt oder durch eine Übernahme gewonnen haben und das existierende Team.

Das ist das, was ich mit Verständnis meine: Die Leute verstehen KI als neu und fortschrittlich. Aber sie müssen auch verstehen, wofür KI nutzt und wie man sie auf die eigenen Geschäftsprozesse anwendet. Es hilft auch, wenn man KI nicht nur in die Systeme integriert, sondern es auch für dem Umgang mit Daten nutzt, für die Gewinnung von Trainingsdaten und wenn man versteht, wie Daten mit Bias behaftet sein können.

D&E: Was verstehen sie in diesem Zusammenhang unter Bias?

Tung: Das hat zwei Aspekte. Bias kann sich durch die Auswahl der Daten ergeben. Damit ist gemeint: Repräsentieren meine Daten den gesamten möglichen Wertebereich der Daten oder nur einen Ausschnitt? Es ist völlig normal, dass man bei der Daten-akquise zum Beispiel aus dem Monitoring einer Maschine nur einen Teilbereich der möglichen Daten erfasst. Dann reichen die Daten aber nicht aus, um die annormalen Betriebszustände zu erfassen und beim Training zu erlernen. Man muss also sicherstellen, dass man beim Training alle Situationen erfasst, in denen die Maschine später korrekt funktionieren soll. Natürlich hat auch die Menge der Daten einen Einfluss.

passend zum Thema

mathworks
»Das Management sagt oft: Wir müssen an vorderster technischer Front sein, weil wir eine innovative Firma sind.«
© Componeers GmbH

Wenn man nicht genug Daten für Ausnahmesituationen hat, muss man die Maschine in diesen Fällen abschalten. Gut erklären kann man das auch anhand einer Gauß-Verteilung: Wenn alle meine Trainingsdaten sich um das Maximum gruppieren, dann haben die Daten einen Bias, oder anders ausgedrückt: einen systematischen Fehler.

Der zweite Aspekt betrifft die Klassifizierung der Trainingsdaten. Nehmen sie an, wir haben Leute, die ein Bild ansehen und klassfizieren sollen. Je nach kulturellem Hintergrund der Betrachter kann die Beurteilung unterschiedlich ausfallen und das kann dann ebenfalls einen Bias in die Trainingsdaten bringen.

D&E: Trainingsdaten für den Lernvorgang zu klassifizieren ist sehr aufwendig. Sehen Sie eine Chance, diesen Aufwand zu reduzieren?

Tung: Das ist in der Tat der größte Flaschenhals für die Anwendung von KI. Wir sehen da mehrere Entwicklungen. Da entstehen zum Beispiel Apps, die aus einem manuellen Prozess zunächst einen halbautomatischen Prozess machen und dann Stück für Stück der Automatisierungsgrad erhöhen. Das wird niemals vollautomatisch gehen, aber wenigstens mehr und mehr automatisch.

Dann gibt es das Bemühen, beim Labeling der Daten stärker auf Crowd Sourcing zurückzugreifen. Man bittet also einfach »die Welt«, die Daten zu bewerten. Dabei muss man aber die Qualität der Bewertungen überprüfen, damit das Ergebnis auch dem entspricht, was man haben möchte.

Eine weiterer wichtiger Trend ist, synthetisierte Daten für das Training zu erzeugen. Damit kann man vielfältigere Situationen, also eine größere Vielfalt von Trainingsdaten gewinnen beziehungsweise ein vielfältigeres Abbild der Realität erzeugen. Diese Daten kann man automatisch klassifizieren, weil man ja die Modelle kennt, durch die sie erzeugt wurden. Das ist eine gute Ergänzung zur Nutzung realer Daten.

Außerdem kann man bei simulierten Daten auch Trainingsdaten erzeugen, die Fehlersituationen widerspiegeln und das System darauf trainieren. So ist gewährleistet, dass es sich später im Fehlerfall richtig verhält.


  1. »Transparent und unerklärlich zugleich«
  2. Warum KI-Projekte misslingen
  3. »Neuronale Netze sind transparent und unerklärlich zugleich «
  4. Reinforcement-Learning: Neuronale Netze von selbst lernen lassen?

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu MathWorks GmbH

Weitere Artikel zu Künstliche Intelligenz (KI)