Diamant Software

Menschliche und künstliche Intelligenz vereinen

9. August 2021, 10:39 Uhr | Andreas Knoll

Fortsetzung des Artikels von Teil 2

Anwender müssen nicht jedes Detail verstehen

Gehen Sie also davon aus, dass insgesamt nicht weniger Arbeitskräfte gebraucht werden, aber sich die Tätigkeitsprofile verändern?

Ja, Jobs haben sich ja schon immer verändert, aber durch KI geschieht dies in beschleunigtem Tempo. Wir werden definitiv nicht alle wegautomatisiert, sondern erstens bilden sich viele neue Jobs, und zweitens verändern sich die bestehenden Jobs über die Zeit. Das sehen wir sogar bei uns im KI-Umfeld: Wer gestern noch als Data Scientist ein Vorhersagemodell bis zum Letzten optimiert hat, erstellt heute ein grundlegendes Modell und überträgt es in die Cloud, und dann optimieren andere maschinelle Algorithmen das Modell weiter bis hin zu substanziellen Performance-Verbesserungen. Sie kommen dabei teilweise auf Ideen, die Architektur neuronaler Netze zu verändern, auf die der Mensch nie gekommen wäre oder nur zufällig. So verändert sich sogar der Job des Data Scientist oder des KI-Forschers durch die KI selbst.

Was kann hybride KI in der Bildverarbeitung leisten, und wo kommt sie dort schon zum Einsatz?

Wir machen bei Diamant auch Bildverarbeitung in dem Sinne, dass wir Optical Character Recognition betreiben, um Papierrechnungen grob in Computertext zu übersetzen. Das ist verhältnismäßig simpel in dem Sinne, dass es ein Alphabet von A bis Z und Zahlen von 0 bis 9 gibt. In der Bildverarbeitung ist aber das, was es zu erkennen gilt, nicht immer klar umrissen – also im Sinne von Buchstaben von A bis Z und Zahlen von 1 bis 9 –, sondern es kann sich um ein abstraktes Konzept handeln wie etwa, dass mit dem Bauteil etwas nicht stimmt. Das lässt sich nicht so klar umreißen – es gibt ja vieles, was mit einem Bauteil nicht stimmen kann. Inzwischen sehe ich immer wieder neue Konzepte, Maschinen Aufgaben beizubringen. Trainingsdaten lassen sich beispielsweise erzeugen, indem man dem Menschen, wenn er einen visuellen Task ausführt, EEG-Elektroden auf dem Kopf befestigt und die entstehenden Gehirnströme analysiert.

In der Object Recognition besteht ein klassisches Verfahren darin, Rahmen um die Objekte zu ziehen, die es zu erkennen gilt, oder die Objekte auf eine zweidimensionale Repräsentation zu projizieren und dann zu messen, ob das Bauteil links und rechts die richtigen Dimensionen hat. Manchmal ist das aber nicht möglich, etwa in dem Beispiel mit den schmutzigen Kleidungsstücken in der Wäscherei, die verzerrt oder verknäult auf dem Band liegen. In solchen Fällen muss man eben weniger explizite Merkmale beschreiben oder die menschliche Sensorik einbeziehen, um Auffälligkeiten zu erkennen.

Realistischerweise muss man aber sagen, dass auch der Mensch Fehler macht. Jeder KI-Forscher würde glatt lügen, wenn er sagen würde, der Human-in-the-Loop-Ansatz ermögliche eine hundertprozentige Fehlererkennungsrate.

Kann man im Rahmen des Human-in-the-Loop-Ansatzes über die Messung der Gehirnströme wirklich zuverlässig ermitteln, welche Befehle der Mensch der Maschine, dem Roboter oder dem Bildverarbeitungssystem geben würde?

Das Konzept mit der Messung der Gehirnströme ist in der Forschung schon recht etabliert – nicht nur in der visuellen Bildverarbeitung, sondern generell immer dann, wenn man sich die menschliche Sensorik in irgendeiner Form zunutze machen will. Besonders bei Human-in-the-Loop-Prozessen geht es ja oft darum, dass der Mensch subtile Signale über sein Befinden aussendet, etwa wenn er müde ist. Hierauf beruht das Driver Monitoring im Auto – wenn der Mensch müde wird, dann beginnt er, Fehler zu machen. Im Auto ist das natürlich besonders fatal, und dann werden unterschiedlichste Signale des Menschen gemessen – nicht unbedingt Gehirnströme, aber beispielsweise die Bewegung der Augen, die Frequenz des Lidschlags oder akustische Symbole wie etwa Gähnen.

Vom israelischen Unternehmen InnerEye, dessen Produkte in der DACH-Region bei Macnica erhältlich sind, gibt es mittlerweile ein industrietaugliches System, das mit EEG-Sensoren versucht, sich den visuellen Eindruck des Menschen als Signal zunutze zu machen. In der Forschung ist dieser Ansatz nicht mehr das Allerneueste, aber man muss fairerweise sagen, dass die Forschung der industriellen Umsetzung immer ein Stück voraus ist.

Das Schöne an solchen Konzepten ist, dass der Anwender nicht im Detail verstanden haben muss, wie das EEG eines Menschen aussieht, der gerade an einen Buchstaben, eine Zahl, einen Kreis oder ein Rechteck denkt; es reicht oft schon aus, die Veränderung im Signal zu erkennen, die mit einem Ereignis einhergeht. Der Anwender kann ja auch nur von den Unterschieden in den Signalen ausgehen. Wenn ich als Mensch alarmiert bin, ist dies an meinem EEG mit einem klassischen Signalverarbeitungsverfahren leicht festzustellen. Man muss also nicht in allen Einzelheiten wissen, wie das EEG eines Menschen aussieht, der an eine ganz bestimmte Sache denkt. Wenn es um die Steuerung einer Maschine durch Gehirnströme geht, dann müssen natürlich viele Signale verarbeitet werden, aber wenn es nur darum geht, zu erkennen, ob ein Bauteil OK oder nicht OK ist, dann reicht eine entsprechend große Datenmenge aus.

Anbieter zum Thema

zu Matchmaker+

  1. Menschliche und künstliche Intelligenz vereinen
  2. KI erfordert massive Verfügbarkeit von Rechenleistung in der Cloud
  3. Anwender müssen nicht jedes Detail verstehen

Verwandte Artikel

elektroniknet

Künstliche Intelligenz

TW Automa EBV Sept21