Forum Künstliche Intelligenz 2019 »Neuronale Netze sind strohdumm«

KI versteht die Welt noch nicht

Bei den Fachvorträgen brachte Dr. Wieland Brendel von Layer7.ai ein interessantes Phänomen zur Sprache: Neuronale Netze, die in der Bildverarbeitung eingesetzt werden, erkennen Objekte vorwiegend anhand der Textur, nicht der Gestalt. Er zeigte dazu die Detailaufnahme einer Elefantenhaut, die mit 82 Prozent Wahrscheinlichkeit als solche erkannt wird. Die Silhouette wird dagegen nur mit 7 Prozent Wahrscheinlichkeit erkannt und eher für einen schwarzen Schwan gehalten. Konsequenterweise können Neuronale Netze ein in Puzzleteile zerlegtes Bild immer noch gut erkennen, weil sie Textur-Fragmente wie Augen, Hautflächen oder Zweige, Blätter immer noch einer Person, einem Tier oder einer Pflanze zuordnen können.

Die Klassifzierung beruht also auf der Erkennung lokaler Eigenschaften, nicht einer Gesamtansicht. Das führt dazu, dass für den Menschen unauffällige Änderungen solcher Texturen zu einem völligen Versagen des Erkennungsvorgangs führen, etwa indem die Bedeutung von Verkehrszeichen durch kleine Aufkleber in ihr Gegenteil verkehrt werden kann. Layer7 verwendet deshalb für das Training verfremdete Bilder, die das neuronale Netz verwirren und dazu zwingen, den Fokus stärker auf die Gestalt zu legen. Das macht die Erkennung robuster.

Brendels Fazit: Maschinen können erstaunliche Leistungen vollbringen, haben aber kein Verständnis für Objekte und die größeren Zusammenhänge. Er schloss seinen Vortrag mit: »Noch viel mehr ist möglich, sobald Maschinen unsere Welt verstehen.«

Tools für die Anwendung von KI

Raphael Zingg ist wissenschaftlicher Mitarbeiter am Institut für Embedded Systems der Zürcher Hochschule für Angewandte Wissenschaften (zhaw) und hat sich mit der Anwendung von neuronalen Netzen auf Mikrocontrollern beschäftigt. Für das Training dieser Software-Gebilde ist sehr viel Rechenaufwand und viele Trainingsdaten erforderlich. Deshalb wird das Training auf Hochleistungsrechnern, meistens in der Cloud, ausgeführt. Für die Anwendung, das sog. Inferencing oder Schlussfolgern, reichen auch Mikrocontroller aus. Allerdings muss das neuronale Netz dazu auf die Rechenarchitektur bzw. den Befehlssatz des Mikrocontrollers übertragen werden.

Die Hersteller bieten dazu Werkzeuge an und Raphael Zingg hat zwei miteinander verglichen: CMSIS-NN von Arm und X-Cube-AI von ST Microelectronics. X-Cube-AI ist das komfortablere der beiden Tools: Es validiert und übersetzt die KI-Frameworks bzw. Bibliotheken Keras (TensorFlow), Lasagne, Caffe und ConvNetJs. Das Tool kann die Netze auch komprimieren und generiert dann eine zielsystemspezifische Bibliothek mit AI-Funktionen und Firmware. CMSIS-NN enthält Funktionen zum Ausführen von neuronalen Netzen auf Mikrocontrollern, bietet aber keine Konvertierungsfunktion an. Das bedeutet, dass die Parameter der Netze immer wieder händisch im Quellcode angepasst werden müssen, wenn ein neuer Trainingsvorgang erfolgt ist. Für die Bibliothek Keras hat Zingg allerdings das Tool k2arm geschrieben, das diese Konvertierung von Python zu C erledigt. Der Anwender kann dabei das Festkomma-Format (8 bit oder 16 bit) wählen, das die CMSIS-NN unterstützt. K2arm soll auf Github als Open Source veröffentlicht werden.

Eine Versuchsreihe anhand der MNIST-Daten (Beispieldaten zur Erkennung handgeschriebener Ziffern) erbrachte, dass X-Cube-AI exakt die gleiche Klassifizierungsgenauigkeit liefert wie ein natives Keras. Bei K2arm war die Genauigkeit insbesondere bei 8-bit-Berechnung geringfügig niedriger. Für die praktische Anwendung spielt die Abweichung im Sub-Prozent-Bereich aber keine Rolle. Die Performance auf einem STM32F4Discovery-Board mit Cortex-M4 war mit k2arm allerdings um den Faktor 10 schneller als bei X-Cube-AI.

Fazit von Raphael Zingg: Selbst »größere« neuronale Netze können auf gängigen Mikrocontrollern wie dem Cortex-M4, dank optimierter Frameworks, effizient ausgeführt werden.

Haftung hat mit Haft zu tun

Den Schlusspunkt des Forums setzte die Juristin Susanne Meiners, Newtec. Sie führte das technische Auditorium in die Welt der Rechtsprechung ein, klärte Begriffe wie Zivilrecht, Strafrecht und öffentliches Recht und ordnete diese dem Vertragsrecht, der Produkthaftung, Delikten, EU-Verordungen und der Normengebung zu. Die Rechtsprechung kann mit der schnellen technischen Entwicklung nicht Schritt halten. In einer Dilemma-Situation, wenn ein Autofahrer sich binnen Sekundenbruchteilen entscheiden muss, ob er den Senior oder das Kind überfährt, entlastet ihn der »Notstand in auswegloser Situation«. Für ein autonom gesteuertes Fahrzeug gilt das nicht, denn die Rechtsprechung kennt keine Optimierung im Sinne der Minimierung eines Schadens. Deshalb wäre es z.B. auch nicht rechtens, Passagierflugzeuge abzuschießen, die für einen Terroranschlag wie im Fall des World Trade Centers missbraucht werden. Bisher müssen die Gerichte in solchen Fällen stets langwierige Einzelfallentscheidungen treffen.

Über einen wichtigen Trend im Bereich der Haftung informierte Meiners die Zuhörer: Im Fall von Schäden haftete bisher immer (nur) der Verursacher. Bei vielen Cyber-Sicherheits- und Security-Vorfällen kann der Verursacher jedoch nicht dingfest gemacht oder noch nichteinmal bestimmt werden. Hier hat sich in letzter Zeit herauskristallisiert, dass auch denjenigen, der den Schaden nicht verhindert hat (etwa der IT-Verantwortliche), eine Mitschuld treffen kann. Die Verursacher-Haftung, die dadurch nicht eingeschränkt wird, hat übrigens auch zur Konsequenz, dass derjenige, der z.B. eine Hintertür programmiert, ebenfalls in Haftung genommen wird. »Nicht die Firma haftet, sondern derjenige der manipuliert hat,« warnte Meiners. Alle fühlten sich sofort an die Diesel-Krise erinnert.

Bilder: 5

Forum KI: Die vier wichtigsten Zitate

Vier markante Statements vom Forum Künstliche Intelligenz 2019 in Stuttgart.