Autonomes Fahren und Ethik Auf die Werte kommt es an

Michael Mörike, Integrata-Stiftung: »KI-Systeme müssen während ihrer Nutzung lernen dürfen – das führt zu einem Gegensatz zwischen Selbstbestimmung und Mitbestimmung, denn es ist nicht immer von vorneherein abzusehen, wie sich solche Systeme exakt verhalten werden. Das ist einer der großen Umbrüche, die die KI bringen wird.«

Wie eng KI und Ethik zusammen hängen, erklärt Michael Mörike, Vorstand der Integrata-Stiftung, am Beispiel des autonomen Fahrens.

Die große Herausforderung sind lernende Systeme, deren Verhalten sich nach dem Lernprozess nicht exakt vorhersagen lässt.

Markt&Technik: Auf welcher Stufe steht das autonome Fahren derzeit?

Michael Mörike: Stufe 3 des autonomen Fahrens funktioniert derzeit schon recht gut, bei Stufe 4 gibt es noch allerhand Schwierigkeiten, Stufe 5 ist noch weit entfernt. Dass ein Auto auf unbefestigten Strecken oder in schwierigen Verkehrssituationen vollkommen autonom zurechtfindet, das wird noch ziemlich lange nicht funktionieren.

Dazu kommt, dass ein relativ autonom fahrendes Auto unbedingt mit den Menschen kommunizieren muss. Denn der Mensch wird sich nur dann mit einem autonom fahrenden Auto anfreunden können, wenn er ihm seine Wünsche und Zielvorstellungen mitteilen kann.

Reicht es nicht, wenn ein Auto Objekte erkennt und sich daraufhin richtig verhält?

Objekterkennung ist natürlich die Voraussetzung. Das funktioniert auch schon ganz gut, 50 Objekte können 50 Mal pro Sekunde erkannt werden, zumindest grob. Dann muss entschieden werden, welche Objekt gerade von Relevanz für die nächsten Sekunden sind. Auf diese muss sich das System konzentrieren und sie einer tieferen Analyse unterziehen. Ich könnte mir vorstellen, dass es dafür verschiedene Module für verschiedene Aufgaben geben wird. Die Entwicklung ist in der IT ganz ähnlich verlaufen. Die Hersteller arbeiten bereits in diese Richtung.

Warum ist die Kommunikation mit den Insassen der Fahrzeuge so wichtig?

Weil die Menschen meistens nicht nur ein Ziel verfolgen, etwa von zu Hause zum Kino gefahren werden wollen. Vielleicht wollen sie noch kurz bei der Reinigung vorbei fahren, vielleicht wollen sie noch kurz entschlossen einen Anhalter mitnehmen – das Auto muss in der Lage sein, den Menschen zu verstehen und flexibel zu reagieren. Navigationssysteme beispielsweise können das in den meisten Fällen noch nicht. Sie reagieren nur eingeschränkt flexibel, können sich oft auf neue Situationen nicht einstellen und die Kommunikation mit dem Fahrer ist nur sehr eingeschränkt möglich. Der Fahrer hat dann schnell den Eindruck, es mit einem dummen System zu tun zu haben, und ärgert sich. Beim Navi ist das noch hinzunehmen, beim autonomen Fahren nicht.

Schon ein Objekt zu erkennen ist ja gar nicht so einfach und macht derzeit noch so manche Schwierigkeiten, ganz zu schweigen von weit komplexeren Problemen.

Das ist richtig. Ein Pferdefuhrwerk kann ein System von heute wohl erkennen, aber einen von einem Esel gezogenen Karren oder ein Hund vor einem Leiterwagen? Eine Kuh wird mit hoher Wahrscheinlichkeit erkannt werden; eine Entenfamilie, die die Straße überquert, oder einen Schwan auf der Straße? Das wird derzeit in vielen Fällen noch nicht klappen. Vor allem müssen solche Objekte sehr schnell erkannt werden. Wird ein Objekt nicht erkannt, muss es als „seltsames Ereignis“ bewertet werden und das Auto muss sich fern halten. Das ist dann natürlich nicht mehr das, was man sich unter autonomem Fahren wirklich vorstellen will.

Damit das System die vielen möglichen Objekte erkennen kann, muss es trainiert werden. Das dauert aber sehr lange und stellt im Moment eine wesentliche Limitation dar. Wird das besser funktionieren, indem man einfach mehr von dem tut, was man schon bisher getan hat, also mehr Transistoren auf die Chips bringt, um die Rechenleistung zu steigern?

Ja, ich bin überzeugt davon, dass sich die Rechenleistung über die kommende Zeit noch weiter auf traditionellem Weg verbessern lässt und dass die Simulation von neuronalen Netzen auf der digitalen Hardware zu sehr viel besseren KI-Systemen führen wird, als wir sie heute kennen. Wir stehen ja erst am Anfang des KI-Umbruchs. Dann wird es auch viel besser möglich werden, semantisches Wissen bzw. eine Ontologie in die Systeme zu bringen: Erkennt das System einen Menschen, dann muss es auch wissen, dass er zwar gehen oder rennen kann, nicht aber fliegen. Ein Verkehrsschild kann keines von beidem. Auf Grundlage solchen Wissens kann das Auto dann die nächsten Schritte vorhersehen und sich entsprechend verhalten. So macht es das Gehirn auch, das ist ja eine der großen Leistungen unseres Gehirns.