Autonomes Fahren Umfahren oder umfahren?

Irgendwann wird es kommen: Das vollautonome, fahrerlose Fahrzeug. Für Gesellschaft und Gesetzgeber bedeutet das eine große Herausforderung. Dazu kommen wichtige Ethikentscheidungen, die geregelt werden müssen. Allen voran die Frage: Wie soll das autonome Fahrzeug bei einem Unfall reagieren?

Automatisierte Fahrzeuge werden anhand ihres Automatisierungsgrades (Bild 1) definiert und zusätzlich nach Mobilitätskonzept – also ihrer Nutzungsart – unterschieden. Ein Beispiel für letzteres ist der Autobahnpilot, der bereits bei einigen Tesla-Modellen verfügbar ist. Wie der Name schon sagt, übernimmt das Auto auf der Autobahn die Kontrolle und der Fahrer muss nur auf Landstraßen und im Stadtverkehr selbst ans Steuer.

Es gibt jedoch noch viel mehr Konzepte und Möglichkeiten, die den gesamten Verkehr auf den Kopf stellen und besser regeln könnten. Das vernetzte und autonome Auto könnte zu einem bequemen Transportmittel werden, bei dem die Fahrzeit vom Fahrer anderweitig genutzt werden kann. Noch dazu könnten autonome Fahrzeuge den Verkehr und die chaotische Parksituation in Städten entlasten – zum Beispiel durch autonomes Valet-Parking oder Vehicle-on-Demand-Services.

Der Fahrtkomfort ist nur einer der Gründe, warum autonome Fahrzeuge so interessant sind. Viel wichtiger ist jedoch die zunehmende Sicherheit im Verkehr. Laut jüngsten Statistiken werden etwa 90 Prozent der Autounfälle durch menschliches Versagen verursacht. Sind jedoch mehrheitlich vollautomatisierte Fahrzeuge auf der Straße, könnte die Zahl der Unfälle pro Jahr um knapp zwei Millionen sinken.

Ein netter Nebeneffekt durch das vorausschauende Fahren und die Car-to-Car- und Car-to-Infrastructure-Vernetzung ist eine umweltfreundlichere Fahrweise mit 40 bis 80 Prozent mehr Verkehrskapazität auf unseren Straßen. Allerdings hat auch das autonomen Fahren eine Kehrseite: Es wird erwartet, dass neue und bisher unbekannte Arten von Unfällen entstehen werden. Gerade die Übergangszeit mit einem Mischverkehr aus autonomen und herkömmlichen Fahrzeugen ist nicht zu unterschätzen. Außerdem gibt es einige Horrorszenarien, bei denen zum Beispiel Hacker die Steuerung des Fahrzeuges übernehmen und großen Schaden anrichten.

So interessant automatisierte Fahrzeuge auch sind, für Entwickler und Gesetzgebung sind sie ein wahres Mammut-Projekt. Sitzt ein menschlicher Fahrer hinterm Steuer, kann die Schuldfrage bei einem Unfall klar geregelt werden, doch wie sieht es aus, wenn der Computer das Lenkrad übernimmt? Noch dazu stehen wir vor einem hochkomplizierten Dilemma: Falls die Technik versagt und das autonome Fahrzeug in einen Unfall gerät, bei dem Menschen zu Schaden kommen könnten, wie soll das Fahrzeug reagieren?

Was wäre wenn?

Wir haben folgendes Szenario: Das autonome Fahrzeug erkennt aufgrund der Wetterlage nicht rechtzeitig, dass sich zwei Passanten auf der Fahrbahn befinden – ein 10-jähriges Kind und ein Erwachsener im fortgeschrittenen Alter. Eine Vollbremsung würde die Kollision mit den beiden nicht mehr verhindern, außerdem könnte das Auto bei dem schlechten Wetter ins Schleudern geraten. Das Fahrzeug hat also die folgende Wahl: Entweder die Fahrspur beibehalten oder jeweils auf eine Seite ausweichen, sodass nur eine Person zu Schaden kommt.

Eine dritte Option wäre die Gefährdung der Fahrzeuginsassen, indem es in den Seitengraben ausweicht. Wie soll das Fahrzeug handeln? Bei dem Szenario kann auch noch um beliebig viele Faktoren erweitert werden, zum Beispiel den Gesundheitszustand der Personen oder ihre gesellschaftliche Stellung. Ein autonomes Fahrzeug könnte solche Merkmale in einer vernetzten Welt durch Gesichtserkennung oder Big Data in Sekundenbruchteilen herausfinden. Natürlich kann das Gedankenspiel mit vielen weiteren Merkmalen noch weiter zugespitzt werden, doch die eigentliche Frage bleibt immer die gleiche: Wie soll sich das Fahrzeug entscheiden? Genau an dieser Stelle beginnt die ethische Diskussion.

Zumindest in einem Punkt sind sich das bisherige Gesetz und die Allgemeinheit jedoch einig: Das Fahrzeug darf auf keinen Fall nach individuellen Merkmalen unterscheiden – etwa Alter, Geschlecht, Ethnie, körperlichem Zustand oder der gesellschaftlichen Rolle.

Es gibt nun zwei Vorgehensweisen: die Deontologie, also die Pflichtethik und den Konsequenzialismus. Bei der Deontologie wird ganz klar auf den aktuellen Moment beschränkt entschieden, ob eine Handlung gut oder schlecht ist. Beim Konsequenzialismus werden dagegen die vorhersehbaren Konsequenzen einer Handlung betrachtet. Besonders wenn es um die Schadensminimierung geht, können die beiden – oft gegensätzlichen – Vorgehensweisen durch eine klare Trennung der Prioritäten in Kombination eine große Rolle spielen.

Eins ist auf jeden Fall klar: Müssten wir als Fahrer in solchen Stresssituationen selbst das Steuer übernehmen, wäre es uns unmöglich, der Moral entsprechend zu entscheiden, denn dazu fehlt einfach die Zeit. Laut zahlreicher Studien kann es bis zu 40 s dauern, ehe ein Mensch nach der plötzlichen Steuerübernahme (Overruling) eine bewusste und fundierte Entscheidung treffen kann – bei einem Unfall ist das meist viel zu spät.

Bilder: 3

Autonome Fahrzeuge

Drei aktuelle Test- und Vorzeigemodelle aus den »autonomen« Entwicklungsschmieden deutscher Automobilhersteller.

Eine Frage der Regeln

Auch der Gesetzgeber steht vor einem großen Problem, da die Gesetze bisher nicht für das automatisierte Fahren ausgelegt waren. Aus diesem Grund haben sich Ethiker, Juristen, Forscher, Entwickler und sogar ein Bischof im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur – weltweit einmalig in dieser Form – Gedanken über die ethischen Fragen und deren rechtliche Folgen beim vollautonomen Fahren gemacht. So sind in der Ethik-Kommission 20 Regeln entstanden, die nach Aussage der Bundesregierung schrittweise gesetzgeberisch und regulatorisch umgesetzt werden sollen.

In Regel Nr. 9 ist ganz klar zu erkennen, dass bei kritischen Entscheidungen das rein quantitative Vorgehen zwar untersagt ist, die Ethikkommission aber die Schadensminimierung durch eine Einschätzung der Personenschäden für vertretbar hält. Die Begründung dazu fußt darauf, dass die Wahrscheinlichkeitsabschätzung in verschiedenen Situationen für alle Beteiligten im gleichen Maße gilt und somit niemand bevorzugt oder benachteiligt wird. Das gilt allerdings nur, wenn autonome Fahrzeuge nachweislich sicherer sind als herkömmliche.

Die Verantwortung – damit auch die Haftung – verschiebt sich laut der 10. Regel auf den Hersteller, den Betreiber und dem Gesetzgeber. Darüber hinaus unterliegen die Hersteller der üblichen Produkthaftung (11. Regel). Sie sind also dazu verpflichtet, die Fahrzeuge aktuell zu halten. Zwar gilt eine zentrale Datensammel- und Steuerungsstelle für gewonnene Fahrzeugdaten als bedenklich (13. Regel), doch gleichzeitig ist die Dokumentation der Fahrzuständigkeit laut der 16. Regel notwendig, um bei Unfällen feststellen zu können, wer zum Unfallzeitpunkt am Steuer war – Fahrer oder Computer.

Umsetzung in die Praxis

2017 wurde das Straßenverkehrsgesetz überarbeitet und entsprechend erweitert. Dabei handelt es sich im Wesentlichen um drei Ergänzungen: Erstens wurde der Einsatz hoch- und vollautomatisierten Fahrzeuge für zulässig erklärt. Bevor sie auf die Straße dürfen, müssen sie allerdings zugelassen werden. Als zweite Maßnahme wurde die grundlegende Halterhaftung bei den autonomen Fahrzeugen verdoppelt. Sie beträgt nun zehn Millionen Euro bei Verletzung oder Tötung von Menschen und zwei Millionen Euro bei Sachschäden. Auch der Datenschutz wurde beachtet: Die Dokumentation der Fahrzuständigkeit wird vorausgesetzt. Auch auf den Fahrer kommen nun neue Pflichten zu: Er muss sich zum Beispiel entscheiden, ob er bei der konkreten Situation die autonomen Systeme nutzt oder nicht.

Was den Technologie-Einsatz betrifft, gibt es Vorschläge, die ethisch-rechtlich geforderte Sicherheitsoptimierung, also vor allem die Minimierung des Schadens, in Form von Constraints bzw. Regeln klar priorisiert zu realisieren – ähnlich den Robotergesetzen von Asimov. Constraints sind in diesem Fall ganz klare Kombinationen an Bedingungen (auch Auswirkungen und Konsequenzen), die erfüllt sein müssen, um ihnen eine bestimmte Handlung zuzuordnen. Es wird kein Weg daran vorbeiführen, sich bei nicht klar zuordenbaren Situationen für die gröberen bzw. priorisierten Constraints-Übereinstimmungen zu entscheiden.

Werden die für das Verhalten entscheidenden Situationsmuster aus Bedingungen durch maschinelles Lernen in Form von künstlichen neuronalen Netzen eingesetzt, so würde es durch diese Technik sogar unserem menschlichen Verhalten noch mehr ähneln.

Technisch ist es möglich, auch weitere im Fahrzeug vorhandene Sensorik für eine bessere Entscheidungsfindung einzubeziehen, wie etwa den Reifen- oder Bremsenzustand, den der menschliche Fahrer gar nicht berücksichtigen könnte.

Auf dem digitalen Prüfstand

Eine weitere Herausforderung ist die Zulassung der autonomen Fahrzeuge. Das beginnt schon bei den Tests. Ohne eine Kontrollinstanz wie dem Menschen müssen die Tests vor der Marktreife beziehungsweise der Zulassung vervielfacht werden. Schon jetzt benötigen selbst einfache Assistenzsysteme ungefähr zwei Millionen Testkilometer, bevor sie auf den Markt kommen.

Da ein Testaufwand mit einem dreistelligen Millionenbereich unrealistisch ist, müssen die realen Testkapazitäten durch virtuelle ergänzt werden. Auf den Prüfstand muss die isolierte Software (Software-in-the-Loop, SiL) bis hin zum Gesamtfahrzeugs (Vehicle-in-the-Loop, ViL). Im Wesentlichen werden bei SiL den Fahrzeugen realitätsnahe Simulationen vorgespielt und das Systemverhalten dabei beobachtet. Dieses Verfahren wird bereits jetzt überwiegend genutzt. Das Testvolumen könnte mithilfe von priorisierten Testfällen noch etwas gerafft werden. Eine Voraussetzung ist aber stets gefordert: Die Tests müssen so stark wie möglich realen Situationen gleichen.

Und was nun? Umfahren!

Eine wirklich alle befriedigende Regelung wird es vermutlich niemals geben. Darum wird an einer Lösung gearbeitet, die von der Mehrheit der Gesellschaft akzeptiert getragen werden kann – wodurch gleichzeitig die Akzeptanz für autonome Fahrzeuge an sich steigen würde. Klar erforderlich sind zumindest die strengen Datenschutzmaßnahmen – besonders bei den Vernetzungsmöglichkeiten. Durch die Überarbeitung der Gesetze, die erarbeiteten Empfehlungen und geplanten neuen Testfelder wurden zumindest die ersten Grundsteine gelegt. Auch bei der Haftungsfrage ist eine Regelung durch den Bericht der Ethikkommission ein Stück näher gerückt – nun muss es nur noch rechtlich zu Ende gedacht werden.

Noch dazu ist eine internationale Standardisierung der Regeln und Gesetze notwendig, wobei die UNECE-Pläne der Bundesregierung schon einen wichtigen Schritt in die richtige Richtung darstellen. Die grundlegenden Technologien sind auf einer zufriedenstellenden Entwicklungsstufe, auch wenn an der Bildverarbeitung mit Lidar, Radar und Kameras noch immer gefeilt wird. Die noch fehlende technische Umsetzung der ethisch-rechtlichen Vorgaben ist grundsätzlich möglich, erfordert aber noch einiges an Entwicklungsarbeit. Gerade in diesem sicherheitsrechtlichen Bereich müssen die Hersteller schon bald erste Antworten liefern.