Künstliche Intelligenz Was kann, was darf KI?

Chefredakteur Elektronik
Gerhard Stelzer, Chefredakteur Elektronik und Elektronik automotive.

Kann KI in moralischen Kategorien denken, wie der Mensch? Sicherlich nicht, aber Forscher der TU Darmstadt sind überzeugt, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

Es lässt sich sicherlich trefflich darüber streiten, wo im Hype-Zyklus sich derzeit die Künstliche Intelligenz (KI) befindet. Sind wir noch auf dem Gipfel der überzogenen Erwartungen oder schon im Tal der Enttäuschungen? Schön wäre es, den Pfad der Erleuchtung zu erreichen. Klar ist allerdings, dass wir das Plateau der Produktivität noch nicht erreicht haben.

Künstliche Intelligenz kann bereits viel: KI übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo bleibt ihr moralischer Kompass? Der Film »2001: Odyssee im Weltraum lässt grüßen«. Eine Studie des »Centre for Cognitive Science« der TU Darmstadt hat herausgefunden, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind. Die Ergebnisse dieser Studie wurden auf der diesjährigen ACM/AAAI Conference on Artificial Intelligence, Ethics, and Society (AIES) in Honolulu im Januar 2019 vorgestellt.

Das interdisziplinäre Forscherteam von Informatikern und Psychologen der TU Darmstadt, Sophie Jentzsch, Patrick Schramowski, Constantin Rothkopf und Kristian Kersting ist überzeugt, dass KI von zunehmender Bedeutung in unserer Gesellschaft ist. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin – KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert. »Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf«, so die Forscher.

Im Umfeld des autonomen Fahrens gibt es ein vieldiskutiertes Dilemma: Ein autonomes Fahrzeug erkennt, dass ein Unfall unvermeidbar ist und es nur drei Optionen gibt: Eine Kollision mit einem Rentner, einer Mutter mit Kinderwagen oder einer Betonwand, die die Fahrzeuginsassen gefährdet. Wie soll das Fahrzeug nun reagieren? Der Philosoph Richard David Precht hat allen Ernstes vorgeschlagen, einen Zufallsgenerator entscheiden zu lassen. Ich würde allerdings kein Fahrzeug kaufen, das mich als Insassen opfert.

KI braucht also einen menschenähnlichen Moral-Kompass. Forscher aus Princeton (USA) und Bath (UK) hatten im Fachjournal Science auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt. Dem Forscher-Team der TU Darmstadt ist es nun gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über »richtiges« und »falsches« Handeln aus großen Textdatenmengen gelernt werden können und zwar mit Frage-Antwort-Schemata für verschiedene Handlungen. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. So lernte die KI im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben.

Weniger um die Moral als vielmehr um die Technik geht es hingegen in unserem 2. Forum Künstliche Intelligenz am 14. Mai 2019 in Stuttgart. Das Programm finden Sie auf der Website: www.forum-ki.eu