Diskriminierung durch Technik Selbstlernende Maschinen brauchen Sinn für Gerechtigkeit

Künstliche Intelligenz muss sich fair verhalten, damit sie breite Akzeptanz finden kann. Dafür ist die Untersuchung von Daten auf ihren kausalen Zusammenhang nötig. Doch bis Maschinen gerechte Entscheidungen treffen können, ist es ein weiter Weg.

Der Sinn für Gerechtigkeit ist von Kindesbeinen an im Menschen verwurzelt und stellt einen wesentlichen Teil seiner Moralvorstellungen dar. Eine faire Behandlung der Mitmenschen bildet die Basis für ein friedliches Zusammenleben in einer Gesellschaft.

Auch selbstlernende Maschinen, die dem Menschen zuarbeiten, müssen fair handeln. Denn nur wenn die künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie Menschen, werden deren Entscheidungen Akzeptanz finden.

»Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, da machte sich keiner Gedanken, ob ein Computer fair handelt«, sagt Niki Kilbertus, Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen. »Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden, muss man sich fragen, ob die selbstlernenden Maschinen fair oder diskriminierend sind.« Denn aufgrund der Daten, mit denen die selbstlernenden Maschinen gefüttert werden, treffen sie manchmal keine wertfreien Entscheidungen.

Die falsche Postleitzahl kann für eine Diskriminierung genügen

Ihre Erkenntnisse zu diesem Thema haben die Wissenschaftler Niki Kilbertus, Mateo Rojas-Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing und Bernhard Schölkopf in der Publikation »Diskriminierung vermeiden durch kausale Schlussfolgerungen« zusammengefasst.

Die Veröffentlichung soll dafür sensibilisieren, bei Applikationen des maschinellen Lernens zweimal hinzusehen, ob es Faktoren gibt, die Menschen diskriminieren könnten und nach dem »Warum« zu fragen. Solche Faktoren könnten beispielsweise die Hautfarbe der Menschen, ihr Geschlecht, ihre Religion oder ihre sexuelle Orientierung sein.

Doch selbst aufgrund der Postleitzahl, die ein potenzieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. Beispielsweise könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo.

Auch wenn der Antragsteller selbst also eine hohe Kreditwürdigkeit hätte, würde er den Kredit eventuell nicht bekommen – sofern man den Algorithmus gewähren lässt. Die Wissenschaftler appellieren also daran, zu hinterfragen, wie solche Daten zustande kommen. Denn es ist nicht wünschenswert, eine künstliche Intelligenz den menschlichen Alltag regeln zu lassen, wenn ihre Entscheidungen Verzerrungen aufweist.

Es gibt keine allgemeingültige Definition von »fair«

Eine Herausforderung ist die formale Definition von fairen Entscheidungen: Denn Fairness ist subjektiv. Es gibt keine Definition, die für alle Kulturkreise gleichermaßen gültig ist. Daher hat Kilbertus einen Algorithmus mit vielen Variablen aufgestellt, der bisher nur theoretische Gültigkeit besitzt. Es wurden noch keine Experimente gemacht – die Idee ist rein konzeptioneller Natur.

Bislang verwendet kein einziges Unternehmen einen fairen Algorithmus, wie er den Wissenschaftlern vorschwebt. Auch würde es viel Zeit und Geld kosten, faire kausale Schlussfolgerungen in dieser Tiefe zu ziehen.

Doch die Grundlagenforschung von Kilbertus und seinen Kollegen soll dazu dienen, ein Umdenken in unserer Gesellschaft anzuregen, in der maschinelles Lernen und künstliche Intelligenz künftig immer mehr Entscheidungen beeinflussen werden.