Ethik und Künstliche Intelligenz Neues Tool soll für gerechte KIs sorgen

Accenture bringt ein „AI Fairness Tool“ auf den Markt. Es soll sowohl Staat als auch Unternehmen dabei helfen zu überprüfen, ob von ihnen eingesetzte KI-Systeme alle Menschen fair und vorurteilsfrei behandeln.

Damit KI-Systeme neutral und vorurteilsfrei sind, bietet das von Accenture entwickelte Tool einen Überblick darüber, ob und welche Daten (und Features) einen diskriminierenden Effekt haben und wie stark deren Einfluss auf die Aussagekraft des verwendeten Modells ist.

Das »AI Fairness Tool« soll dabei wie ein Frühwarnsystem funktionieren und richtet sich vor allem an Anwender, die keinen technischen Hintergrund haben, aber dennoch die Funktion eines KI-Modells sowie eine mögliche Diskriminierung auf Grund der genutzten Datensätze besser verstehen wollen.

Das Accenture-Tool basiert auf einer dreistufigen Überprüfung der Algorithmen:

  • Bewertung der Daten und Beseitigung von Korrelationen zwischen diskriminierenden Variablen: Das Tool überprüft personenspezifische Daten, die für eine KI-Anwendung genutzt werden, auf ihren diskriminierenden Effekt. Darüber hinaus analysiert es, wie sich einzelne Variablen gegenseitig beeinflussen, ohne dass dies auf den ersten Blick offensichtlich ist. Damit wird verhindert, dass selbst bei Ausschluss eines offensichtlich diskriminierenden Merkmals andere Daten das Modell weiterhin zu Ungunsten einer bestimmten gesellschaftlichen Gruppe beeinflussen. Ein Beispiel: Geschlecht und Berufswahl korrelieren oft miteinander, sodass die Verarbeitung von Daten zur beruflichen Tätigkeit selbst dann zu diskriminierenden Ergebnissen führen würde, wenn Informationen zum Geschlecht aus den Datensätzen gelöscht werden.
  • Bewertung und Nachjustierung der KI-Algorithmen: Das Tool ist in der Lage, nicht nur die Daten, sondern auch den Algorithmus selber auf einen möglichen Bias zu überprüfen und den Anwender zu warnen. Dabei testet das Tool den Algorithmus darauf, ob er innerhalb einer bestimmten gesellschaftlichen Untergruppe abweichende Ergebnisse liefert, die nicht den realen Verhältnissen entsprechen. An einem konkreten Beispiel erklärt: Bei der Entwicklung des Tools wurde unter anderem ein Datensatz für die Bestimmung von Kreditrisiken deutscher Verbraucher genutzt. Dabei stellte sich heraus, dass die Nationalität eines Kreditnehmers im verwendeten Modell großen Einfluss auf das Ergebnis hatte und insbesondere nichtdeutsche Staatsbürger benachteiligte. Mit Hilfe des Tools konnte gezeigt werden, dass die Vorhersagekraft des Modells auch ohne ‚Nationalität‘ signifikante Ergebnisse liefert und die Erhebung dieses Merkmals daher unerheblich für die Berechnung des Kreditausfallrisikos ist.  
  • Berechnung möglicher Auswirkungen auf die Aussagekraft eines Modells: Eines der Grundprobleme von »faireren« Algorithmen ist, dass weniger Variablen die Aussagekraft eines Modells verringern können. Um diesen Effekt zu überprüfen, bewertet das Tool, inwiefern die Genauigkeit eines KI-Modells durch den Verzicht auf diskriminierende Daten leidet. Sollte ein solcher Effekt nachweisbar sein, gibt das Tool auch an, wie stark der Einfluss einer bestimmten Variable auf die Vorhersagekraft des Algorithmus ist.  

 »Künstliche Intelligenz lernt aus Daten der realen Welt und bildet daher auch existierende Ungleichheiten und Vorurteile ab. Bisher lag der Fokus von Forschung und Wirtschaft vor allem darauf, die theoretischen Implikationen zu verstehen und die gesellschaftliche Debatte ins Rollen zu bringen«, sagt Andreas Braun, Analytics Lead bei Accenture in Deutschland, Österreich und der Schweiz. »Mit dem ‚AI Fairness Tool’ bieten wir jetzt eine konkrete Lösung an, um die Verbreitung diskriminierender Algorithmen zu verhindern. Wir sind überzeugt, dass Künstliche Intelligenz der Gesellschaft große Vorteile bringen wird, dennoch dürfen wir die Schattenseiten nicht ignorieren. Daher gehen wir nun einen ersten Schritt und bieten ein Frühwarnsystem an, das Diskriminierung durch Algorithmen aufspürt, ehe Schaden angerichtet wird.«

Das »AI Fairness Tool« wurde erstmals am 11. Juni auf der CogX Conference in London vorgestellt. Es ist das Ergebnis einer Zusammenarbeit von Accenture und jungen Wissenschaftlern des Alan Turing Institutes, dem nationalen britischen Forschungszentrum für Data Science und Künstliche Intelligenz.