Elektroniknet Logo

Interview mit Chris Wallace, Cloudera

»Es gibt viele diskriminierende KI-Systeme«

Chris Wallace von Cloudera
Chris Wallace von Cloudera.
© Cloudera

KI-Systeme zu entwickeln, stellt viele Unternehmen derzeit noch vor große Herausforderungen – von technischen über personelle bis hin zu ethischen. Hierbei sind viele Fragen zu beantworten. Kernpunkt ist jedoch, wie man einen Algorithmus dazu bringt, nicht diskriminierend zu handeln.

Chris Wallace ist Leiter der Forschungsabteilung für angewandtes maschinelles Lernen bei Cloudera Fast Forward Labs. Hier arbeitet er daran, Entwicklungen im Bereich der maschinellen Intelligenz zugänglich und in der realen Welt anwendbar zu machen. Er entwickelt Datenprodukte und legt großen Wert darauf, dass Technologie für den Menschen arbeitet und nicht umgekehrt.

Herr Wallace, was zeichnet eine »ethische KI« aus und warum ist das Thema so wichtig für Unternehmen?

Unter ethischer künstlicher Intelligenz – englisch Ethical AI – versteht man das Bemühen, KI-gestützte Systeme zu entwickeln, die menschlichen Werten entsprechen. Zum Beispiel Werte wie Fairness, Transparenz, Achtung der Privatsphäre sowie niemandem Schaden zuzufügen. Es ist wichtig, dass wir automatisierte Systeme verantwortungsvoll betreiben – sie kommen vielfach bei Entscheidungen zum Einsatz, die sich direkt auf unser Leben auswirken.

Es gibt allerdings keine definitiven Kriterien, welche ein System ethisch vertretbar machen und ein anderes hingegen nicht. Um jede Art automatisierter Systeme verantwortungsvoll einzusetzen, müssen wir ständig auf die unbeabsichtigten Folgen der KI achten. Denn Ethik ist das, was wir tun – nicht das, was wir sind. Abgesehen davon, dass Unternehmen hiermit Schaden von ihren Kunden und anderen Personen abwenden, verringern sie mit verantwortungsbewusstem Handeln das Risiko rechtlicher, rufschädigender und – in zunehmendem Maße – regulatorischer Risiken.

Welche Herausforderungen ergeben sich beim Einsatz von KI für Unternehmen?

Der Einsatz des maschinellen Lernens (ML) ist mit einer Reihe von Herausforderungen verbunden. Es entstehen einige rein technische Aspekte, beispielsweise in Bezug auf die Recheninfrastruktur und Beobachtbarkeit – sie sind am einfachsten zu lösen. Zudem kommen organisatorische Herausforderungen auf, wie das Strukturieren eines Datenteams. Hierfür gibt es keine Universalmaßnahme. Außerdem gibt es die datenwissenschaftliche Arbeit: Wie gelingt der Weg von einer Menge an Daten und Algorithmen zu einem Produkt, das tatsächlich jemandem hilft?

Gibt es Ansätze, ethische Grundfragen mit einzubeziehen?

Es ist möglich, all die bisher genannten Schritte gut umzusetzen und dennoch ein System zu erhalten, das eine Gruppe systematisch diskriminiert. Schließlich gibt es zahlreiche technische Maßstäbe für Fairness – einige von ihnen stehen in direkter Spannung zueinander, beispielsweise die Gleichheit von Chancen und Ergebnissen. Ein sinnvoller erster Schritt ist, Kompromisse zwischen den Maßstäben zu bewerten sowie andere Parameter wie die Genauigkeit von Prognosen zu definieren.

Jedoch ist das Überprüfen von Kennzahlen lediglich ein kleiner Schritt. Um KI verantwortungsvoll einzusetzen, ist es wichtig, das gesamte Unternehmen zu beteiligen. Leider tauschen sich bisher lediglich wenige Unternehmen darüber aus, wie sie solche Herausforderungen angehen. Das erschwert es anderen Unternehmen, ihrem Beispiel zu folgen und bewährte Verfahren zu entwickeln.

Welche Nachteile ergeben sich bei Nichtbeachten?

Es gibt viele Fälle von diskriminierenden KI-gestützten Systemen. Ein Beispiel: Ein Unternehmen aus dem Bereich des Personalwesens überwachte die Mimik der Bewerber beim Einstellungsgespräch. Das schadete nicht nur den Bewerbern, sondern war ebenfalls ein PR-Desaster und vergeudete Entwicklungszeit und Geld, da das System unbrauchbar war.

Ich denke, wir müssen mit einigen Wunschvorstellungen über KI-Systeme aufräumen. So glauben zum Beispiel viele, dass automatisierte Systeme objektiver und somit weniger diskriminierend agieren als ein Mensch – ein sehr naiver Gedanke. Maschinelle Lernsysteme setzen sich aus Daten und Algorithmen zusammen, die von Menschen erzeugt werden und unterliegen folglich denselben Vorurteilen. Es ist unmöglich, die Frage der Fairness zu »automatisieren«, denn die verschiedenen Akteure in einem System haben unterschiedliche Ziele. Es liegt an denjenigen, die das System erstellen – Entwickler, Designer, Manager – die anzuwendenden Kompromisse zu bestimmen. Ungeachtet der Überlegungen zu Reputations- und anderen Risiken, ist ein faires Behandeln von Menschen Hauptgrund für das Ent-wickeln verantwortungsvoller KI-Systeme.

Vielen Dank für das Gespräch.


Das könnte Sie auch interessieren

Verwandte Artikel

elektroniknet