Ethische Aspekte künstlicher Intelligenz KI-Systeme müssen mit offenem Visier agieren

Was darf KI, und wer kontrolliert bei Irrtümern?

Viele KI-Enthusiasten hoffen auf den Tag, der allerdings noch 20 bis 40 Jahre entfernt sein dürfte, bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen schon mit schwacher KI ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerber-Management bei Recruiting-Prozessen im Einsatz. Bei Amazon soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden. Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der „falschen Adresse“ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden.

Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine Ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitet das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, »den größtmöglichen Nutzen aus der KI zu erzielen und gleichzeitig die geringstmöglichen Risiken einzugehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten („menschenzentrierten“) Ansatz für die KI …«. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Betreiber werden eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI nicht ändern, nur weil sie ein wenig diskriminierend agiert.

KI-Systeme müssen mit offenem Visier agieren und überwacht werden

Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass eine KI immer dann, wenn sie mit einem Menschen interagiert, sich zuvor als solche zu erkennen gibt. Im Zweifelsfall muss der menschliche Nutzer das Recht bekommen, eine natürliche Person des Betreibers oder einer externen Stelle mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre selbstständig sich umschreibenden Algorithmen durch Testläufe zu überwachen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen.

Denkbar wäre auch, dass sich große Unternehmen einen eigenen Ethikrat mit externen Experten geben, der die Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzuziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte. Staatliche Stellen müssen ein enges Korsett bekommen, um Freiheitsrechte der Bürger nicht schleichend einzuschränken.