Ethische Aspekte künstlicher Intelligenz KI-Systeme müssen mit offenem Visier agieren

Wie funktioniert KI?

Künstliche Intelligenz orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. Schon heute gelingt es zumindest, KI-Systeme intelligent erscheinen zu lassen. Sie sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Den Algorithmen kommt hierbei eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie ein Bauplan oder eine Gebrauchsanweisung verfolgt der Algorithmus diesen einen und vorgegebenen Weg und führt zu einem eindeutigen Ergebnis.

Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker Künstliche Neuronale Netze (KNN), die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die KNN sind auch KI-Algorithmen heutzutage in der Lage, bei ihrer Anwendung zu „lernen“, sich also selbstständig weiterzuentwickeln. Dieser Prozess wird als Machine Learning oder Deep Learning bezeichnet.

Was der Mensch als Erkenntnis speichert, jederzeit erinnern und wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus „umschreiben“, um die ihnen gestellten Aufgaben immer besser lösen zu können. Aber dabei verlassen sie nicht den vorgezeichneten Weg ihrer Algorithmen ihrer Aufgabe. Zumindest bisher nur selten, wie das Beispiel aus dem Forschungslabor von Facebook zeigte. 2017 mussten die Facebook-Programmierer ein KI-System aus zwei Bots abschalten, als sie bemerkten, dass sich die beiden in einer selbsterfundenen Sprache „unterhielten“. Die Programmierer hatten vergessen, den Bots vorzuschreiben, in Englisch zu kommunizieren. Diese wollten ihre Kommunikation mutmaßlich effektiver gestalten und sprachen ein Kauderwelsch, das sie allerdings untereinander verstanden. Den KI-Experten war das nicht mehr geheuer, und sie schalteten die Bob und Alice getauften Bots kurzerhand ab. Dhruv Batra, Gastwissenschaftler von Georgia Tech bei Facebook AI Research (FAIR), gab danach zu: »Es ist wichtig, sich daran zu erinnern, dass es keine zweisprachigen Sprecher von KI und menschlichen Sprachen gibt. Wir verstehen schon im Allgemeinen nicht, wie komplexe KIs denken, weil wir nicht wirklich in ihren Denkprozess sehen können. Das Hinzufügen von KI-zu-KI-Gesprächen zu diesem Szenario würde dieses Problem nur noch verschärfen.«

Starke versus schwache KI

Die aktuell verfügbaren KI-Anwendungen sind anders als Bob und Alice trotz Machine Learning zum Glück noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen und »zur Abwechslung einfach mal was anderes zu tun«. Eine KI, die Experten für die Auswertung von Lungentumoren programmiert haben, ist nicht in der Lage, einfach mal Nierenkrebs zu diagnostizieren. Wissenschaftler bezeichnen daher diese als schwache KIs – und träumen von starken KIs. Denn bisher ist es niemandem gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen auch tatsächlich wie ein Mensch zu fällen, also abzuwägen beispielsweise zwischen zwei gleich schlechten Alternativen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbstständig Ideen formulieren können und alle ihre Kompetenzen auch in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht gehen.