Schwerpunkte

Künstliche Intelligenz

Von der Weltherrschaft noch weit entfernt

08. März 2018, 15:36 Uhr   |  Joachim Kroll


Fortsetzung des Artikels von Teil 1 .

Denn sie wissen nicht, was sie tun

Fazit: Stecker ziehen oder Abschalten ist keine Alternative. Aber auch, wenn die Systeme immer leistungsfähiger werden, die Intelligenz wird künstlich bleiben und die Systeme werden niemals ein eigenes Bewusstsein entwickeln, werden niemals wirklich verstehen, was sie tun und niemals eigene Ziele oder Interessen haben.

Dennoch ist Skepsis angebracht, denn der Übergang vom prozeduralen zum kognitiven Computing geht mit einem paradigmatischen Bruch einher. Traditionelle Softwareentwicklung beruht auf Algorithmen, also auf einem festen Regelwerk, das aus mathematischen Operationen und Wenn-dann-Entscheidungen beruht. Die künstliche Intelligenz greift auf andere Prinzipien zurück. Kerntechnologie ist in diesem Fall das maschinelle Lernen: Der Computer erhält Beispieldaten aus denen er statistische Regelmäßigkeiten ableitet, daraus ein Modell bildet und ein Ergebnis errechnet. In einer Trainingsphase wird die Berechnung mit vorliegenden Trainingsdaten verglichen. Die Differenz zum gewünschten Ergebnis wird als Feedback wieder zurückgeführt, um die Parameter der Berechnung anzupassen. So wird das Berechnungsverfahren stetig verbessert und der Computer lernt umso mehr dazu, je mehr er mit Trainingsdaten gefüttert wird.
Dabei kann aber auch einiges schief gehen: Microsoft musste seinen Chatbot Tai nach Stunden von Twitter zurückziehen, weil er von anderen Benutzern rassistisches Verhalten gelernt hatte. Amazons Alexa war nicht auf den Umgang mit Kindern trainiert und bestellte bereitwillig alles, was sich die Kinder wünschten.

Chatbots können zwar auf einfache Fragen antworten und Aufgaben erledigen, wie z.B. einen Termin in den Kalender eintragen, aber sie können keine Argumente abwägen oder Kompromisse eingehen. Facebook entwarf einen KI-Algorithmus, der einem Chatbot beibringen sollte, mit einem Gesprächspartner zu verhandeln. Während des Trainings ließen sie die Chatbots sowohl miteinander als auch mit menschlichen Partnern sprechen. Wenn die künstlichen Intelligenzen miteinander kommunizierten, begannen sie, von der verständlichen Sprache abzuweichen und entwickelten mit der Zeit einen eigenen Dialekt. Für Menschen hörte sich das wie Kauderwelsch an, diente aber dazu, effektiver zu verhandeln. Die Forscher konnten allerdings die „Gedankengänge“ nicht mehr nachvollziehen und die Sprache nicht mehr verstehen, weshalb sie das Experiment beendeten [2]. Was in der Boulevardpresse teilweise so dargestellt wurde, als hätten die Forscher die Kontrolle über ihre Kreaturen verloren, zeigt nur: Der Einsatz künstlicher Intelligenz führt oft zu Resultaten, die die Entwickler nicht genau nachvollziehen können.

Maschinelles Lernen erfordert ungeheure Rechenleistung

Gegenwärtig taucht in vielen Präsentationen das Stichwort „Deep Learning“ im Zusammenhang mit Künstlicher Intelligenz auf. Deep Learning ist eine vertiefte Form des maschinellen Lernens mit neuronalen Netzen. Während die frühen Netze nur aus einer Eingabe-, einer unsichtbaren Zwischenschicht und einer Ausgabeschicht bestanden, enthalten Deep-Learning-Netze viele Zwischenschichten und können die Eingangsdaten immer besser klassifizieren. Ein Problem ist allerdings die hohe Rechenleistung, die für den Lernvorgang erforderlich ist. Dazu ein kurzes Beispiel: Ein neuronales Netzwerk soll Bilder klassifizieren; es gibt 1000 Klassen. Analysiert werden Bilder mit 224 × 224 Auflösung, was ca. 50.000 Bildpunkten entspricht, die bei drei Farbkanälen 150.000 Eingangswerte ergeben. Das neuronale Netzwerk selbst hat acht Schichten und 650.000 Neuronen; allein die Ausgabeschicht hat 1000 Neuronen (eins für jede Klasse). In solch einem Netzwerk gibt es ca. 60 Millionen mögliche Parameter, die beim Training zu optimieren sind. Man ahnt schon, dass auch noch so leistungsfähige Computer nicht alle Möglichkeiten durchprobieren können. So ist ein wesentlicher Gegenstand der aktuellen Forschung die Reduktion der Datenmenge, das optimale Austarieren zwischen Lernfähigkeit und der Tiefe des Netzes sowie die Steuerung der Parameter, damit das Ergebnis einem Optimum zustrebt.

Ein weiteres Problem neuronaler Netze ist, dass sich bisher kaum nachvollziehen lässt, auf welchem Weg solche Netze ihre Klassifikation vornehmen. Das wäre aber nötig, um die oben skizzierten Fehlentwicklungen (z.B. Rassismus) beim maschinellen Lernen zu vermeiden. Auch bei autonomen Fahrzeugen wird es für die Klärung von Haftungsfragen unerlässlich sein, dass ein Hersteller nachweisen kann, wie und warum ggf. ein Unfall so und nicht anders zustande kam. Das Fraunhofer Heinrich-Hertz-Institut hat z.B. eine Analyse-Software entwickelt um komplexe Lernverfahren, wie tiefe neuronale Netze, nachvollziehbar zu machen. Als Demonstration haben die HHI-Forscher eine Anwendung entwickelt, die aus einem Kamerasignal automatisch Gesichter erkennt, um dann Alter und Geschlecht der Person zu bestimmen. Die Software zeigt dann Balkendiagramme an, mit welcher Wahrscheinlichkeit die Person den verschiedenen Altersklassen zugeordnet wurde und mit welcher Sicherheit das Geschlecht bestimmt wurde. Auf einer Art „Heatmap“ wird angezeigt, welche Regionen im Gesicht für die Entscheidungsfindung herangezogen wird.

Für Menschen zu komplex

Es gibt verschiedene Motivationen für den Einsatz künstlicher Intelligenz. Die offensichtlichste mag der Komfortzuwachs sein. Der wird z.B. gerne beim autonomen Fahren angeführt. Viel wichtiger ist in diesem Kontext aber die „Vision Zero“, das unfallfreie Fahren. Durch das Eliminieren menschlicher Fehler ließe sich der Straßenverkehr wesentlich sicherer machen. Ein weiterer Grund für den Siegeszug künstlicher Intelligenz sind Systeme, die sich überhaupt erst mit KI wirtschaftlich realisieren lassen.

Der Gedanke von Industrie 4.0, individualisierbare Produkte so automatisch wie Massenware herzustellen erfordert z.B. Produktionssysteme, die sich autonom auf geänderte Anforderungen ein¬stellen können. Der manuelle Umbau der Produktionsmaschinen durch Menschen würde eine massenindiviualisierte Produktion wohl unwirtschaftlich machen.

Seite 2 von 3

1. Von der Weltherrschaft noch weit entfernt
2. Denn sie wissen nicht, was sie tun
3. Gesichtserkennung im Selbstversuch

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Qualcomm stellt AI-Engine vor
Volvo mit Investmentfonds zur Unterstützung von Start-Ups
Autonome Fahrzeuge erfordern neue Konzepte
„In verrückte Innovationen investieren“
Neue Werkzeuge für Deep Learning und autonomes Fahren
Bundesverband Künstliche Intelligenz gegründet

Verwandte Artikel

Gärtner Electronic Messgeräte Vertrieb, Gartner Inc.