Künstliche Intelligenz Maschinelles Lernen – Deep Learning

Mit Algorithmen und Architekturen für Maschinenlernen und Deep Learning sollen Computer vom Rechenknecht zum smarten Partner werden.
Mit Algorithmen und Architekturen für Maschinenlernen und Deep Learning sollen Computer vom Rechenknecht zum smarten Partner werden.

Künstliche Intelligenz ist bei weitem keine neue Sache, doch jetzt erhält dieses Teilgebiet der Informatik einen neuen Schub. Beim maschinellen Lernen und Deep Learning, denen künstliche neuronale Netze zugrunde liegen, wurden in letzter Zeit beachtliche Durchbrüche erzielt.

Einer der Durchbrüche fand bereits 2009 statt, als ein Team um Geoffrey Hinton von der University of Toronto es mit Deep Learning schaffte, sein Programm so genau zu trainieren, dass es Sprache viel besser als alle Vorgänger in geschriebenen Text umwandeln konnte. Die Spracherkennung vom iPhone „Siri“ basiert beispielsweise auf Deep-Learning-Verfahren.
2012 nahm das Hintons-Team am „ImageNet-Wettbewerb“ teil. Dabei ging es nicht um Sprach-, sondern um Bilderkennung. Auch hier schnitt das Hinton-Team besser als alle anderen Teilnehmer ab, was Google dazu brachte, Hinton anzuheuern und das Programm 2013 in seine Bildersuche zu integrieren.
2014 hieß es dann, die Bilderkennung von Computern habe menschliches Niveau erreicht. Auch in diesem Fall war ein Wettbewerb ausschlaggebend, dieses Mal die „ImageNet large-scale visual recognition challenge“. Dort traten Bilderkennungsprogramme gegeneinander an. Zuerst wurden sie mit einer großen Datenbank von Bildern trainiert, danach wurden ihnen neue Bilder vorgelegt, und sie mussten zeigen, was sie gelernt hatten. Hier zeigte sich, dass Menschen nur noch geringfügig besser sind.
Ein ganz neues Beispiel ist „AlphaGo“. Das Computerprogramm spielt das Brettspiel Go und wurde von Google DeepMind entwickelt. Im März dieses Jahr ist es dem Programm gelungen, den koreanischen Go-Profi Lee Sedol mit 4:1 zu besiegen.

Künstliche neuronale Netze erleben eine Renaissance

Künstliche neuronale Netze (KNN) sind keine Neuheit. Die Anfänge ihrer Entwicklung gehen auf das Jahr 1943 zurück, als Warren McCulloch und Walter Pitts die ersten neurologischen Netze beschrieben. Aber KNNs haben sich im Laufe der Zeit weiterentwickelt, denn die Skalierung der Halbleitertechnik hat die verfügbare Rechenleistung deutlich erhöht. Hinzu kommt die schiere Datenmenge, die mittlerweile zur Verfügung steht und mit der viel größere und tiefere KNNs realisiert werden können, und auch, dass die Strukturen und Topologien der neuronalen Netze weiterentwicklt und die Lernalgorithmen verbessert wurden.
Das Prinzip eines KNNs ist bis heute gleichgeblieben und lehnt sich an die Funktionsweise des menschlichen Gehirns an. KNNs simulieren ein Netz aus einfachen mit einander verbundenen Neuronen mit Schwellenwerten und Aktivitätsfunktionen und lernen aus Erfahrung, indem sie die Stärke der simulierten Neuronenverbindungen verändern.
Für das Training eines KNN und damit für das Maschinenlernen unterscheidet man grundsätzlich zwei Verfahren: überwachtes und unüberwachtes Lernen. Beim überwachten Lernen liegt dem KNN zu jedem Eingabemuster ein korrespondierendes Ausgabemuster vor. Stimmen das vom KNN berechnete Ausgangsmuster nicht mit dem korrespondierenden Ausgangsmuster überein, liegt ein Fehler im KNN vor, der durch iterative Anpassung der Stärke der Neuronenverbindungen so lange minimiert wird, bis die Ergebnisse passen. Beim unüberwachten Lernen liegen keine korrespondierenden Ausgangswerte vor. Das KNN erhält nur Eingabemuster und muss selbständig Muster, Regelmäßigkeiten, Korrelationen oder Klassen erkennen und in der Netzstruktur abbilden.