Künstliche Intelligenz: Wie wertet man Big Data aus?

Bei Intel macht man sich schon jetzt Gedanken, was man mit den riesigen Datenmengen anstellen könnte, die in Zukunft anfallen werden. Das Schlüsselwort lautet: Künstliche Intelligenz. Das könnte Intels »nächstes großes Ding« werden, denn KI erfordert massive Rechenleistung.

Schon jetzt ist klar, dass sich das Datenaufkommen durch die allgegenwärtige Vernetzung vervielfachen wird. Nach Intel-Lesart wird bald fast jedes Gerät irgendwelche Daten in die Cloud schicken und das könnte schon 2020 etwa so aussehen:

  • Ein durchschnittlicher Internetnutzer wird 1,5 GB Datenverkehr pro Tag erzeugen.
  • Ein smartes Krankenhaus erzeugt 3000 GB pro Tag.
  • Eine smarte Fabrik erzeugt über 1 Mio GB pro Tag.
  • Ein Flugzeug erzeugt 40.000 GB pro Tag.
  • Jedes selbstfahrende Auto generiert über 4000 GB an Daten pro Tag.

Natürlich sind solche Prognosen von der Marketing-Abteilung eines amerikanischen Unternehmens mit Vorsicht zu genießen, aber fest steht, dass viele Daten anfallen werden und dass diese „Big Data“ neue Methoden der Verarbeitung und Auswertung erfordern. Bei Intel macht man sich bereits heute Gedanken, wie man Big Data nutzen kann. Das Schlüsselwort dazu lautet: Künstliche Intelligenz oder Artificial Intelligence, kurz: KI/AI.

Zwar gibt es an dem Thema viel Interesse, die Implementierung steht aber noch ganz am Anfang. Wirkliche Anwendungen und Installationen muss man noch mit der Lupe suchen. Aber es gibt sie bereits: In eine „Collaborative Cancer Cloud“ übertragen Ärzte die Diagnosen und Beschwerdebilder von Krebspatienten, wie die Patienten behandelt wurden und wie der Patient auf die Behandlung reagiert hat. Mit dem großen Datenpool können nun die klinischen Bilder neuer Patienten abgeglichen werden um eine möglichst aussichtsreiche Behandlung ausfindig zu machen.
Der in Deutschland derzeit relevanteste Zweig der KI-Forschung dürfte das Thema autonomes Fahren sein. Ganz grundsätzlich eignet sich KI vor allem zur Bewältigung von Aufgaben, für die es keine formelmäßige Lösung gibt. Weitere Beispiele neben dem autonomen Fahren sind Sprach- und Gesichtserkennung oder die Erkennung von Hasskomentaren im Internet.

Maschinen das Lernen beibringen

Es gibt im Wesentlichen zwei Arten künstlicher Intelligenz: Maschinelles Lernen und Systeme, die Schlussfolgerungen ziehen. Stark vereinfacht kann man sagen, dass es sich bei den schlussfolgernden Systemen um anspruchsvolle Statistikprogramme handelt, die aus einer großen und für den Menschen nicht zu erfassenden Menge von Daten diejenigen herausfiltern, die relevant sind, um dann Aussagen zu treffen. Dazu ist viel Speicher nötig und klassische logische Operationen – genau das, was heute Datenbanksysteme und Prozessoren bereits gut können.

Die andere Seite der künstlichen Intelligenz, das maschinelle Lernen, beruht auf der Arbeit neuronaler Netze. Neuronale Netze werden zwar schon seit den 1980iger Jahren erforscht, gelangen aber erst jetzt zur praktischen Anwendung. Da dieses Gebiet auch für Intel noch neu ist, hat man Know-how durch Akquisitionen erworben, u.a. durch die Firma Nervana, die Forschungsergebnisse amerikanischer Elite-Unis wie Harvard und Berkeley in praktisch anwendbare Hard- und Software überführt. Nervana beschäftigt sich mit „computational neuro science“. Ex-CEO  CEO Naveen Rao, jetzt VP der Data Center Group und General Manager Intelligence Solutions, erklärt: „Wir versuchen dabei nicht, das Gehirn nachzuahmen, sondern wir extrahieren die Prinzipien des Lernens und bereiten sie so auf, dass sie auf heutiger Hardware laufen können.“ Die Berechnung nach dem Paradigma Neuronaler Netze zeichnet sich dadurch aus, dass es viele relativ einfache Rechenvorgänge gibt, die dafür aber hochgradig parallel ablaufen müssen und eine sehr hohe Rechenleistung erfordern. Dies steht im Gegensatz zu traditionellen Software-Programmen, die sich durch komplexe Algorithmen auszeichnen, die meistens schwer zu parallelisieren sind.