Die Grenzen digitaler Simulationen Wie das Bewusstsein in die Maschine kommt

Was ist Bewusstsein?

Doch was ist nun mit Bewusstsein im Sinne von Otte gemeint? Dies kann man am Beispiel des Sehens tatsächlich gut verstehen. Otte geht wie alle Naturwissenschaftler davon aus, dass wir einen Gegenstand, etwa eine Flasche auf dem Tisch, über unsere Sinne wahrnehmen und diese Informationen dann in unserem Gehirn weiter verarbeiten. Die Flasche wird dabei über neuronale Zustände in unserem Gehirn im visuellen Cortex codiert. Was ihn vor allem begeistert, ist aber die überraschende Tatsache, dass es dem Gehirn letztlich gelingt, das eigene visuelle Bewusstsein so zu erzeugen, dass wir (in der sogenannten ersten Person) die Flasche draußen auf dem Tisch stehen sehen und sie nicht als inneres Abbild in unserem Gehirn wahrnehmen: »Wir sehen subjektiv wirklich nach außen und speichern nicht nur eine Abbildung der Flasche im neuronalen Gehirngewebe. Oder vereinfacht gesagt«, fährt er fort, »wir Menschen schauen aus unserem Kopf scheinbar hinaus«, eine bisher noch nicht verstandene Fähigkeit des Gehirns, die man heute mathematisch nicht nachbilden kann.

Aus Ottes Sicht wird das Projizieren der inneren Abbildungen nun genau durch das visuelle Bewusstsein des Menschen realisiert. »Nur durch diese Bewusstseinsprozesse gelingt es dem Gehirn, das Abbild, welches nachweislich im visuellen Cortex codiert ist, auf den Gegenstand in der Außenwelt zurück zu projizieren.« Und ob wir nun überrascht sind oder nicht, weil wir uns seit unserer Geburt daran gewöhnt haben, wir sehen die Flasche in der Außenwelt, und das, obwohl das Gehirn gar nichts nach außen sendet. »Wie aber kommt das Bild vom visuellen Cortex wieder nach draußen?«

Diese Frage haben sich Otte und sein Team vor einiger Zeit gestellt. Viele wundern sich allerdings über eine solche Frage, weil das doch alles so ganz normal erscheint. Otte sucht aber bereits nach Antworten. Aus seiner Sicht löst das Gehirn keine komplizierten Gleichungen, um uns die Dinge draußen sehen zu lassen. Im Gehirn laufen die Prozesse nämlich biologisch und chemisch, aber letztlich physikalisch ab: »Die Mathematik simuliert ja immer nur die Vorgänge. Ich bin Ingenieur und ich will das Sehen physikalisch korrekt bauen.« Und dafür braucht Otte ganz bestimmte Hardware.

Womit wir nochmals bei den Maschinen angekommen wären, die Otte für ungeeignet hält, um Bewusstsein, insbesondere visuelles Bewusstsein, zu erzeugen. Die meisten arbeiten heute mit Computern, die auf digitaler Basis arbeiten. Sie nutzen beim autonomen Fahren darüber hinaus passive optische Kameras und aktive Sensoren, wie Radar, Lidar, Ultraschall, um aus den Reflektionen Gegenstände zu erkennen. Dann halten sie die Bilder der Umwelt als Repräsentation in digitaler Form als „0“ und „1“ in ihren Speichern fest und errechnen daraus Modelle. In diesen Zahlenspeichern steckt aus Sicht Ottes nun nirgends Bewusstsein, egal wie kompliziert die Rechenoperationen auch sein mögen, die die Speicher auslesen und beschreiben. Und deshalb haben diese Maschinen so große Schwierigkeiten, wenn es richtig komplex wird. Da hilft auch die ständig steigende Rechenleistung nicht.

Dazu ein Beispiel: Digitale Computer simulieren heute schon Millionen von Neuronen. Einer bestimmten Wespenart, der Flugwespe Megaphragma mymaripenne, stehen dagegen nur rund 7400 Neuronen zur Verfügung, davon ca. 4600 im Gehirn, um ihren komplizierten Flug zu steuern und zu regeln. Das gelingt ihr sogar hervorragend. Dagegen kann ein Auto mit Auswertesystemen auf Basis von Deep-Learning-Netzen mit Abertausenden von Neuronen immer noch nicht durch eine komplexe Stadt fahren. Das liegt laut Otte neben den ungenügenden „Sehleistungen“ der Computer auch daran, dass die Komplexität des inneren Modells immer höher sein muss als die des äußeren. Wenn das innere Modell beispielsweise nur linear ist, die Umgebung aber nichtlinear, dann klappt eine korrekte Modellbildung schon mal nicht. Der Verkehr in einer Stadt aber ist noch mehr als nichtlinear, er ist chaotisch und zufällig. Hier herrscht eine fast maximale Komplexität vor. Das innere Modell der Software auf den Digitalmaschinen kann das überhaupt nicht korrekt abbilden. Deshalb funktioniere autonomes Fahren in der geordneten Umgebung auf der Autobahn ganz gut, in der chaotischen Umgebung einer Stadt aber nicht.