IDF 2010 Tag 3 Brain View: Intel-CTO will Gedanken lesen und verarbeiten

Traditionell wird das IDF mit einer Rede von Intel-CTO Justin Rattner beendet. Rattner hat das Privileg, nicht nur über kurzfristig kommerzialisierbare Ideen sprechen zu müssen, sondern auch Visionen präsentieren zu dürfen. Heute sprach er über "kontextsensitives Computing" und über ein Projekt, bei dem menschliche Gehirnströme verarbeitet werden sollen, um z.B. Maschinen mit Gedanken zu steuern.

Zusammen mit der Carnegie Mellon University arbeitet Intel an einem Projekt, bei dem Gehirnströme z.B. per EEG ausgelesen werden und mit entsprechenden komplexen Computer-Algorithmen analysiert werden. Ziel ist es, einen Zusammenhang zwischen Gedanken und Gehirnströmen herzustellen, um diese dann dafür nutzen zu können, um z.B. eine Maschinen zu steuern. Ob dieses Vorhaben tatsächlich einmal zum Erfolg führen wird, sei dahingestellt.

Wesentlich realitätsnaher waren da schon Rattners Ausführungen zum Thema "kontextsensitives Computing". Dabei sollen Informationen aus der Umwelt (z.B. Standort,  Bewegungsmuster), die über Sensoren ausgelesen werden können ("Hardsensing"), mit Faktoren wie Kalendereinträgen, persönliche Vorlieben oder Einträge in sozialen Netzwerke ("Softsensing") verknüpft werden, um dem Anwender situationsabhängig Unterstützung zu bieten.

Eine bereits existierende Anwendung stellte die Firma Fodor’s Travel vor: Der sogenannte "Personal Vacation Assistant" gibt Urlaubern Empfehlungen für Reisen in Echtzeit basierend auf ihren vorherigen Aktivitäten, persönlichen Vorlieben, ihrer aktuellen Lokation und Kalendereinträgen. Wenn jemand z.B. in New York am South-Ferry-Pier steht und bis zum ersten Geschäftstermin noch 2 Stunden Zeit hat, könnte das Smartphone vorschlagen, noch kurz per Schiff zur Freiheitsstatue zu fahren. Auf dieses triviale Beispiel könnte man zur Not auch ohne Smartphone kommen, oft liegt es aber nicht so offensichtlich auf der Hand.

Eine weitere Anwendung zeigte eine Fernseher-Fernbedienung, die an Hand der Art, wie sie gehalten wird und wie ihre Knöpfe gedrückt werden, erkennt, wer sie gerade bedient. In Abhängigkeit der Person werden dann auf Basis deren Vorlieben (es handelt sich um ein selbstlernendes System) z.B. Vorschläge fürs Fernsehprogramm gemacht.

Eine dritte Anwendung betrifft ein reales großes Problem unserer Gesellschaft: Viele ältere Menschen über 65 Jahre fallen oft und brechen sich Oberschenkelhals und/oder andere Knochen. Die auflaufenden Gesundheitskosten sind enorm. Ein von Intel entwickelter Sensor detektiert in Abhängigkeit der Gehgeschwindigkeit, bestimmter Muskelbewegungen und anderer Bewegungsmuster die Wahrscheinlichkeit, dass die Person, die den Sensor trägt, hinfallen wird. Enstsprechende Warnungen könnten laut Rattner dann viele Unfälle verhindern.

Das große Problem bei diesen Systemen dürfte sein, dass Unmengen Daten über Menschen gespeichert und analytisch zusammengeführt werden müssen - ohne "gläsernden Menschen" geht es nicht. Die Frage ist, wie hoch die Bereitschaft ist, Verhaltensmuster, Vorlieben, Standorte u.s.w. speichern zu lassen - die Aufregung um "Google's Street View" dürfte zumindest aus Sicht Rattners nichts Gutes verheissen.

Das IDF 2010 ist damit beendet. In vielen informellen Gesprächen mit Intel-Mitarbeitern bekam ich zwei Eindrücke: Erstens wird AMD als Konkurrent nicht mehr ernstgenommen, im Gegenteil, man hofft sogar, dass die Firma nicht zu schwach wird, damit Intel keine wettbewerbsrechtlichen Probleme bekommt. Zweitens: ARM steht, auch wenn man offiziell "sich nur auf seine eigenen Stärken besinnt", im Fokus von Intel. Man glaubt jedoch, dass das Ecosystem mit weltweit 14 Mio. x86-Entwicklern und der Tatsache, dass x86 bei extrem vielen Kunden bereits im Einsatz ist, die Atom-Architektur auch in neue Geschäftsbereiche wie Embedded übertragen und unter dem Gesichtspunkt der "Total Cost of Ownerchip" einen Vorteil gegenüber ARM ausspielen kann. Letzeres kann nur die Zukunft beweisen - oder widerlegen.