Neustart mit IoT? »Für die Vergangenheit schäme ich mich«

Sensoren plus KI verändern die Welt

Vor allem bedeutet dies aber: »Man muss nicht in die Cloud!« Eben weil schon viel der Auswertung energieeffizient am Sensorknoten selbst geschehen kann. Im Moment aber heißt die Devise: Mehr Sensoren ins Auto. Während es heute drei bis fünf Hauptsensoren pro ADAS sind, wird die Zahl im nächsten Jahrzehnt auf 10 bis 16 wachsen, danach auf 30. Außerdem steckt in ihrer Kombination – auch mit weniger spektakulären Typen wie Druck oder Temperatursensoren – viel Potenzial: Sensorfusion kann die Präzision des Gesamtsystems stärker steigern als die Summe der Einzelsensoren alleine. Sowohl die Auswertung der Hauptsensoren als auch Sensorfusion erfordert eine hohe Rechenleistung der ICs – bei geringer Leistungsaufnahme.

Erforderlich sind dazu wiederum SoCs. »Deshalb müssen sie schon bald auf dem 7-nm-Knoten gefertigt werden«, fordert Luc Borgeois. Und weil nicht für jede neue IC-Generation mit der Software-Entwicklung wieder von vorne begonnen werden dürfe, müsse alles programmierbar und portierbar sein: »Die Hardware-Plattform muss zehn Jahre halten.« Da staunt Lars Reger: »Wir sind gerade dabei, vom 22-nm-Knoten auf den 16-nm-Knoten für die Fertigung von Automobil-ICs zu wechseln. Von 7 nm sind wir noch weit entfernt!« Hier scheinen also der Wunsch der Automobilindustrie und die Realität der Halbleiterfertigung noch ein Stück auseinander zu liegen.

Sensoren plus KI werden die Welt verändern

Doch jetzt schlägt auf dem Gebiet der Sensoren die KI durch. »Mit neuronalen Netzen können wir das Gehirn zum Teil simulieren, das löst einen Paradigmenwechsel auf Hard- und Software-Ebene aus«, sagt Taner Ozcelik, Senior Vice President und General Manager von ON Semiconductor. Jetzt könne viel Intelligenz in den Sensorknoten wandern. »Sensoren treiben die Entwicklung der KI voran, umgekehrt wird KI auf dem Gebiet der Image-Sensoren die Karten neu mischen, ähnlich wie das die Back-Side-Illumination-Technik getan hatte.« Dazu käme die Kombination aus elektrischem Antrieb für Autos und selbstfahrenden Autos, die auch in dieser Industrie vieles ändern werde. »Innovating Vision beyond the Human Eye«, laute deshalb das Motto von ON.

Deshalb auch die kürzlich erfolgte Übernahme von SensL in Irland, die sich auf Lidar spezialisiert hat. Zusammen mit den Übernahmen auf dem Gebiet der Radar-Technik zeigt sich: Es geht Richtung Sensor-Fusion. Auch ON ist überzeugt, dass sich daraus und in Kombination mit KI die Herausforderungen der nächsten Jahre nehmen lassen. So hatte ON bereits Anfang des Jahres eine skalierbare Image-Sensor-Plattform für den Einsatz in ADAS auf den Markt gebracht, die bis ASIL C geht, über Cyber-Security-Funktionen verfügt und vor allem einen hohen Dynamikbereich aufweist, was für den Einsatz in Autos sehr wichtig ist, aber auch für den industriellen Einsatz und in Profi-Filmkameras. Zusammen mit Arri hat ON die Kamera vom Typ Alexa entwickelt, die in der Szene vor allem wegen ihres hohen Dynamikbereichs beliebt ist.

Fazit: Die Hersteller von MEMS-Sensoren arbeiten mit Hochdruck daran, nicht nur die Sensoren selber zu verbessern, sondern auch ihr Packaging – Stichwort Wafer Stacking – und über Sensorfusion die Genauigkeit des Gesamtsystems zu erhöhen. Die Anwendung von KI eröffnet zudem die Möglichkeit, Intelligenz in den Edge, in die Sensorknoten selbst zu bringen und so den Austausch mit der Cloud auf das unbedingt Erforderliche zu beschränken. So entwickeln sich die Sensoren zu einem der Haupttreiber für KI. Ihre Kombination wird ganze Industrielandschaften verändern.