ISSCC 2020 KI und IoT – zusammen als »AIoT« unschlagbar

Verbindung ins Netz

Mit der Notwendigkeit der Cloud-Edge-KI wird die massive Menge an aggregierten Daten, die bidirektional zwischen der digitalen und der realen Welt übertragen werden, zu einem integralen Bestandteil von AIoT. Um eine durchschnittliche Wachstumsrate des Datenverkehrs von etwa 150 % pro Jahr zu unterstützen, wird die drahtlose und drahtgebundene Kommunikation sehr wichtig. Für die in Bild 2 dargestellten Geräte ist es eine Herausforderung, eine hohe Kommunikationsqualität wirtschaftlich zu erfüllen, da die verfügbare Energie begrenzt ist und die Daten von jedem Edge-Gerät oft nur spärlich und sporadisch übertragen werden. Daher sind Innovationen bei den Kommunikationsstandards, den -netzarchitekturen und dem Design integrierter Schaltungen zwingend erforderlich, um einen adaptiven Datenverkehr bei geringem Energieverbrauch zu ermöglichen. Lokale Netzwerke, die in Stern- oder Maschenstrukturen konfiguriert sind, werden durch Gateways überbrückt, die schließlich über Mobilfunk, WiFi, Ethernet usw. mit der Cloud verbunden werden.
Innerhalb von Rechenzentren dienen Hochgeschwindigkeits-SerDes wie 112 und 224 Gbit/s/Kanal sowie optische Kommunikationsverbindungen als Kommunikations-Backbone, die Daten mit Dutzenden von Tbit/s zwischen den Racks transportieren. Langstrecken-Fasern und Satelliten schließlich verbinden die Welt zu einem globalen Netz. Das gesamte Kommunikations-Ökosystem hat das exponentielle Wachstum des AIoT ermöglicht. Dennoch reicht es bei weitem nicht aus, um die Expansion von 50 Mrd. Geräten im Jahr 2020 auf 350 Mrd. Geräte bis 2030 zu unterstützen.
Die drahtlose und drahtgebundene Kommunikationskapazität hat ebenfalls exponentiell zugenommen, wie in Bild 8 dargestellt, was sehr gut der Anzahl der AIoT-Geräte entspricht. Der geschätzte jährliche Datenverkehr bis 2021 liegt bei über 3,3 Zettabytes (1021). Dieses dichte Netzwerk bringt neue Herausforderungen wie Sicherheit, Datenverkehrsmanagement, Signalstörungen und Dienstequalität mit sich, die alle mit geringer Leistungsaufnahme erfüllt werden müssen. Zusätzlich zu den bereits erwähnten Fortschritten bei Basistechnologien lässt sich KI einsetzen, um einige der Hindernisse zu überwinden. Beispielsweise wurde die Unterstützung durch KI bei der GPS-Signalerfassung für ein Edge-Gerät sowie beim Ressourcen-, Sicherheits-, Qualitäts- und Interferenzmanagement für die drahtlose Infrastruktur teilweise im Feld eingesetzt. Es ist immer noch ein aktives Forschungsgebiet. Die folgenden beiden Abschnitte diskutieren den aktuellen Stand der Technik, der in den nächsten zehn Jahren Innovationen für die drahtlose und drahtgebundene Kommunikation erfordert.

Fortschritte in der drahtlosen Kommunikation

Drahtlos angeschlossene Edge-Geräte lassen sich in zwei Klassen einteilen: Geräte mit geringem Durchsatz, wie IoT-Sensoren, und Geräte mit hohem Durchsatz, wie Smartphones. Jede Klasse lässt sich weiter nach der Entfernung zu den Gateways kategorisieren, bei denen es sich um Satelliten, Mobilfunk-Basisstationen oder WiFi-Zugangspunkte handeln kann. Es gibt verschiedene Drahtlos-Standards wie 3GPP und 802.11, um diese verschiedenen Verbindungsszenarien zu bedienen.

Geräte mit geringem Durchsatz

Bei IoT-Geräten mit niedrigem Durchsatz liegt das Hauptaugenmerk auf der Reduzierung des Energiebedarfs pro Bit (Energie/Durchsatz = Joule/bit). Dies wird im Allgemeinen durch den Einsatz von Schmalband-Kommunikationssystemen zusammen mit einer extremen Optimierung des Energiebedarfs sowohl im aktiven als auch im Schlafmodus erreicht. Erwähnenswert ist, dass die Größe des Ruhestroms gewöhnlich deutlich geringer ist als die des aktiven Stroms. Dennoch überfordert er oft die Batterielebensdauer für Geräte mit niedriger Einschaltdauer im zyklischen Betrieb. Im aktiven Modus erleichtern Wireless-Standards wie NB-IoT und BLE die Reduzierung der durchschnittlichen Leistungsaufnahme sowohl für die Media-Access-Control-Schicht (MAC) 1 als auch für die physikalische Schicht (PHY). Analog-Licht-Transceiver-Architekturen, Niederspannungs-HF, Wake-up-Empfänger und schneller Übergang zwischen Schlaf- und Aktivmodus sind Techniken zur Minimierung der effektiven Joule/bit. Bis heute kann ein SoA-BLE-Empfänger eine Energieeffizienz von nur 2 nJ/bit erreichen. Auf Systemebene wird kognitive KI eingesetzt, um die verfügbare Energie bestmöglich zu nutzen, indem die Datenerfassung, -verarbeitung und -übertragung zu optimalen Zeitpunkten geplant wird. Das letztendliche Ziel ist es, die Stromaufnahme so drastisch zu reduzieren, dass AIoT-Geräte am Edge allein durch die Nutzung der Energie aus ihrer Umgebung betrieben werden können (so genannte Null-Energie-Edge-Geräte).

Geräte mit hohem Durchsatz

Die Hauptanforderung an Edge-Geräte mit hohem Durchsatz ist eine hohe Datenrate bei hoher Zuverlässigkeit und niedriger Latenz, während gleichzeitig ein Energie-Balancing innerhalb eines begrenzten Energie-Budgets möglich ist. Um dieses Ziel zu erreichen, hat die Wireless Industrie eine Vielzahl von Technologien eingeführt, um das verfügbare Frequenzspektrum im Sub-6-GHz-Bereich voll auszunutzen, indem sie fragmentierte Frequenzen aggregiert (Trägeraggregation), auf Modulation höherer Ordnung aufrüstet, Multi-User-MIMO und koordinierte Multi-Point-Anwendungen einsetzt, um nur einige zu nennen. In den neuesten drahtlosen Standards für 5G-NR und 802.11ax kann der theoretische Durchsatz 20 Gbit/s bzw. 14 Gbit/s erreichen. Da wir nach dem Shannon-Theorem für eine gegebene Frequenzbandbreite bereits nahe an der Grenze sind, muss mehr Frequenzspektrum zugewiesen werden, um gleichzeitig hohen Durchsatz und hohe Kapazität zu unterstützen. Verschiedene Frequenzbänder zwischen 6 GHz und 100 GHz wurden für 5G-NR (5,9 , 28 und 39 GHz) und WiFi der nächsten Generation (6 GHz bis 7 GHz) geöffnet.

Für ein Edge-Gerät wie ein Smartphone ist es herausfordernd, mit diesen komplexen Techniken, großen Bandbreiten und mehreren Frequenzbändern umgehen zu müssen. Tausende von Entwicklern sind über mehrere Jahre hinweg  erforderlich, um die hochkomplexen Modems und Transceiver zu entwerfen, ganz zu schweigen von dem zusätzlichen Aufwand, sie in einer leistungseffizienten Weise zu designen. Um eine Einschätzung der Herausforderungen zu erhalten, zeigt Bild 9 die Zunahme der Modemkomplexität in den letzten zwei Jahrzehnten unter Verwendung von Daten von MediaTek. Im Laufe der Entwicklung von 2G zu 5G zwischen 2005 und 2019 hat sich die Anzahl der Modem-Logik-Gatter um das 240-fache erhöht. Obwohl das Moore'sche Gesetz und neue Gehäusetechniken enorm geholfen haben, erreicht das 5G-Modem die Grenze der möglichen Leistungsdichte, und das selbst beim fortschrittlichsten Knotenpunkt der Prozesstechnologie. Angesichts eines durchschnittlichen Zeitraums von 5 bis 10 Jahren bis zum Übergang zur nächsten Mobilfunkgeneration wird erwartet, dass ein 6G-Modem eine Gatter-Zahl in der Größenordnung vom 2000fachen der eines 2G-Modems hat. Ein ähnlicher Trend lässt sich für die Siliziumfläche formulieren (Bild 10). Die Größe eines 5G-Modems ist ca. 10 mal so groß wie die eines 2G-Modems, und für ein 6G-Modem wird eine Steigerung um mehr als den Faktor 50 erwartet. Bei HF-Transceivern sind die Vorteile des Moore'schen Gesetzes weniger ausgeprägt. Ein moderner 5G-Transceiver, der 3 TX- und 20 RX-Elemente benötigt, ist in Bild 11 dargestellt. Im Vergleich zur früheren Generation mit nur 1 TX- und 1 RX-Element nimmt die Größe um das 8-fache zu. In ähnlicher Weise ist ein neuer WiFi-6-Transceiver, bestehend aus 4 TX- und 4 RX-Elementen zur Unterstützung von 4×4 MIMO in 3 Frequenzbändern (2,4 GHz, 5 GHz und 6 GHz)  etwa 10 mal größer als die 1×1 Single-Band-Version (2,4 GHz).

Bei der in Bild 10 (rechts) dargestellten Energieeffizienz von HF-Empfängern haben sich die zellularen Verbindungen zwischen 2005 und 2017 um fünf Größenordnungen von 2,5G auf 4G verbessert. Die enorme Verbesserung ist hauptsächlich auf die gestiegenen Anforderungen der Benutzer zurückzuführen, die sich von der reinen Sprachübertragung hin zur Übertragung großer Datenmengen entwickelt haben. Infolgedessen wurden überlegene Kommunikationssignalverarbeitungstechniken wie OFDM, Turbokodierung und Modulation höherer Ordnung sowie ein fortschrittliches HF/Analog-Schaltungsdesign entwickelt. Der Trend flacht nach 2017 ab, wenn wir uns einigen der theoretischen Grenzen nähern, meint Loh. WiFi hingegen hat OFDM und eine Modulation relativ hoher Ordnung als zellulare Standards verwendet, da dieser sich auf Daten konzentriert und eine kürzere Reichweite hat. Daher beginnt seine Energie/bit bei 3 Größenordnungen unter der der entsprechenden zellularen Generation. Der Trend ist auch in Bild 10 (rechts) mit einer weniger steilen Steigung als bei zellularen Standards dargestellt. Es ist auch zu beobachten, dass nach 2017 sowohl Mobilfunk als auch WiFi eine ähnliche Verbesserung der Energieeffizienz über die Zeit aufweisen, die wesentlich langsamer fortschreitet als der zellulare Trend des letzten Jahrzehnts. Das bedeutet, dass in den nächsten 10 Jahren bedeutende Innovationen erforderlich sind, um das Ziel der Null-Energie-Edge-Geräte zu ermöglichen. Die vor uns liegenden Herausforderungen seien Loh zufolge tief greifend und breit gefächert und erstreckten sich über viele Bereiche wie Kommunikationssysteme und HF-/Analogtechnik sowie Datenwissenschaft und KI. Beispielsweise bietet mmWave eine große Bandbreite, erfordert aber revolutionäre Techniken, um das unzureichende Link-Budget für eine Abdeckung großer Zellengrößen zu überwinden. Ähnlich verhält es sich mit dem zukünftigen WiFi 7 (802.11be), das 4096 QAM bei einer Kanalbandbreite von 320 MHz und bis zu 16 räumlichen Streams (bis zu 16) unterstützen soll. Dazu ist ein EVM-Boden von bis zu -45 dBc erforderlich, was in etwa dem Niveau der heutigen Verifizierungsmesstechnik entspricht.