Im Vergleich zu seinem Vorgänger Cortex-A76 konnte Arm mit dem Cortex-A77 erneut mehr als 20 % an Rechenleistung zulegen, ohne die Energieeffizienz zu kompromettieren. Dies ist umso bemerkenswerter, als dass sich die Zahlen auf einen identischen Fertigungsprozess und auf eine identische Taktfrequenz beziehen. Da das mooresche Gesetz in diesem Jahr nicht helfen konnte und auch zukünftig neue Fertigungsprozesse nicht mehr schrumpfende Geometrien in dem Maße generieren werden, wie man es ursprünglich gewohnt war, wird man sich darauf einstellen müssen, nicht mehr bei jeder neuen CPU-Generation gleichzeitig IPC und absolute Leistungsaufnahme optimieren zu können. Co-Prozessoren wie GPUs oder NPUs für KI-Anwendungen werden daher immer wichtiger, um die CPUs von derart spezifischen Workloads entlasten zu können.
Mit seinem ML-Prozessor übertrug Arm seine 2018 getätigten Annahmen bezüglich der Energieeffienz. Statt 3 TOP/W sollen nun gleich 5 TOP/W möglich sein. Heute werden noch 85 % aller KI-Workloads auf CPUs oder CPUs/GPUs ausgeführt – mangels Alternative. Einfache Use-Cases wie die Erkennung von Schlüsselwörtern (z. B. »Hallo, Siri«, benötigt werden rund 400 MOP/s) mögen noch auf CPUs gut laufen, ein Freischalten von Geräten auf Grund von Gesichtserkennung benötigt hingegen schon rund 30 GOP/s – der ML-Prozessor wäre damit rund 85 % ausgelastet.
Die entscheidende Aussage ist, unterschiedliche Anwendungen benötigen unterschiedliche Hardware – CPU, GPU und NPU. Arms NN-Framework bietet hier den optimalen Support – und kann sogar Fremd-IP von Drittherstellern anbinden.