Freescale Semiconductor ARM-basierte Controller sind die Gewinner

Geoff Lees, Freescale Semiconductor

»Ich glaube, dass unsere 
Industrie zu viele verschiedene 
Controller anbietet, aber dieser Trend ist schwer umkehrbar.«
Geoff Lees, Freescale Semiconductor: »Ich glaube, dass unsere Industrie zu viele verschiedene Controller anbietet, aber dieser Trend ist schwer umkehrbar.«

Freescale Semiconductor ist der zweitgrößte Mikrocontroller-Hersteller. Die Markt & Technik sprach mit Geoff Lees, Senior Vice President und General Manager für Mikrocontroller bei Freescale Semiconductor, über spannende Themen und bekam zum Teil überraschende Antworten.

Markt&Technik: Freescale hat bereits eine Kinetis-Familie mit dem neuen Cortex-M7 angekündigt, dessen DSP-Fähigkeiten im Vergleich zum Cortex-M4 noch einmal deutlich ausgebaut wurden. Im Markt ist bislang das Interesse an einer DSP-Funktionalität aber relativ gering. Ist der Cortex-M7 also der falsche Core zur falschen Zeit?
Geoff Lees: Es ist sicherlich richtig, dass ARM mit seinen Cortex-M0+-, M3- und M4-Prozessoren über ein Produktspektrum verfügt, das die derzeitigen Marktbedürfnisse an Rechenleistung gut abdeckt. Der Cortex-M7 stellt im Vergleich dazu einen riesigen Schritt hin zu einer deutlich höheren Rechenleistung dar. Damit steht jetzt quasi die Rechenleistung eines Cortex-R5 auch in der M-Familie zur Verfügung.

Mehr Rechenleistung ist per se wünschenswert, aber beim Cortex-M7 wurde auch die DSP-Rechenleistung deutlich verbessert, und da stellt sich die Frage: Wer braucht das wirklich? 

Schauen Sie sich einfach die Bereiche an, in denen der Cortex-R4 und -R5 erfolgreich sind. Ein Beispiel sind Festplatten, ein weiteres Beispiel ist die Echtzeitsteuerung im Motormanagement. Grundsätzlich kann man sagen, dass diese Prozessorkerne besonders dann gefragt sind, wenn ein hohes Maß an elektromechanischer Arbeit vorliegt. Für eine einfache Motorsteuerung wären diese Prozessorkerne zu leistungsfähig. 

Aber wenn viel Rechenleistung gefordert ist, dann sind diese Prozessorkerne genau das richtige. Ein weiteres Beispiel ist die Energiewandlung, zum Beispiel Solarinverter oder hochleistungsfähige Inverter-Brücken. Bei einem typischen Umrichter sind beispielsweise leistungsstarke Prozessoren für den Zwischenkreis notwendig, hier kommen häufig ICs mit mehreren Cores der Power Architektur oder C2000-DSPs von TI zum Einsatz. Mittlerweile gibt es aber viele Kunden, die wollen einen Zwischenkreis ohne Speicher realisieren, weil die Lebenszeit der Elektrolyt-Kondensatoren einfach sehr beschränkt ist. Dafür ist noch viel mehr Rechenleistung erforderlich, also genau das Richtige für den Cortex-M7. 

Grundsätzlich bringt die Integration von DSP und MCU Vorteile für Anwendungen, die beispielsweise einen DSP für intensives Number-Crunching und eine MCU für das I/O-Handling benötigen, denn bei einem diskreten Aufbau treten immer Probleme mit der Kommunikation zwischen DSP und MCU auf. Außerdem muss der Entwickler sich dann mit zwei unterschiedlichen Tool-Chains herumschlagen. 

Aber Sie haben insofern Recht, als dass der Cortex-M7 für General-Purpose-Anwendungen derzeit sicherlich zu leistungsstark ist. Ich glaube nicht, dass Anwender von Cortex-M3 oder -M4 derzeit so viel mehr Rechenleistung benötigen, dass sie auf ein Cortex-M7 umsteigen müssen. Für den generellen Markt ist der Cortex-M7 also vielleicht noch ein bisschen zu früh. Allerdings sollte man auch nicht die Security Aspekte außer Acht lassen, die der Cortex-M7 im Vergleich zum Cortex-M4 mitbringt. 

 

Markt&Technik: Freescale hat bereits eine Kinetis-Familie mit dem neuen Cortex-M7 angekündigt, dessen DSP-Fähigkeiten im Vergleich zum Cortex-M4 noch einmal deutlich ausgebaut wurden. Im Markt ist bislang das Interesse an einer DSP-Funktionalität aber relativ gering. Ist der Cortex-M7 also der falsche Core zur falschen Zeit?

Geoff Lees: Es ist sicherlich richtig, dass
ARM mit seinen Cortex-M0+-, M3- und M4-
Prozessoren über ein Produktspektrum verfügt, das die derzeitigen Marktbedürfnisse an Rechenleistung gut abdeckt. Der Cortex-M7 stellt im Vergleich dazu einen riesigen Schritt hin zu einer deutlich höheren Rechenleistung dar. Damit steht jetzt quasi die Rechenleistung eines Cortex-R5 auch in der M-Familie zur Verfügung.

Mehr Rechenleistung ist per se wünschenswert, aber beim Cortex-M7 wurde auch die DSP-Rechenleistung deutlich verbessert, und da stellt sich die Frage: Wer braucht das wirklich?

Schauen Sie sich einfach die Bereiche an, in denen der Cortex-R4 und -R5 erfolgreich sind. Ein Beispiel sind Festplatten, ein weiteres Beispiel ist die Echtzeitsteuerung im Motormanagement. Grundsätzlich kann man sagen, dass diese Prozessorkerne besonders dann gefragt sind, wenn ein hohes Maß an elektromechanischer Arbeit vorliegt. Für eine einfache Motorsteuerung wären diese Prozessor-

kerne zu leistungsfähig. 

Aber wenn viel Rechenleistung gefordert ist, dann sind diese Prozessorkerne genau das richtige. Ein weiteres Beispiel ist die Energiewandlung, zum Beispiel Solarinverter oder hochleistungsfähige Inverter-Brücken. Bei einem typischen Umrichter sind beispielsweise leistungsstarke Prozessoren für den Zwischenkreis notwendig, hier kommen häufig ICs mit mehreren Cores der Power Architektur oder C2000-DSPs von TI zum Einsatz. Mittlerweile gibt es aber viele Kunden, die wollen einen Zwischenkreis ohne Speicher realisieren, weil die Lebenszeit der Elektrolyt-Kondensatoren einfach sehr beschränkt ist. Dafür ist noch viel mehr Rechenleistung erforderlich, also genau das Richtige für den Cortex-M7. 

Grundsätzlich bringt die Integration von DSP und MCU Vorteile für Anwendungen, die beispielsweise einen DSP für intensives Number-Crunching und eine MCU für das I/O-Handling benötigen, denn bei einem diskreten Aufbau treten immer Probleme mit der Kommunikation zwischen DSP und MCU auf. Außerdem muss der Entwickler sich dann mit zwei unterschiedlichen Tool-Chains herumschlagen. 

Aber Sie haben insofern Recht, als dass der Cortex-M7 für General-Purpose-Anwendungen derzeit sicherlich zu leistungsstark ist. Ich glaube nicht, dass Anwender von Cortex-M3 oder -M4 derzeit so viel mehr Rechenleistung benötigen, dass sie auf ein Cortex-M7 umsteigen müssen. Für den generellen Markt ist der Cortex-M7 also vielleicht noch ein bisschen zu früh. Allerdings sollte man auch nicht die Security Aspekte außer Acht lassen, die der Cortex-M7 im Vergleich zum Cortex-M4 mitbringt. 

Dennoch plant Freescale eine Kinetis-Serie mit dem Cortex-M7, wobei auffällt, wie stark Freescale sein MCU-Portfolio ausgebaut hat, seitdem Sie an Bord sind, und das obwohl wir schon früher darüber diskutiert haben, ob es nicht insgesamt zu viele verschiedene Controller gibt.

Es gibt in den USA derzeit einen Bestseller, und dort ist folgender Satz zu lesen: Wenn Sie Ihren Kunden zu viel Auswahl bieten, wird er keine Entscheidung fällen. Das Phänomen ist längst bekannt, und es gibt viele Beispiele aus dem Alltag, die das belegen. Ich glaube auch, dass unsere Industrie zu viele Controller anbietet, aber dieser Trend ist schwer umkehrbar.

Wodurch wurde er ausgelöst?

Eigentlich durch Jean Anne Booth, früherer CEO von Luminary. Sie hatte damals innerhalb von kurzer Zeit 60 verschiedene Controller auf Basis des Cortex-M3 vorgestellt, und alle anderen Hersteller mussten nachziehen, wobei dieses Phänomen nicht nur die Hersteller von ARM-Controllern betrifft, sondern die komplette MCU-Welt.

Trotzdem hat Freescale sein Produktspektrum ex-trem schnell ausgebaut.

Ja, weil wir wie viele andere Hersteller auch, mitziehen mussten. Mittlerweile nutzen ja die Hersteller auch das Argument des großen Produktspektrums, um im Markt zu punkten. Gerade große Konkurrenten zu Freescale waren früher mit einem deutlich größeren Portfolio aktiv, das mussten wir schnellstmöglich ändern. 

Also wird weiter kräftig das Produktspektrum ausgebaut? 

Wie gesagt, so eine Entwicklung ist nicht einfach zu stoppen oder umzukehren. Aber ich bin mir sicher, dass kleinere Prozessstrukturen dem Trend zu einem immer größeren MCU-Portfolio so oder so ein Ende bereiten werden. Mit 28 oder 14 nm wird die Anzahl der unterschiedlichen Controller deutlich abnehmen.

Sie sprechen von 14 nm. Renesas hat schon einen 28-nm-Test-Chip realisiert, ist sich aber nicht sicher, ob der Markt wirklich 28-nm-Controller brauchen wird.

Davon bin ich absolut überzeugt: 28-nm-Controller werden kommen und nicht erst in vier Jahren. Unsere Applikationsprozessoren aus der i.MX7-Serie basieren auf 28 nm, und unsere Strategie sieht vor, dass wir i.MX und Kinetis zusammenzuführen und die gleichen Prozesse verwenden werden. Von neuen Technologien profitiert darüber hinaus unser gesamtes Embedded-Portfolio, zum Beispiel bemustern wir schon mit der QorIQ-LS1x-Familie, die auf einer 28-nm-MCU/MPU-Technologie mit Cortex-A7 basiert.

Es stellt sich aber doch die Frage: Braucht jemand die Rechenleistung eines 28-nm-Controllers, oder ist es immer noch die Flash-Größe, die einen Umstieg auf 28 nm erforderlich macht?

Flash ist überhaupt nicht das Thema. Wenn ich mich heute beispielsweise mit Kunden aus dem IoT-Bereich unterhalte, wird mir ganz klar erklärt, dass überhaupt kein Flash benötigt wird. Diese Firmen sind vielmehr an großen SRAM-Kapazitäten interessiert, sprich 1 oder 2 MByte SRAM. 

Aber sind Cortex-M0+-MCUs überhaupt noch sinnvoll auf 28 nm zu portieren, oder liefe man hier in eine Pad-Limitierung hinein?

Klar ist das möglich, einfach wegen des Bedarfs an Speicher. Selbst konventionelle MCU-Anwender wollen heute gleich große Flash- und SRAM-Speicher auf dem Controller. Wir werden in Kürze eine kleine Reihe von MCUs sehen, die nicht Flash-basiert sind.

Ein Grund, der  gegen 28-nm-Controller spricht, sind die immensen Kosten, die mit diesen Strukturen verbunden sind.

Ich weiß, dass viele Leute glauben, 28 nm sei viel zu teuer. Das ist aber nicht so. Ich bin der Überzeugung, dass 28-nm-Strukturen der letzte »einfache« Knoten sein werden. 

»Einfach« ist relativ . . .

Aus meiner Sicht steht jetzt mit 28-nm-FDSOI eine Alternative zur Verfügung. Statt auf HKMG zu setzen und dann zwangsläufig auf FinFETs gehen zu müssen, kann man jetzt 28-nm-FD-SOI wählen. Die Lizenz, die STMicroelectronics an Samsung vergeben hat, eröffnet ganz neue Möglichkeiten. Ich bin mir sicher, dass diese Technik in diesem Jahr noch an andere Foundries lizenziert wird.

Seit Jahren wird über FD-SOI gesprochen. Der einzige, der bislang voll auf FD-SOI gesetzt hat, war ST. Aber trotz vieler Anstrengungen seitens des Unternehmens ist bislang der große Durchbruch ausgeblieben.

Wir selbst nutzen beispielsweise in unserer Digital-Networking-Division sowohl für 90 nm als auch für 45 nm Partial-Depleted SOI. Wenn man noch weiter zurückgeht, dann wurde SOI im militärischen Bereich schon bei 0,25 µm eingesetzt. Aber sowohl SOI als auch PD-SOI hatten ihre Einschränkungen. Den Durchbruch für SOI hat aber nicht ST oder die Lizenz an Samsung gebracht, sondern Soitec selbst, das die meisten Patente bei der SOI-Technik hält. 

Ein ganz wichtiger Schritt war beispielsweise, dass Soitec seine Smart-Cut-Technologie an andere Substrathersteller lizenziert hat, darunter auch SEH, der der größte Substrathersteller der Welt ist. Das heißt die Lizenzierungsabkommen sind gut fortgeschritten, dass es trotzdem so lange gedauert hat, liegt daran, dass Soitec zehn Jahre gebraucht hat, um die Herstellung von FD-SOI-Wafern zu perfektionieren. 

Wobei ich Ihnen insofern Recht gebe, dass es eine tolle Leistung von ST war, zu einer Zeit auf FD-SOI zu setzen, als noch keiner an die Technologie geglaubt hat. Ohne ST wäre Soitec heute wahrscheinlich längst aus dem Geschäft. 

Intel war auch mal an SOI interessiert, hat sich aber schlussendlich dagegen entschieden, und Intel ist in der Fertigungstechnik absolut führend.

Ja, aber Intel hat seine eigenen Prioritäten. Die Entscheidungen, die Intel fällt, müssen nicht zwangsläufig die gleichen sein, die die Foundry-Industrie fällen sollte, wobei klar ist, dass Intel eine gewisse Marktmacht besitzt, denn nachdem sich Intel für FinFETs entschieden hat, war TSMC verpflichtet, ebenfalls auf FinFETs zu setzen. 

Aber FD-SOI hat dank des Lizenzabkommens zwischen ST und Samsung jetzt trotzdem die Chance, im Massenmarkt anzukommen. Das haben anfänglich auch viele Kommentatoren so gesehen, nur jetzt machen sie meines Erachtens einen Fehler, denn viele fangen mittlerweile schon wieder an, daran zu zweifeln. Dann heißt es, dass das Lizenzabkommen schon im März unterschrieben wurde und seit dem nichts mehr passiert ist. Aber solche Dinge brauchen ihre Zeit. 

FD-SOI ist aus meiner Sicht deshalb so attraktiv, weil es sich um einen planaren Prozess handelt, genau wie der Prozess, den die Industrie schon seit 50 Jahren benutzt. Das gesamte Equipment, viel Erfahrung und Know-how sind vorhanden. Und hinzu kommt noch ein ganz anderer, extrem wichtiger Vorteil: Der Prozess ist skalierbar. Wenn ein Hersteller auf die nächste Prozessgeneration gehen muss, und das ohne riesige Reengineering-Kosten, ist das ein entscheidender Vorteil.

Derzeit spricht Globalfoundries von 22-nm-FD-SOI und ich halte 20-nm-FD-SOI für sehr wahrscheinlich, und das ohne große Zusatzkosten.

Zurück zu 28 nm für Controller, ein Schritt, der aus Ihrer Sicht ein Muss darstellt und der auch möglich ist . . .

Für Freescale auf alle Fälle. Unsere Mikrocontroller-Division hat den Vorteil, dass wir Investitionen nutzen können, die auf der i.MX-Seite geleistet werden mussten, um mithilfe von 28-nm-Prozessen fertigen zu können. Das heißt meine Abteilung muss nur einen Bruchteil der notwendigen Investitionen leisten. Ich bin mir nicht sicher, dass ich diese Investitionen in 28 nm rechtfertigen könnte, wenn ich nur ein reiner Controller-Anbieter wäre und alle Upfront-Kosten selbst zahlen müsste. Wir haben schon diverse SoC-Designs in Produktion, wir kennen den 28-nm-Prozess und dessen Charakterisierung. Deshalb werden die Kosten für die ersten Kinetis-Bausteine auf Basis von 28 nm nicht viel anders ausfallen als für die ersten 40-nm-Kinetis-Controller. 

Wenn mit kleineren Strukturen die Anzahl der Designs schrumpft, wie werden dann die unterschiedlichen Kundenbedürfnisse abgedeckt?

Die Mikrocontroller müssen flexibler werden.

Darüber haben wir schon vor Jahren gesprochen.

Ja, aber damals war ich vielleicht drei Jahre zu früh. Aber jetzt ist wirklich Bewegung drin. Wir haben beispielsweise schon viel Flexibilität in unsere Applikationsprozessoren integriert, das werden wir auf der MCU-Seite ebenfalls machen. 

Heute habe ich jedes Jahr durchschnittlich 40 Entwicklungen in der Pipeline. Etwa die Hälfte davon dauert ein Jahr, das heißt pro Jahr kommen ungefähr 20 bis 25 Neuerscheinungen auf den Markt. Bei 28 nm werden es im besten Fall noch zwei oder drei sein.

Heute haben wir eine Plattform und darauf basierend Derivate. Dieser Ansatz wird in Zukunft so nicht mehr funktionieren. Aber es gibt interessante Technologien im Markt, mit denen sich die Flexibilität der Bauelemente erhöhen lässt. Ich habe schon vor fünf Jahren mit einer Technologie von Lightspeed experimentiert, mit der Logik über die Metalllagen konfiguriert werden konnte. 

In dieser Richtung gab es schon viele Ansätze, bislang sind alle fehlgeschlagen.

Ja, auch hier war die Zeit das Problem. Wenn die Unternehmen auf 28 nm hätten warten können, wären sie erfolgreich. Mit diesen kleinen Strukturen belegt der konfigurierbare Logikbereich nur noch eine winzige Chip-Fläche. 

Viele Kinetis-Produkte basieren auf dem gleichen Core, haben den gleichen Ethernet- und USB-Anschluss und in wichtigen Bereichen die gleichen Peripheriesätze. i.MX ist ganz anders aufgebaut. Hier gibt es drei verschiedene Bereiche auf dem Chip, beispielsweise umfasst der Fast-Mix-Bereich Prozessorkern, DMA und Fabric. Bei Derivaten wird dieser Bereich nie verändert, nur in den anderen Bereichen. Wenn ich Kinetis genauso aufbauen würde, also mit drei separaten Bereichen, hätte ich ganz andere Möglichkeiten, Derivate kostengünstig zu realisieren. 

Das Interview führte Iris Stroh