Lisa Sus Einkaufsliste Embedded Markt – lohnendes Umfeld für die EDA-Industrie

Die Integrationsdichte steigt unaufhörlich, mit ihr geht aber auch die Komplexität eines Designs nach oben
Die Integrationsdichte steigt unaufhörlich, mit ihr geht aber auch die Komplexität eines Designs nach oben

Ein Unternehmen wie Intel hat aus der Sicht von Lisa Su, Senior Vice President und General Manager Networking and Multimedia bei Freescale Semiconductor, mit ganz anderen Problemen zu kämpfen als ein Player, der sich ausschließlich auf den Embedded Markt fokussiert, denn: »Spricht man von ‚Embedded’, spricht man nicht von einem Markt mit einer Applikation, sondern von vielen verschiedenen Märkte mit unterschiedlichen Applikationen und unterschiedlichen Anforderungen.«

So ist im Embedded Markt die Anzahl der Applikationen schier unendlich, das fängt bei der weißen Ware an, geht über Smartphones und e-Reader/Tablets und endet im Automotive-Segment, in der Infrastruktur für die drahtlose Kommunikation und in leistungsfähigen Networking-Anwendungen. Die Anzahl der Applikationen und die großen Unterschiede zwischen den einzelnen Gebieten stellt den Hintergrund für Sus unmissverständliche Aussage dar: »Im Embedded Markt gibt es kein „One Size fits all“.« Aber immerhin gelten in allen Märkten/Anwendungen ähnliche Prinzipien, wie steigende Leistungsfähigkeit, Kostensenkung und Reduzierung der Leistungsaufnahme. Su weiter: »In allen Embedded Märkten ist eine intelligente Integration eine der treibenden Kräfte.«

Im Embedded Markt ist ein weiterer, klarer Trend festzustellen: Multicore. Damit haben sich aus der Sicht von Su neue Herausforderungen ergeben, wie zum Beispiel, dass der gleiche Core für die Verarbeitung unterschiedlicher Tasks/Loads genutzt wird, oder auch dass zirka 70 Prozent der Projektkosten eines Multicore-Designs mittlerweile auf die Software entfällt. Außerdem würde je nach verfolgtem Ansatz die Software-Komplexität des Designs steigen. Su konkretisiert: »Ein Design mit einem Prozessorkern und mehreren in Hardware realisierten Beschleunigungs-Engines ist mit Blick auf die Software weniger komplex als ein Design mit diversen homogenen Prozessor-Cores.« Getoppt wird das dann nur noch von einer heterogenen Multicore-Lösung mit unterschiedlichen Verarbeitungseinheiten wie CPU, GPU, DSP, plus Hardware-Beschleuniger und beispielsweise noch zusätzlicher FPU. Su: »Dieser Ansatz ist von der Leistungsaufnahme und der Leistungsfähigkeit am effizientesten«, leider aber bezüglich der Software auch der komplexeste Ansatz. Doch hier ist keinerlei Entspannung angesagt, ganz im Gegenteil. Su ist der Meinung, dass in Zukunft aus »Multicore« »Manycore« wird, sprich noch viel mehr Cores in einem SoC integriert werden.

Was also heißt das für die EDA-Industrie? Su: »Die EDA-Unternehmen müssen darauf achten, dass die Produktivität ihrer Tools so stark zunimmt, dass auch zukünftige Designs nicht länger dauern als heutige Designs.« Das heißt, wenn die Design-Komplexität pro Chip-Generation um den Faktor 3 bis 4 steigt – also mehr als Moore’s Law (Faktor 2) eigentlich zulässt, dann muss die Leistungsfähigkeit der Tools entsprechend zunehmen, weil sonst das Time-to-Market immer länger wird. Su: »Es wäre absolut wichtig, wenn die Chip-Simulation durchschnittlich in weniger als 12 Stunden möglich wäre.« Daraus ergeben sich für Su diverse Forderungen an die EDA-Industrie, einschließlich verbesserter Tools für eine dynamische Power-Analyse, die Unterstützung von Low-Power-Design-Techniken, Standard-Power-Formate, die für alle EDA-Unternehmen gelten, Verifikationssimulation etc. Su betont nochmals: »Die Anzahl der Transistoren wächst schneller als die EDA-Simulations-Tools an Geschwindigkeit zunehmen. Eine Durchlaufzeit von weniger als 12 Stunden muss für eine entsprechende Qualität und Produktivität aber aufrechterhalten werden. Dafür sind inkrementelle/verteilte Lösungen allein aber nicht ausreichend.«

Mit Blick auf die Nutzung von IP von Drittunternehmen, erklärt Su ähnlich wie die anderen Halbleiterhersteller, dass die Halbleiterindustrie immer mehr IP von außen hinzukaufen würde. Su: »Zwischen 2005 und 2010 kamen zirka 25 Prozent des genutzten IPs von außen, seit 2010 ist dieser Anteil schon auf 40 Prozent gestiegen.« Dass dem so ist, erklärt Su damit, dass sich die SoC-Hersteller verstärkt auf ihre eigentlichen Kernkompetenzen fokussieren, sprich Interconnect, Beschleunigungsschaltungen oder die eigentliche Applikation. Außerdem könnte vielfach auf Standard-IP zurückgegriffen werden, egal ob es USB, PCIe, DDR ist, alles ist bei Drittunternehmen zu haben und mit keiner dieser Funktionen ist eine Differenzierung möglich. Darüber hinaus ließe sich mit der Nutzung von Dritt-IP die Design-Effizienz steigern, sprich die Entwicklungszeit verkürzen und die Entwicklungs-Ressourcen reduzieren. Su: »Die IP-Provider können dabei helfen, den Time-to-Market-Druck bei der Entwicklung von SoCs zu reduzieren.« Zum einen indem sie ein großes IP-Portfolio bereitstellen und schnell auf neue Industriestandards reagieren würden. Zum anderen in dem sie Verifikations- und Silizium-Validation-Compliance-Suites anböten. Und mit Blick auf die Nöte der IP-Provider fügt sie noch hinzu: »Die IP-Provider können sich dadurch differenzieren, indem sie eine End-to-End-Lösung, sprich das komplette IP anbieten, also Hardware-IP + API + Treiber + Standard-Debug-Interface.«

Eine weitere Herausforderung stellt für Su die Software dar. »Die Kosten für Embedded Software und deren Komplexität steigen mit jeder Technologiegeneration. Dabei wird Embedded Software als Teil der Hardware-Lieferung erwartet.« Als Halbleiterhersteller gibt es dementsprechend fünf wichtige Bereiche, die es zu adressieren gilt:

  • System Partitionierung – hier geht es unter anderem um die Migration von Single-Core-Lösungen zu Multicore-Varianten mit der Weiternutzung von Legacy-Software; aber auch um die Möglichkeit, mehrere Applikationen in einem einzigen Prozessor zu konsolidieren. Su weiter: »Die Anzahl der notwendigen Iterationen muss reduziert werden. Außerdem sind What-if-Analysen notwendig, bevor die Code-Migration beginnt.«
  • Multicore Software-Programmiermodelle – »Die Programmierung von Multicore-Designs bedingt komplexe Systeminteraktionen«, so Su. Also müssten Abstraktionsschichten für die Software die Programmierung dieser Multicore-Designs vereinfachen, während sie gleichzeitig aber auch die System-Performance bereitstellen.
  • Disparate Betriebssysteme ermöglichen -
  • System Visibility – Für die Partitionierung von Multicore-Systemen, deren Leistungsoptimierung und zum Debuggen des Systems ist aus der Sicht von Su ein direkter Einblick in die Cores, in die Beschleunigungsschaltungen, in den Interconnect und in die Peripherie notwendig.

Als letzten Punkt auf Sus Wunschliste steht »Hardware-Software-Co-Design«. Auch hier sieht Su viele Möglichkeiten für Verbesserungen. So erklärt sie beispielsweise, dass die Tools Performance-Engpässe aufzeigen müssten. Außerdem sollte es möglich sein, die Entwicklung der Applikationssoftware möglichst früh zu starten. Darüber hinaus wäre es wünschenswert, wenn die Software- und System-Entwicklungs-Teams Feedback an die Hardware-Leute geben könnten und zwar in einer formalisierten und automatisierten Art und Weise. Die größte Herausforderung für Su besteht jedoch in einer zyklusgenauen Simulation, mit denen die Anwendungsfälle der Kunden in Echtzeit gedebuggt werden können.

Su fasst zusammen: »Der Embedded Markt ist eine Markt mit extremen Wachstumspotenzial und damit auch für die EDA-Industrie durchaus interessant. Die EDA-Unternehmen können unsere Innovationen beschleunigen, in dem sie schnellere Tools und ein reicheres Eco-System anbieten.« Und ein letzter, wenn auch eher frommer Wunsch: »Wir würden gerne alle Bugs vor dem ersten Tape-out finden.«