Halbleiterhersteller mit einzelnen SoC-Produkten für Smartphone-Applikationen sehen große Chancen, exakt diese – ohne Anpassungen – auch im Instrumentenbereich eines Fahrzeuges einzusetzen. Ingenieure sind jedoch auf der Suche nach einer optimalen Mischung aus Funktionsumfang und dem Bestreben, den Energiekonsum in modernen Fahrzeugarchitekturen weiter zu minimieren. Reduzierung von Baugruppen, Verlustleistung und Kosten sind übergreifende Forderungen der Automobilindustrie für nächste Fahrzeuggenerationen. Daher will FME mit dem Systemlösungsgedanken einen völlig anderen Weg beschreiten und setzt auf ein skalierbares, applikations- spezifisches Familienkonzept. Dieser technische Ansatz baut auf einem ähnlichen Prinzip auf wie die Baukastenstruktur einiger Fahrzeughersteller und ist beliebig erweiterbar. Dabei nutzen Halbleiterbausteine aus der gesamten Familie innerhalb des Chips dieselben Komponenten. Die Bausteine lassen sich so miteinander auf einer gemeinsamen Systemarchitektur flexibel kombinieren. Parallel dazu ist es möglich, solche Architekturen mit Lösungen aus einer anderen Familie (z.B. MB88F332 Indigo) entsprechend zu erweitern. Hierzu gibt es bereits das Evaluierungs-Set „Compact Indigo System“ (SK-88F332-02), um einen abgesetzten Bildschirm oder eine Head-up-Display-Einheit auf Basis von Automotive Pixel Link (APIX) zu entwickeln. Für den Instrumentenbereich im Fahrzeug setzen alle zukünftigen SoC-Produkte im Kern auf 32-bit-RISC-Cortex-Prozessoren von ARM im skalierbaren Frequenzbereich auf. Automotive- und Standardschnittstellen lassen sich so durchgehend unterstützen. Im unteren Segment finden sich Single-MCUs in unterschiedlichen Leistungsklassen und Speicherausbaustufen. In diesem Bereich kommen weiterhin Schrittmotor- Controller und einfache LCD- oder TFT-Treiber zum Einsatz. Die Erweiterung der Familie in die mittlere Klasse lässt sich durch eine zusätzliche 2DPixel- Engine für schnelle Kopier-, Blend-, Rotier- und Filter-Operationen erreichen. Ein Bildschirm- und ein Timing-Controller (TCON) bilden die Schnittstellen nach außen. Für die virtuelle Instrumentierung wird die Leistungsklasse der Cortex-Prozessoren erhöht. Ein digitaler Signalprozessor (DSP) unterstützt die En-/Decodierung von Media- und Signal-Applikationen. Mit Hilfe des integrierten Bild-Prozessors lassen sich die Kamerasignale synchronisieren und dynamisch optimieren. Die vier unabhängigen Videoerfassungs- Einheiten eröffnen die Möglichkeit einer 360-Grad-Rundumsicht (Omniview) für kamerabasierte Fahrerassistenzsysteme. Die zweidimensionalen Kamerabilder lassen sich zudem in Echtzeit auf ein Gittermodell in Form einer Halbkugel projizieren. Mit Hilfe dieser Projektion und einem eigenen Algorithmus entsteht ein dreidimensionales Bild. Mit der freien Wahl des Blickwinkels werden sonst schlecht einsehbare Bereiche rund um das Fahrzeug sichtbar. Hierfür werden beide Varianten aus dem oberen Segment mit einem zusätzlichen 3D-Grafik-Rechenkern bestückt. In dieser Grafik-Rechenkern- Architektur lassen sich – unterstützt durch die „OpenGL ES 2.0 Shading Language“ – Vertex- und Fragment- Schattierungen frei programmieren. OpenGL ES 2.0 ist eine speziell für eingebettete Plattformen angepasste Version von OpenGL für eine plattform- und programmiersprachenunabhängige Applikations-Programmierschnittstelle (API) zur Entwicklung von 3D-Grafiken. In der höchsten Ausbaustufe sind bis zu drei Bildschirm- Controller verfügbar, die u.a. embedded- spezifische Auflösungen wie Dual-SVGA (1600 × 600 Pixel) oder höher unterstützen. Erhöhte Bildwiederholraten erlauben den nötigen Datentransfer. Parallel werden Nachzieheffekte von schnellen Zeiger-Applikationen minimiert, und das Bild wirkt dadurch schärfer. Bei den integrierten APIX-Schnittstellen ist durch die vollständige Kopplung der Datensignale auch eine Übertragung der Versorgungsspannung für abgesetzte Bildschirme mit „Powerover APIX“ möglich. Mit diesen fest integrierten, duplexfähigen Kommunikationskanälen lassen sich unabhängig vom Videosignal auch Daten zwischen Bildschirm und Grafikeinheit bidirektional und in Echtzeit austauschen. Informationen von der Head Unit, wie etwa Videoströme oder Karten-, Pfeilund Menüdarstellung, können direkt an das Instrumenten-Cluster mittels APIX in die Videoerfassungs-Einheiten übertragen werden.