Dazu muss man zuerst die Funktionsweise der Grafikeinheit verstehen: Getrieben vom Consumermarkt, hat die Leistungsfähigkeit der Grafik-Cores ständig zugenommen. Insbesondere die 3D-Darstellung virtueller Welten hat die Spezialisierung der Grafikkarten auf höchste parallele Rechenkapazität vorangetrieben. Aufgrund der Vielfalt der Aufgaben wie Berechnung von Texturen, Volumina und 3D-Modellierung für Kollisionsabfragen sowie Vertex-Shader für Geometrieberechnungen sind die Funktionen nicht mehr fest in Hardware gegossen, sondern können frei programmiert werden. Damit bieten moderne Grafikeinheiten ein flexibles Leistungspotential, das enorm ist. Dieses Potential kann man mittels der so genannten GPGPU (General Purpose Graphics Processing Unit) nicht nur für die Grafikberechnung und -darstellung, sondern auch für die Datenverarbeitung nutzen.
Bestimmte Datenformen z.B. von Sensoren, Messköpfen, Transceivern oder Videokameras lassen sich mit dedizierten Rechenkernen effizienter und schneller verarbeiten als mit der Rechenleistung eines x86-Prozessors. Denn für die GPGPU ist es unerheblich, ob die Daten vom Programmcode intern erzeugt werden, oder ob sie von externen Quellen zugeliefert werden. Es spricht also einiges dafür, CPU und GPU in einer APU (Accelerated Processing Unit) zu vereinen, um daraus ein noch stärkeres Team zu bilden.
Damit müssen sich OEMs und Anwender jedoch von der Aussage „herausragende CPU-Leistung“ verabschieden, denn nicht mehr nur die CPU definiert die Rechenleistung, sondern auch die Grafikeinheit spielt eine entscheidende Rolle. In Massenapplikationen genutzt wird dies z.B. in Filteralgorithmen von Bildverarbeitungsprogrammen wie Photoshop, Programmen zum Codieren und Konvertieren von Videos sowie auch beim Flash-Player von Adobe. Doch mussten Entwickler bislang damit kämpfen, dass sich traditionelle CPU-Architekturen und Programmiertools nur sehr bedingt für vektor-orientierte Datenmodelle mit parallelen Multi-Threads eigneten. Mit der Fusion-Technologie ist diese Hürde überwunden.
Über einfach zu nutzende APIs, wie beispielsweise DirectCompute von Microsoft oder OpenCL, die von AMDs Fusion-Technologie unterstützt werden, können Applikationsentwickler die Leistungsfähigkeit der Grafikcores der APU effizient für verschiedenste Aufgaben abseits der eigentlichen Bilddarstellung nutzen. Voraussetzung ist allerdings, dass der Grafikcore dies auch unterstützt. Und AMDs Embedded-G-Series-Plattform ist die erste intergierte Embedded-Grafik, die genau dies tut. AMD bietet dafür bereits SDKs an, was den Einstieg in die neue Art der Datenverarbeitung vereinfacht.
Die Fusion-Technologie ist aber nicht ausschließlich für Spezialanwendungen geeignet. Es ist vielmehr so, dass sich die G-Series-Plattform über das gesamte Spektrum des Embedded-Computings einsetzen lässt. Mit einer breit skalierbaren Performance, angefangen von sparsamen Single-Core-Varianten mit 1,2 GHz bis hin zur Variante mit 2 × 1,6-GHz-Dual-Core-Prozessor deckt die neue AMD-Plattform rund 80 % aller Applikationsanforderungen des Embedded-Markts ab: von Low-Power- bis hin zu High-Performance-Applikationen. Um das Performance-Spektrum auf bekannte Maßstäbe herunterzubrechen, kann man auch sagen: Die neue AMD-Plattform ist für Lösungen vom Anforderungsprofil eines Intel-Atom-Prozessors bis hin zum Dual-Core-Prozessor Core-i5 skalierbar (Bild 2). Dies ist gepaart mit einer Grafikeinheit, die sich dank GPGPU auch für Embedded-Computingaufgaben einsetzen lässt. Diese ist allerdings in die Leistungsberechnung noch nicht eingeflossen, so dass sich je nach Applikation das Leistungspotential auch noch weit nach oben verschieben kann.
Unabhängig für welches Segment - OEMs können auf Basis einer einzigen Prozessorarchitektur ihr komplettes Produktspektrum umsetzen. Dies reduziert nicht nur Entwicklungskosten und -zeit, sondern vereinfacht darüber hinaus auch das Supply-Chain-Management sowie das Lifecycle-Management und die damit verbundenen Kosten. Für OEMs und Entwickler, die Computer-Komponenten ohne großen Design-Aufwand direkt einsetzen wollen, empfiehlt sich der Einsatz von Computer-on-Modules.
Der ideale Technologieträger: Computer-On-Modules
Computer-On-Modules sind Embedded-PCs mit erweiterter Core-Funktion und werden einfach auf Basisboards aufgesteckt. Lediglich die Einbettung in die Kundenumgebung über das Basisboard mit den kundenspezifischen I/Os muss neu entwickelt werden. Das erleichtert die Entwicklung von Embedded-Systemen erheblich. Die Support- und Entwicklungsingenieure unterstützen den Kunden bereits bei der Produktidee. So können die Kosten und die Systemintegration von Beginn an optimiert werden. Nicht nur die Rechenleistung durch austauschbare Computermodule ist skalierbar, sondern auch die Ausstattung an Schnittstellen. Durch Computermodule ist ein Einsatz der neuen AMD-G-Series-Plattform sowohl in existierenden Applikationen wie auch Neudesigns schnell möglich.
Das weltweit erste Computermodul, das mit dieser neuen Prozessortechnologie bestückt ist, ist congatecs „conga-BAF“, ein Modul der Bauform COM Express basic (Bild 3). Dieses Format misst 125 × 95 mm2 und kann mit allen Varianten der AMD-G-Serie bestückt werden. In zwei Speichersockel können bis zu 8 Gbyte DDR3-RAM gesteckt werden. Konform zur neuen COM-Express-Spezifikation COM.0 rev. 2.0 führt das Modul 6 × PCI Express ×1, 4 × SATA-3, 1× PCI, Gigabit-Ethernet, 8 × USB 2.0 und EIDE-Schnittstellen über den Steckverbinder zum Basisboard. Entwickler profitieren insbesondere von den Digitalen Display-Anschlüssen (2 × DisplayPort, 2 × HDMI oder DVI) durch eine schnelle und flexible Anbindung aller derzeit am Markt verfügbaren Monitorarten. VGA (2560 × 1600) und LVDS (1920 × 1200) sind ebenfalls mit an Bord. Insgesamt können zwei unabhängige Displays angesteuert werden.
Für sicherheitskritische Applikationen, wie z.B. im Gaming-Segment, bietet das neue Modul ein diskretes Trusted Platform Module für höchste Sicherheit bei Authentifizierung und Datenintegrität. Damit empfiehlt sich das neue conga-BAF als kosteneffiziente Lösung für alle Applikationen, die neben einer fein skalierbaren CPU-Leistung eine hohe Grafikleistung fordern oder auf die parallele Abarbeitung großer Datenströme wie in Ultraschall- oder Bildverarbeitungsapplikationen ausgelegt sind.
Literatur
[1] VDC Research (Hrsg.): http://www.vdcresearch.com/_Documents/tracks/t1v1brief-2582.pdf
[2] Futuremark Corp.: Performance Benchmark Software Suite: Futuremark Corp. 3DMark 06, Professional Edition v1.1.0
[3] Futuremark Corp.: Performance Benchmark Software Suite: POVRay 3.7 Beta 23 Pixels-per-second, BAPCO SYSmark 2007 Preview Rating test, v1.02.396, Futuremark Corporation 3DMark™06, Professional Edition v1.1.0 processor.
Der Autor:
Dipl.-Ing. (FH) Christian Eder |
---|
studierte Elektrotechnik mit Schwerpunkt Nachrichtentechnik an der Fachhochschule Regensburg. Er startete sein Berufsleben bei Kontron, als dies noch ein BMW-Tochterunternehmen war. Nach Stationen bei Force und JUMPtec und der neu gegründeten Kontron AG ist er seit 2004 Mitbegründer sowie Sales- und Marketing-Manager der congatec AG. |
christian.eder@congatec.com