Trotz gleichbleibenden Prozessor-Takts Schneller testen mit mehr Kernen

Der Prozessor bestimmt die Geschwindigkeit der Messung.
Der Prozessor bestimmt die Geschwindigkeit der Messung.

Testdaten können nur den Status „Pass“ oder „Fail“ haben? Das ist ein großer Irrglaube und nichts könnte weiter von der Wahrheit entfernt sein. Mit großem Aufwand muss das Signal verarbeitet werden. Daher bestimmt der Prozessor die Geschwindigkeit der Messung. Hält Ihr Messgerät mit Ihrem Prüfling mit?

Obwohl klassische Messgeräte mit festgelegter Funktion die Ergebnisse nur an den Host-PC eines Testsystems zurücksenden, versteckt sich ein großer Signalverarbeitungsaufwand unter ihrer Kunststoffhülle. Der Prozessor im Innern eines Messgeräts bestimmt die Geschwindigkeit einer Messung. Dies trifft besonders auf signalverarbeitungsintensive Messungen in Anwendungsbereichen wie HF-, Geräusch- und Schwingungsanalysen sowie auf kontinuierliche Messungen mit Oszilloskopen zu.

Sogar die schnellsten FFT-basierten Spektrumanalysatoren wenden noch immer nur 20 Prozent ihrer Messzeit für die tatsächliche Signalerfassung auf (Bild 1). Die verbleibenden 80 Prozent und mehr werden für Algorithmen der Signalverarbeitung benötigt. Wird die Messung auf einem fünf Jahre früher eingeführten Messgerät durchgeführt, so fällt das Ergebnis umso schlechter aus. Die Signalverarbeitung kann dann bis zu 95 Prozent der Messzeit in Anspruch nehmen. Da nicht jedes Jahr in eine völlig neue Reihe von Messgeräten investiert werden kann, werden moderne, komplexe Geräte üblicherweise mit veralteten Prüfgeräten getestet. In den meisten Testabteilungen gibt es letztlich eine erhebliche Diskrepanz zwischen der Rechenleistung ihrer Systeme und den tatsächlichen Rechenanforderungen (Bild 2).

Modulare Testsysteme verfügen über drei separat austauschbare Hauptbestandteile: Controller, Chassis und Messtechnik. Der Controller funktioniert wie ein Industrie-PC und enthält die CPU eines Systems. Der wichtigste Vorteil dieses Ansatzes ist die Möglichkeit, den Hauptprozessor durch die neueste Technologie zu ersetzen und die im Testsystem verbleibenden Komponenten (Chassis/Backplane und Messtechnik) beizubehalten. In den meisten Anwendungsfällen wird die Lebensdauer eines modularen Testsystems durch Beibehalten der Messtechnik und Aktualisieren der Prozessoreinheit weit über die eines traditionellen Messgeräts hinaus erhöht (Bild 3).

Modulare setzen wie traditionelle Messgeräte auf die gleichen Fortschritte bei der CPU-Technologie, um die Testgeschwindigkeit zu erhöhen. Doch modulare Systeme sind deutlich flexibler und wirtschaftlicher bei einer Aktualisierung als traditionelle Messgeräte.

Veränderungen am Prozessormarkt

2005 führte Intel mit dem Prozessor Pentium D den ersten Multi-Core-Prozessor für den breiten Markt ein. Die Software-Entwickler waren daran gewöhnt, auf eine stetig zunehmende Prozessorgeschwindigkeit zurückzugreifen. Nun mussten sie sich neue, parallele Programmiertechniken aneignen, um die Vorteile des mooreschen Gesetzes weiterhin nutzen zu können. Das Modell des Technologieakzeptanz-Lebenszyklus, das von Geoffrey Moore in seinem Buch »Das Tornado-Phänomen« (»Crossing the Chasm« [1]) beschrieben wird, beschäftigt sich mit der Akzeptanz neuer Technologien am Markt. Es basiert hinsichtlich der Zeit grafisch auf einer Glockenkurve und umfasst fünf charakteristische Zielgruppen: Innovatoren, frühe Adaptoren, frühe Mehrheit, späte Mehrheit und Nachzügler. In einigen Branchen wie der Spiele- und Videoindustrie wurden schnell parallele Programmiertechniken eingesetzt, während diese in anderen Branchen langsamer zum Einsatz kamen.

Ingenieure aus dem Bereich automatisiertes Testen zählen im Hinblick auf die Akzeptanz von parallelen Programmiertechniken leider zur Kategorie der späten Mehrheit. Dies kann auf einer Vielzahl von Gründen beruhen, doch der wichtigste Grund liegt vielleicht darin, dass sie keine Anreize hatten, ihre Software-Architektur für Multi-Core-Prozessoren komplett neu zu entwerfen. Bisher haben die meisten dieser Ingenieure Technologien wie Turbo Boost von Intel genutzt, mit denen die Geschwindigkeit eines einzelnen Kerns auf einem Quad-Core-Prozessor erhöht und die Testzeiten von sequenziellen Software-Architekturen verkürzt werden konnten, doch diese Technologie gerät ins Stocken. Viele Faktoren wie die Wärmeableitung halten die Prozessorgeschwindigkeit davon ab, sich in dem bisherigen Tempo weiterzuentwickeln. Um den Stromverbrauch bei zugleich höherer Leistung niedrig zu halten, entwickeln Intel und andere Prozessorhersteller Many-Core-Technologien, wie sie Intel beispielsweise bei seinem Xeon-Prozessor mit acht logischen Kernen gezeigt hat. Das Ergebnis ist ein Prozessor mit einer Taktfrequenz, die der des bisherigen Prozessors ähnelt, der jedoch eine höhere Anzahl von Rechenkernen für die Datenverarbeitung aufweist.