Asset Intertech Embedded Instrumentation – die Testtechnologie der Zukunft?

Glenn Woppman, Asset Intertech: »Wir haben unter anderem Führungsrollen in einer Reihe von Normengremien übernommen, wenn wir der Meinung waren, dass der in Entwicklung befindliche Standard für das weitere Wachstum der eingebetteten Instrumentation wichtig sein könnte.«

In den vergangenen Jahren haben Test- und Messtechnologien eine Art Kehrtwende vollzogen. Bis vor nicht allzu langer Zeit wurden die Validierungs- und Testmethoden noch von externen, teuren Testgeräten auf Hardwarebasis beherrscht.

Nach Überzeugung der Experten von Asset Intertech wandern jetzt die Validierungs-, Test- und Debugging-Technologien immer mehr als Embedded (eingebettete) Instrumentation in das Innere der Chips. Dieser Trend wird von einer Reihe technischer und wirtschaftlicher Zwänge bestimmt.

Seit mindestens zwei Jahrzehnten gilt das Mooresche Gesetz für die Halbleiterindustrie. Es besagt, dass sich die Anzahl der Schaltkreise auf einer Halbleiterkomponente alle zwei Jahre verdoppelt. »Diese kontinuierliche Steigerung der Schaltkreisdichte ermöglichte die ständigen Erweiterungen des Funktionsangebots in den Bereichen Computertechnik, Kommunikation, Consumer-Elektronik und in der Elektronik allgemein«, erklärt Glenn Woppman, President und CEO von Asset Intertech. »Diese Branchen wollen natürlich diesen Trend fortschreiben. Aber leider stehen dem die Gesetze der Physik im Wege. Und damit rücken andere Methoden zur Erhöhung der Verarbeitungskapazitäten in den Mittelpunkt des Interesses, die über die Steigerung der Schaltkreisdichte hinausgehen.« Seit ca. fünf Jahren erfreuen sich beispielsweise Multicore-Prozessoren großer Beliebtheit. Multiprozessor-Platinen haben sich bereits bei vielen Anwendungen wie High-end-Server und Switching-Systeme für die Telekommunikationsindustrie als Standard etabliert. Darüber hinaus werden die Chips selbst den Leiterplatten immer ähnlicher. In den neuen Chip-Level-Gehäusen, beispielsweise SIPs (System-In-Packages) und POPs (Package-On-Package), werden mehrere Silizium-Dies aufeinander gestapelt, um die angestrebte Steigerung der Verarbeitungsleistung zu erzielen.

Alle dieses Trends führen zu größerer Komplexität, niedrigeren Fehlertoleranzen und höheren Designrisiken für die Hersteller. »Die Situation wird noch dadurch verschärft, dass die Testsysteme der Vorgängergeneration mit dem technologischen Fortschritt nicht mithalten können«, führt Woppman aus. »Seit den Anfängen der Elektronikindustrie arbeiten Testsysteme mit einer Metallsonde, die an einem Chip oder einer Leiterplatte angelegt wird. Es wird damit geprüft, was innerhalb des Chips, der Platine oder des Systems vor sich geht. Jetzt haben sich die Technologien aber so weit entwickelt, dass diese kontaktgebundene Technik für Test- und Validierungszwecke immer ineffektiver wird. Entweder gibt es keinen Platz mehr für das Anlegen einer Sonde, oder aber das Anlegen einer Sonde an eine extrem empfindliche Elektronik sorgt selbst für Störungen und ist für die Feststellung von Fehlern oder Defekten ungeeignet.«

Interne Lösungen

Lösungen für diese Problematik sind mittlerweile in Reichweite. In vielen modernen Chips sind heute bereits Messinstrumente eingebettet, mit denen sich Fehler, Defekte und Leistungsmängel effektiv und kostengünstig diagnostizieren lassen. »Statt Validierungs- und Testdaten von außen zu extrahieren, wie das bei älteren kontaktgebundenen Testtechnologien der Fall ist, kann berührungslose Embedded Instrumentation die Daten von innen nach außen an den Testingenieur übergeben«, so der Experte. »Das heißt, die Hersteller müssen bei der Implementierung modernster Technologien keine Abstriche in Bezug auf die Qualität, Zuverlässigkeit und Stabilität machen. Wird die Embedded Instrumentation richtig und mit effektiven Tools angewendet, kann sie die Lücke bei der Validierungs-, Test- und Debug-Abdeckung schließen, die sich bei der älteren Generation von Testsystemen nur noch erweitern wird.«

Die Evolution der Embedded Instrumentation

Embedded Instrumentation gibt es schon seit einiger Zeit. Beispielsweise sind der Boundary-Scan-Test, der auf dem IEEE1149.1-Standard beruht und oft als JTAG bezeichnet wird, sowie der Built-in Self Test (BIST) bereits seit einem Jahrzehnt in der Branche gang und gäbe. Und das Konzept der virtuellen Instrumentation, das vor ca. zehn Jahren von National Instruments populär gemacht wurde, hat bewiesen, wie effektiv software-basierte Messinstrumente sein können. Die Experten von Asset Intertech sind daher sicher, dass sich die Embedded Instrumentation auf mittelfristige Sicht durchsetzen wird.

Um diesen Trend auch weiterhin zu unterstützen, entwickelt das Unternehmen seine »ScanWorks«-Plattform für Embedded Instrumentation ständig weiter. ScanWorks vereint bereits heute die Validierungs-, Test- und Debugging-Technologien, die mit Embedded Instrumentation arbeiten. Dazu zählen der Boundary-Scan-Test, der Processor-Controlled Test (PCT) und der Interconnect Built-In Self Test (IBIST) von Intel – die On-Chip-Instrumentations-Technologie, die dieses Unternehmen in seine Prozessoren und Chipsätze der nächsten Generation einbettet.

»Bald werden wir eine neue Generation von Tools erleben, die Embedded Instrumentation extensiver auf der Chip-Ebene anwendet«, erläutert Woppman. »Das ist besonders kritisch für die Erhöhung der Ausbeute bei den 3D-Chips der nächsten Generation, bei denen mehrere Dies in einem Gehäuse untergebracht sind.« Das Markante an einer Plattform wie ScanWorks ist, dass sie eine einheitliche Umgebung für eine Reihe softwarebasierter Validierungs-, Test- und Debugging-Tools bereitstellt, die die Embedded Instrumentation ausnutzen. Eine offene Plattform wie diese bietet nach Woppmans Überzeugung die Möglichkeiten zur Bewältigung vieler Herausforderungen, die die Zukunft noch stellen wird.