Chip-interne Validierungs-, Test- und Debug-Routinen vom Chip über das Board bis hin zum Feldtest ScanWorks sieht, was der Chip sieht

Glenn Woppman, Asset Intertech: »Die Umstellung auf Embedded-Instrumentierung hat sich in den letzten zehn Jahren bereits angekündigt und steht jetzt kurz vor dem Durchbruch. Nun geht es darum, alle Teile zu einem schlüssigen Gesamtkonzept zusammenzufügen. Und genau das macht Asset mit der ScanWorks-Plattform für die Embedded-Instrumentierung.«
Glenn Woppman, Asset Intertech: »Die Umstellung auf Embedded-Instrumentierung hat sich in den letzten zehn Jahren bereits angekündigt und steht jetzt kurz vor dem Durchbruch. Nun geht es darum, alle Teile zu einem schlüssigen Gesamtkonzept zusammenzufügen. Und genau das macht Asset mit der ScanWorks-Plattform für die Embedded-Instrumentierung.«

Asset Intertech setzt mit seiner ScanWorks-Plattform bereits seit längerem auf Embedded Instrumentation. Den entscheidenden Vorteil dieses Verfahrens sieht das Unternehmen in der Übertragbarkeit der Validierungs- und Test-Routinen über den gesamten Lebenszyklus des Systems hinweg. Wir sprachen mit Glenn Woppman, President und CEO von Asset, über die Zukunft der Chip-internen Test- und Debugging-Tools.

Markt&Technik: Auf der embedded world befand sich ein Schild an Ihrem Stand mit dem Slogan »ScanWorks sees what the silicon sees«. Was ist damit gemeint?

Glenn Woppman: Dieser Spruch ist eigentlich schon ein paar Jahre alt. Er stammt aus der Zeit, als uns klar wurde, dass Test- und Messprozesse einen Richtungswechsel vollzogen und nun von innen nach außen abliefen. Kontaktgebundene Geräte wie Oszilloskope für die Validierung und Incircuit-Tester für Fertigungsprüfungen stoßen dabei an ihre Grenzen, weil sie anders herum funktionieren, nämlich von außen nach innen. Sie brauchen den physischen Zugang zum Chip oder Board mittels einer Sonde. Wir sind der Überzeugung - und der Markt gibt uns Recht -, dass es effektiver ist, die Instrumentierung zu nutzen, die in den Chips eingebettet ist. Das meine ich mit »von innen nach außen«. ScanWorks basiert auf eben dieser Chip-internen Instrumentierung. Daher kann diese Plattform bei der Validierung, dem Testen und dem Debugging auf der Board-Ebene buchstäblich »sehen, was der Chip sieht«.

Es sind ja immer noch eine Menge Oszilloskope im Einsatz. Wie kommen Sie zu dem Schluss, dass Legacy-Technologien an ihre Grenzen stoßen?

Wir erwarten nicht, dass die alten kontaktgebundenen Technologien vollständig verschwinden. Die Ingenieure werden nach wie vor Anwendungen mit Bussen entwickeln, die langsamer als fünf Gigabit pro Sekunde sind. Und in diesem Geschwindigkeitsbereich leisten traditionelle Tools nach wie vor gute Dienste. Aber sobald die 5-Gbit/s-Marke überschritten wird, sieht die Sache ganz anders aus. Wenn Sie sich die Entwicklung der Messtechnik in den vergangenen 20 Jahren anschauen, dann fand hier eine ständige Aufholjagd statt. Was ja auch in Ordnung geht, wenn Sie dabei Ihre grundlegende Messtechnologie nur schrittweise verbessern müssen. Jetzt werden die Chips aber so schnell und die Leiterplatten so komplex, dass wir die Aufholjagd dieses Mal nur dann gewinnen können, wenn wir auf berührungslose, softwarebasierte Methoden setzen, die keinen externen physischen Zugang brauchen und wesentlich günstiger sind als die alten hardwareintensiven Systeme.

Worin genau liegt die Schwierigkeit des physischen Zugangs?

Das Problem des physischen Zugangs für sondenbasierte Geräte begann schon in den 1990er-Jahren, als neue Chip-Scale-Gehäuse wie BGAs die Leiterrahmen verdrängten und die Sondenprüfung von Chips auf einer Leiterplatte unmöglich machten. In letzter Zeit sind High-Speed-Busse und Komponenten-Interconnects wie PCI Express, QuickPath Interconnect von Intel, Memory-Busse wie DDR3 und andere so schnell geworden, dass Probleme entstehen, sobald eine Sonde angelegt wird. Und die Referenzdesigns vieler Chiphersteller wie Intel verbieten kategorisch die Bereitstellung von Testpunkten für den Zugang von Sonden auf Leiterplatten mit einem dieser High-Speed-Busse. Ein Testpunkt hätte so starke kapazitive Rückwirkungen auf die Bussignale, dass im besten Fall zweifelhafte Messergebnisse erzielt würden. Das Zugangsproblem gibt es also schon eine ganze Weile, aber wir konnten es mit berührungslosen Technologien wie Embedded-Instrumentierung umgehen.

Um noch einmal darauf zurückzukommen: Sind derzeit noch viele Oszilloskope und ICT-Systeme im Einsatz?

Ja, und sie werden immer unwirtschaftlicher. Der Grund dafür ist, dass die I/O- und Memory-Busse wie DDR3 und DDR4 Geschwindigkeiten von fünf Gbit/s und mehr erreichen. Die Kosten - sowohl Anschaffungs- als auch Betriebskosten - steigen kontinuierlich. Beispielsweise arbeiten die neueren Hochgeschwindigkeits-Oszilloskope mit komplexen Algorithmen, die eine Simulation der Signalisierung auf einem High-Speed-Bus liefern. Per Mathematik sollen die externen Anomalien herausgefiltert werden, die von den Sonden des Oszilloskops, den Chip-I/O-Treibern und anderen Faktoren verursacht werden, die die Signale beeinflussen. Bei dem, was der Ingenieur dann zu sehen bekommt, fehlen aber ein paar Schritte in den Abläufen, die beim Empfänger wirklich passieren. Weniger oder fehlende Testpunkte auf Leiterplatten führen bei Fertigungstests zu einer geringeren ICT-Testabdeckung.

Wie sieht dann die Lösung aus?

Aus unserer Sicht ist Embedded-Instrumentierung die vielversprechendste Lösung seit Jahren. Nochmal: Mit Embedded-Instrumentierung kann ein Ingenieur sehen, was der Halbleiter sieht, weil sie Daten aus dem Chip-Inneren direkt am Empfänger von High-Speed-Bussen und Interconnects erfasst und ausliest. Sie versucht nicht, die Daten von außen her zu extrahieren. Embedded-Instrumentierung muss auch das Signal nicht hochrechnen, weil sie lediglich empirisch beobachtet und das Originalsignal ausliest.