Baugruppentest: Digitaltest im Interview Prüfmittelfähigkeit – oder die ganze Wahrheit?

Hans Baka, Digitaltest: »Unser Ansatz ist es, über ’falsche Bauteile‘ auf den Baugruppen einen Fehler zu provozieren, um dann zu erkennen, ob der Gesamtkomplex Testsystem–Adapter–Prüfprogramm in der Lage ist, diesen Fehler zu erkennen.«

Der elektrische Boardtest ist ein wichtiger Baustein auf dem Weg zur Null-Fehler-Produktion. Im Zusammenhang mit Begriffen wie Testtiefe und Fehlerabdeckung wird oft die Prüfmittelfähigkeit zurate gezogen. Doch wie aussagekräftig ist sie? Wir sprachen mit Hans Baka, Geschäftsführer von Digitaltest.

Markt&Technik: Herr Baka, Sie stehen dem Begriff Prüfmittelfähigkeit kritisch gegenüber. Warum?

Hans Baka, Digitaltest: Nun, der Begriff Prüfmittelfähigkeit soll aussagen, ob ein Prüfmittel fähig ist, bestimmte Prüfungen oder Messungen im Rahmen seiner Spezifikationen zu tätigen. Anders als bei einfachen mechanischen Bauteilen, wo lediglich ein Messschieber beispielsweise den Durchmesser eines Drehteils messen soll – wobei die Parameter für die Prüfmittelfähigkeit in diesem Fall sehr übersichtlich sind –, sind elektronische Prüfungen mittels eines In-Circuit-Testers weitaus komplexer. Denn neben dem eigentlichen Prüfmittel, also dem Testsystem, haben auch der Adapter und das Prüfprogramm einen großen Einfluss auf die Prüfmittelfähigkeit. Insofern muss man alle beteiligten Komponenten zusammen betrachten. Die dahinter stehenden Berechnungen sind allerdings sehr komplex, weil sie sich auch gegenseitig beeinflussen.

Wie stellt man dennoch sicher, dass das Gesamtsystem die gewünschte Testtiefe und Fehlerbdeckung stabil bringt?

Das hängt von vielen Parametern ab. Testsysteme sind parametrierbar, das heißt, verschiedene Einstellungen können verändert werden, um das Messergebnis zu erreichen. Üblicherweise wird ein Programmgenerator anhand einer Stückliste und einer Verbindungsliste eine Schaltungsanalyse vornehmen und daraus ein Prüfprogramm mit allen nötigen Parametern wie Stimulus, Guard-Punkte, Integrationszeiten, Delays und Kelvin-Messungen erstellen. Weil das Ergebnis nicht immer den gewünschten Erfolg bringt, wird die Messung beim so genannten Debugging modifiziert, das heißt, die Parameter des automatisch erzeugten Prüfprogramms werden so lange angepasst und verändert, bis der gewünschte Messwert stabil dargestellt wird. Durch diese Manipulationen ist es durchaus möglich, einen Messwert zu erzwingen, ohne dass dabei wirklich etwas Vernünftiges gemessen wird. Eine fatale Folge davon könnte sein, dass ein Bauteil gemessen wird, obwohl es gar nicht oder falsch bestückt ist. Das wiederum bedeutet, dass die erwartete Fehlerabdeckung nur theoretisch stimmt und das Prüfprogramm dem Anwender eventuell etwas vorgaukelt.

Wie ließe sich das vermeiden?

Indem man einzeln jedes zu messende Bauteil manipuliert, sprich auslötet, oder es gegen andere Bauteile mit anderen Werten ersetzt und jede vorgenommene Änderung mit dem Prüfprogramm verifiziert, um festzustellen, was wirklich erkannt wird. Das wird allerdings schon bei einer kleinen Baugruppe mit hundert Bauteilen zu einer zeitraubenden und fehlerbehafteten Angelegenheit, geschweige denn bei einer komplexen Baugruppe.

Wenn also auf diesem Wege nicht machbar, wie dann?

Unser Ansatz ist es, über »falsche Bauteile« auf den Baugruppen einen Fehler zu provozieren, um dann zu erkennen, ob der Gesamtkomplex Testsystem-Adapter-Prüfprogramm in der Lage ist, diesen Fehler zu erkennen. Dazu haben wir ein Verfahren namens »FailSim« entwickelt, das es ermöglicht, dem zu messenden Bauteil während der Messung weitere Bauteile parallel oder seriell zuzuschalten und somit den Nominalwert des Messobjektes zu verändern.

Wird also ein zusätzlicher Widerstand parallel zu dem zu messenden Widerstand geschaltet, sollte das Messergebnis kleiner sein. Oder umgekehrt, falls man einen Kondensator verwendet. Wenn nun eine Reihe von Bauteilen dazu geschaltet wird und jedes Mal eine Messung erfolgt und ausgewertet wird, sollte sich das auch in der Veränderung des Messwertes widerspiegeln. Falls das nicht der Fall ist, müssen wir davon ausgehen, dass ein Fehler bei diesem Bauteil nicht erkannt werden wird. Dann wiederum kann der Anwender die Parameter dieser Messung so verändern, dass Fehler sehr wohl erkannt werden. Alternativ kann er die Messung komplett aus der Prüfung herausnehmen und durch andere Maßnahmen ersetzen.

Wie lässt sich das Verfahren konkret nutzen? Anders gefragt: Sind größere Investitionen in neues Testequipment nötig?

Nein, FailSim ist ab sofort in unseren In-Circuit-Testsystemen einsetzbar. Dabei wird lediglich ein neues Board mit einer Reihe von Widerständen und Kondensatoren auf die neue Analog Measurement Unit AMU05 gesteckt. Während den In-Circuit-Messungen ist sie entweder seriell oder parallel in den Messbus zuschaltbar, um Fehler zu simulieren. Anhand einer Auswertesoftware werden die aufgezeichneten Messwerte verglichen und bewertet. Das Ergebnis ist eine klare Aussage über stabile und zuverlässige Messungen, die in der Lage sind, sowohl echte Fehler zu finden als auch solche, die es nicht sind, entsprechend zu bewerten.

Inwieweit lässt sich diese Lösung auf Industrie 4.0 übertragen?

Industrie 4.0 spricht über vernetzte, softwarebasierende Produktionsmaschinen. Auch die automatische FailSim-Methode reiht sich hier nahtlos ein, denn nicht nur bei der Ausführung in der Produktion, sondern schon bei der Erstellung von Produktionstools sind derartige Automatismen hilfreich und zielführend.