Genauigkeit von Multimetern Do it yourself

Kalibrierungen sind unbeliebt: Das Messgerät ist für ein paar Tage ­außer Haus, steht im Produktionsprozess nicht zur Verfügung und das Kalibrieren kostet Budget-Ressourcen. Doch in vielen Fällen reicht eine einfache Überprüfung im eigenen Labor. Was braucht man dazu und wie muss man vorgehen?

Praxis: Man kauft ein Messgerät, vertraut darauf, dass es durch den Hersteller kalibriert ist und die spezifizierte Genauigkeit einhält – und das über die gesamte Lebenszeit des Messgerätes. Zudem fragt kein ISO-zertifizierter Kunde nach den offiziellen Kalibrierprotokollen, nach denen die gekauften Produkte kalibriert wurden. Offensichtlich ist es so, dass jeder jedem vertraut.

Doch was ist, wenn ganze Chargen von produzierten Geräten zurückgenommen werden müssen, eventuell Anwender zu Schaden kommen und Regressansprüche gestellt werden? Die Lösung sieht so aus: Mit einem Multimeter 3458A, einer Spannungsquelle B2961A (oder B2962A), beides von Keysight, und mindestens zwei Standard-Widerständen von Wekomm RS9010A lässt sich ein hauseigener Transferstandard aufbauen, an dem sich eine präzise Genauigkeits-Verifikation von DC-Messgeräten durchführen lässt, die in der Produktion, Entwicklung und im Lehrbereich eingesetzt sind. Für kleinere und mittlere Betriebe ist das eine kostengünstige Lösung, um die DC-Messgeräte in regelmäßigen Abständen zu überprüfen.

Warum sollte man die ­Genauigkeit des ­Multimeters kennen?

Im Labor und im Produktions-Alltag muss man wissen, wie genau ein Multimeter ist. Um eine „Hausnummer“ zu messen, genügt ein einfaches Handheld-Gerät – das ist aber zu ungenau, wenn man zum Beispiel beim Nullabgleich eines Operationsverstärkers auf 1 mV genau messen will. Schnell kommt die Frage auf: Kann man der Messgerätanzeige trauen?

Ein alltägliches Beispiel eines Labornetzgerätes: Eingestellt auf 3,3 V Versorgungsspannung, geht man davon aus, dass dieser Wert stimmt. Weder fragt jemand danach, ob dem wirklich so ist, noch muss im Entwicklungsprozess dieser Wert dokumentiert werden. Man vertraut dem Hersteller des im Netzgerät integrierten Messgerätes, man sieht dieses Messgerät als präzise an und das sogar über den gesamten Zeitraum bis zum Lebensende des Netzteils. Aber woher nimmt man die Gewissheit? In beiden Fällen – besonders im Beispiel des Operationsverstärker-Abgleichs – kommt hinzu: Ist die Temperatur- und Alterungs-Drift des verwendeten Multimeters bekannt?

Viele Anwender gehen davon aus, dass qualitativ hochwertige Messgeräte seitens des Herstellers kalibriert sind und die initiale Kalibrierung für eine lange Zeit Gültigkeit hat. Auffallen wird eine Ungenauigkeit erst dann, wenn Messwerte sehr fragwürdig werden beziehungsweise wenn Vergleichsmessungen angestellt werden.

Oft werden mehrere Messgeräte des gleichen Typs gegeneinander verglichen. Das führt letztlich nicht zu einer Gewissheit über die Genauigkeit. Es ist zwar unwahrscheinlich, es kommt jedoch vor, dass eine komplette Serie von Messgeräten in die gleiche Richtung und mit gleichem Koeffizienten driftet. Es kann damit passieren, dass sich die gesamte Geräteserie außerhalb der Spezifikation befindet, was man dann nicht bemerkt. Am ehesten fällt auf, wenn jedes Gerät mit unterschiedlichem Koeffizienten in unterschiedliche Richtungen driftet.

Der einzige Weg, um eine definierte Genauigkeit zu erhalten und nachzuweisen, dass die Messgeräte im Spezifikations-Toleranzband liegen, ist, sie gegen eine bekannte und rückführbare Messgröße zu vergleichen. Dieses Herangehen wird „Kalibrierung“ genannt. Für viele Anwendungen genügt es, diesen Check durchzuführen und genau zu wissen, wie hoch die Abweichungen dieser Messanordnung sind. Eine offizielle Zertifizierung, für die die zu testenden Geräte in ein Kalibrationslabor gegeben werden müssen, ist bei einer großen Anzahl von Einsatzfeldern gar nicht nötig. Eine übliche und zuverlässige Praxis in diesen Fällen ist, mit sogenannten „Transferstandards“ zu arbeiten, die von einem Standardlabor zertifiziert sind, um die zu messenden Messgeräte im eigenen Labor zu qualifizieren. Mit ein wenig Mathematik lässt sich dann die zu erwartende Ungenauigkeit für das Messgerät errechnen.