Rechnergestützte Messtechnik Messkarten mit 16 bit Auflösung - ein Muss für den Anwender?

Neue Messwerterfassungs-Boards mit Abtastraten bis etwa 50 oder 100 MS/s haben meist eine A/D-Umsetzer-Auflösung von 16 bit. So auch die hier beispielhaft erläuterte Karte, die in einen Vergleich zu 12- und 14-bit-Boards gesetzt wird.

Rein rechnerisch löst eine 12-bit-Karte das Eingangssignal in 212, also 4.096 Stufen (bei 14 bit sind es 16.384) auf, während bei 16 bit 216 (also 65.536) Stufen zur Verfügung stehen. Bei einem Eingangsbereich von ±1 V, entsprechend 2 V Peak to Peak, löst also jede einzelne Stufe des A/D-Umsetzers bei 12 bit ca. 500 μV, bei 14 bit ca. 125 μV und bei 16 bit unglaubliche 30 μV auf. Kann man ein Signal von 100 μV also mit einer 16-bit-Karte sehen?

Die Unterschiede zwischen 12, 14 und 16 bit

Das 100-μV-Signal kann man so leider noch nicht sehen. Denn was hier bei dem rein rechnerischen Ansatz komplett ignoriert wurde, sind die verschiedenen Rauschquellen, die das ideale Signal verschlechtern. So hat jeder A/D-Umsetzer ein Quantisierungsrauschen, der Vorverstärker vor dem Umsetzer steuert einen Rauschanteil bei, die Spannungsversorgung innerhalb des PC wird gefiltert, enthält aber immer noch einen Rausch-anteil, und zu guter Letzt befindet sich ja auch die Quelle in der realen Welt und gibt zusätzlich zu dem Nutzsignal einen Rauschanteil aus.

Was bleibt also von dieser nominell 16-fach feineren Auflösung in einer realen PC-Umgebung übrig? In Bild 1, aufgenommen mit der Messtechnik-Software „SBench 6“ der Spectrum GmbH, sieht man den offenen Eingang sowohl der 12-bit-Karte M2i.3131 (4 Kanäle, 12 bit, 25 MS/s) in Rot dargestellt als auch (in Grün) den offenen Eingang der 16-bit-Karte M2i.4963 (4 Kanäle, 16 bit, 30 MS/s). Aufgrund der eben aufgeführten unabhängigen Rauschquellen sowie des höheren Eigenrauschens gemessen in LSB eines 16-bit-A/D-Umsetzers im Vergleich zu einem 12-bit-Umsetzer sieht die Realität also deutlich ernüchternder aus.

Signalqualität vergleichen

Die reine A/D-Auflösung reicht als Vergleichskriterium natürlich nicht aus. Die meisten Entwickler kennen aus den Datenblättern schnellerer Produkte die Fachbegriffe SNR, THD, SFDR und ENOB (Signal/Noise Ratio, Total Harmonic Distortion, Spurious Free Dynamic Range, Effective Number Of Bits). Diese werden aus dem Frequenzspektrum eines möglichst idealen, also rausch- und verzerrungsarmen Sinus berechnet. Leider ist die Bereitstellung einer solchen Sinusquelle, besonders bei 16 bit A/D-Umsetzer-Auflösung, nicht ganz einfach und erfordert professionelle Geräte sowie speziell angepasste Filter. Denn man will ja die Qualität der Messkarte sehen und vergleichen und nicht die Qualität der Signalquelle. Sofern man nicht ein eigenes, sehr gut ausgestattetes Labor hat, bleiben hier zum Vergleich die Angaben des Herstellers aus dem Datenblatt.

Aus den FFT-Plots berechnet man SNR (Signal/Noise Ratio), also den Signal-Rausch-Abstand, THD (Total Harmonic Distortion), also die harmonischen Verzerrungen üblicherweise der sechs ersten Oberwellen, und SFDR (Spurious Free Dynamic Range), also den störungsfreien Dynamikbereich. Aus diesen Werten wieder errechnet man SINAD (Signal to Noise and Distortion), bei manchen Herstellern auch THD+N genannt, sowie die ENOB (Effective Number Of Bits). Letzter Wert wird gerne als Vergleich zwischen den Produkten verschiedener Hersteller herangezogen. Doch bei diesem Vergleich muss man aufpassen. Jeder der hier vorgestellten Werte gilt immer nur für einen Eingangsbereich und für ein Quellsignal einer bestimmten Frequenz.

Ferner gibt es leider zwei Methoden, die ENOB zu berechnen, einmal auf Basis des SINAD, also der Rauschanteile und der Verzerrungen, und einmal auf Basis des SNR, also nur der Rauschanteile. Naturgegeben sind die ENOB-Werte, die die Verzerrung ignorieren, natürlich deutlich schöner. Bei Spectrum geht man den universellen Weg und gibt einfach beide Werte zur besseren Vergleichbarkeit an. Vorsichtig sollte man sein, wenn ein Hersteller nur absolute Werte angibt, ohne das Messverfahren oder die Berechnungsgrundlage zu erläutern. Eine Pauschalaussage „Das Produkt hat 76 dB SNR“ sagt leider überhaupt nichts aus, weil dieser Wert garantiert nicht für jeden Eingangsbereich und jede Eingangsfrequenz gilt. Auch ist ein gezieltes Nachfragen angeraten, wenn ein Wert, üblicherweise die Verzerrung THD, komplett fehlt. Das deutet meistens auf eine so große Verzerrung hin, dass der Hersteller diese lieber nicht publiziert haben möchte.

In Bild 2 sieht man die beiden FFT-Plots der oben bereits genutzten 12-bit- und 16-bit-Karten. Beide Aufnahmen wurden mit gering unterschiedlicher Frequenz gemacht, um beide Signale in einem Fenster ohne Überdeckung darstellen zu können. Als Signalquelle kam ein Signalgenerator von Agilent zum Einsatz mit einem nachgeschalteten Bandpass 7. Ordnung mit engem Durchlassbereich. Beim Vergleich der gemessenen bzw. berechneten Werte sieht man doch signifikante Unterschiede zwischen der 16-bit- und der 12-bit-Karte. Neben dem um 10 dB verbesserten SNR-Wert fällt besonders der fast 20 dB bessere THD-Wert der 16-bit-Karte auf. Grund ist der bei der neuen M2i.49xx-Serie diskret und optimiert aufgebaute Vorverstärker, der im Vergleich mit dem integrierten Instrumentenverstärker auf der älteren M2i.31xx-Serie deutlich bessere Parameter, vor allem bezüglich Verzerrung, liefert. Anschluss des Signals, Eingangsbereiche, Single-ended, differenziell. In der Regel hat man als Anwender ein paar Sensoren oder Ausgangssignale des Testgerätes, die einen definierten Ausgangspegel liefern. Auf der Erfassungsseite sollte man den Eingang möglichst an dieses Signal anpassen können, um die 16 bit Auflösung auch nutzen zu können. Idealerweise findet man einen Eingangsbereich, der den maximal zu erwartenden Signalhub abdeckt. Hier sind auf der Erfassungsseite viele in Hardware realisierte Eingangsbereiche von Vorteil; die neu vorgestellte M2i.49xx bietet z.B. sechs per Software einstellbare Bereiche zwischen ±200 mV und ±10 V.