Labormesstechnik Was hohe Digitizer-Auflösung bringt

Blue Eye
Bei Digitizern mit hoher Auflösung ist einiges zu beachten

Die zwei Hauptmerkmale von Digitizern sind Bandbreite und Amplitudenauflösung. Diese beeinflussen sich gegenseitig: Höhere Auflösung bedeutet niedrigere Bandbreite. Man muss daher bei der Digitizer-Auswahl oft einen Kompromiss eingehen. Dieser Artikel erläutert die Vorteile und Einschränkungen der hohen Auflösung (>12 bit) bei Digitizern mit hoher Bandbreite (>20 MHz).

Digitizer wandeln die Abtastwerte eines Analogsignals mit Hilfe von Analog/Digital-Umsetzern (ADCs) in digitale Werte um. Die Auflösung des ADC ist dabei definiert als die Anzahl der Bits, die er verwendet, um die Eingangswerte zu digitalisieren. Für einen ADC mit n bit Auflösung ist die Anzahl der erzeugbaren diskreten digitalen Stufen 2n. Also kann ein 12-bit-Digitizer 212 oder 4096 Stufen auflösen. Das Bit mit dem niedrigsten Wert (LSB, least significant bit) steht für das kleinste Intervall, das gemessen werden kann. Es beträgt bei einem 12-bit-Digitizer 1/4096 oder 2,4 ∙ 10–4. Um das LSB in eine Spannung umzurechnen, wird der Eingangsbereich des Digitizer durch 2n geteilt. Tabelle 1 zeigt in diesem Zusammenhang das LSB für einen Eingangsbereich von 1 V (±500 mV) für Digitizer mit Auflösungen von 8 bis 16 bit.

Auflösung Idealer Dynamikbereich Minimaler Spannungsschritt für ±500 mV Eingangsbereich 
 8 bit  256:1  3,92 mV

10 bit

1024:10,98 mV
12 bit

4096:1

0,244 mV

14 bit

16384:1

61 µV

 

16 bit

 

65536:1

15 µV  
Tabelle 1. Einige Werte-Parameter zu gebräuchlichen Amplitudenauflösungen in der Messtechnik

Die Auflösung bestimmt die Messgenauigkeit

Je höher die Auflösung des Digitizer, desto genauer die Messwerte. Ein Digitizer mit einem 8-bit- A/D-Wandler teilt den vertikalen Bereich des Eingangsverstärkers in 256 diskrete Stufen. Bei einer vertikalen Auflösung von 1 V kann der 8-bit-ADC auch im Idealfall keine Spannungsunterschiede auflösen, die kleiner sind als 3,92 mV. Ein 16-bit-ADC mit 65536 diskreten Stufen hingegen kann im Idealfall Spannungsunterschiede von bis zu 15 µV auflösen.

Ein Grund für den Einsatz eines hochauflösenden Digitizer ist das Messen kleiner Signale. Basierend auf der Methode, mit der der minimale Spannungswert berechnet wurde, könnte man ein Gerät mit einer geringeren Auflösung und einen kleineren Skalenbereich wählen, um kleinere Spannungen zu messen. Jedoch umfassen viele Signale sowohl kleine wie auch große Amplitudenwerte. Deshalb wird für Signale mit gleichzeitig großen und kleinen Amplitudenwerten ein Gerät mit hoher Auflösung benötigt, das über einen großen Dynamikbereich verfügt und damit gleichzeitig sowohl kleine als auch große Signale messen kann.

Nun ein Blick auf verschiedene Wellenformen, die durch Digitizer mit unterschiedlichen Auflösungen aufgezeichnet wurden. Bild 1 vergleicht die Kurven von idealen 12-, 14- und 16-bit-Digitizern mit einem Segment einer mit ±200 mV gedämpften Sinuswellenform. Das ausgewählte Segment befindet sich am Ende der Wellenform und hat eine geringe Amplitude.

Die 14- und 16-bit-Digitizer haben in diesem Fall noch eine ausreichende Auflösung, um das Signal genau darzustellen. Basierend auf einem Eingangsbereich von ±200 mV ist der 12-bit-Digitizer jedoch nicht in der Lage, Werte unter 100 µV aufzulösen. Der Ablesefehler wird bei beliebiger Auflösung mit abnehmender Signalamplitude größer. Hier wird immer der Idealfall betrachtet, später wird auf die Faktoren eingegangen, die die Genauigkeit und Präzision im Einsatz beschränken.

Auflösung versus Abtastrate

Wie bereits eingangs erwähnt, muss in der Regel ein Kompromiss zwischen Auflösung und maximaler Abtastrate und damit der Bandbreite eingegangen werden. Eine hohe Auflösung geht auf Kosten einer niedrigeren maximalen Abtastrate, wie Bild 2 zeigt.

Hier wird die maximale Abtastrate für verschiedene konkurrierende modulare Digitizer als Funktion der Auflösung dargestellt. Die 14- und 16-bit-Modelle der Serie Spectrum M4i sind mit ihrer höheren effektiven Abtastrate dargestellt.