DESIGN&ELEKTRONIK Editorial Quality of Service

Der Zusammenhang zwischen formal spezifiziertem QoS-Maß und erlebter Servicequalität fällt oft weniger deterministisch aus, als auf dem Titelbild.

Was Gödels Gottesbeweis über Standardisierungsgremien verrät.

Das ewige Problem im Testdesign: Was die Testbench nicht spezifiziert hat gibt es nicht! Erfassen die vorgegebenen Dimensionen/Kriterien wirklich das gesamte Qualitätsspektrum? Passen die Dimensionen/Kriterien überhaupt zueinander?

Aus Sicht der Mathematik werden Sie mit solchen Fragen niemals fertig: Gödels Gottesbeweis zeigte, dass es möglich ist trotz formaler Vollständigkeit etwas auszulassen. Und wenn das, was Sie ignoriert haben ihr System wesentlich beeinflußt, sind Sie verloren. Neben der x-Achsen (Dimensionen) sollten Sie auch an der Zählfunktion zweifeln. Referenziert sie wirklich, oder vergleicht sie in Wahrheit nur mit einer Scheingröße.

Kompetente Verifizierer arbeiten deshalb heutzutage längst mit dynamischen Testbenches und versuchen die Güte der Testbench in jeder Iteration durch eine TestbenchBench zu erfassen.

Wer eine Testbench ad-hoc ohne Plausibilitätscheck akzeptiert überlässt ihrem Spezifikator fahrlässig ein Geschäftsmodell: Dann wird eine scheinbar werthaltige Größe maximiert, die aber am Ende des Tages keinen Wert trägt.
 
Quality-of-Service spezifiziert die Anforderungen an das Zusammenspiel eines zusammengesetzten Systems und in manchen Interpretationen mit dem Attribut "aus Anwendersicht". Man würde erwarten, dass eine Anforderung an die Gesamtheit relativ überschaubar formuliert werden kann: Pustekuchen, IEEE-Standards zählen hier gerne über zehn Zeilen formale Kriterien auf, die im Benchverfahren jeweils mit einer Prozentzahl versehen werden. Die Qualität aus Anwendersicht wird eben wieder auf eine formale unüberschaubare Ebene heruntergebrochen, die anders als in der Verifikationspraxis, starr bleibt.  

Ich hoffe, dass an der Formulierung solcher Sätze auch Experten für mathematische Logik beteiligt waren, wie in der formalen Verifikation üblich. Wenn diese gerade zu Tisch gewesen sind, kann insbesondere ein vielkomponentiges System derart konstruiert werden, dass es unter mäßiger Performanz diesen Score maximiert. Wenn Quality-of-Service zum Investitionskriterium wächst, verdrängt die möglichst effiziente Scoremaximierung, die tatsächliche Technologieevolution.

Über die Vorzüge der steigenden Vernetzungsdichte wurde nun einige Zeit gesprochen: Datenraten sollen ebenso ansteigen wie die Anzahl vernetzter Geräte und ihre Flächendeckung. Es wirkt attraktiv jeden beliebigen Punkt mit einem funkenden Knoten auszurüsten und in der Fusion von Daten und Services einen Mehrwert im Feld zu generieren.

Die Industrialisierung dieser Vision benötigt aber auch eine formale Verifikation ohne Schwachstellen. Ansonsten wird massiv semi-funktionale Halbleiterelektronik an jeder möglichen Stelle integriert, die in der Vernetzung aus Interoperabilitätsgründen keinen refinanzierbaren Mehrwert bringen kann und damit auch ökologisch in Frage zu stellen ist.

So eine Verifikation gestaltet sich aber erheblich schwieriger als im Verbrauchersegement, weil die Umgebungen dieser Knoten sehr viel stärker fluktuieren, als ein definierter Serverraum, oder das Wohnzimmer in dem der Router steht.

In der Beleuchtungsindustrie wird Quality-of-Service mittlerweile bionisch interpretiert: Nachdem der Kerntreiber Energieeffizienz über knapp zwei Jahrzehnte hinweg an dem bekannten "15 Watt sieht aus wie 100 Watt und hält fast 10 Jahre" angelangt ist, wird die Qualität im Vergleich des erzeugten Farbspektrums mit dem Sonnenlicht gemessen. In der massiven Nutzung hinterleuchteter Geräte, durch alle Lebensbereiche hinweg, ist aber ohnehin weniger Leuchtkraft gefordert. Über die sinkende Lichtverschmutzung freuen sich nicht nur Astronomen.

Mein Tipp: Prüfen Sie diese Behauptung einfach mal bei einem abendlichen Stadtspaziergang. In München Schwabing scheint der Trend klar: Lieber weniger Licht und dafür ein besseres.