Keysight Technologies Machine Learning in der Messtechnik

Bild 1: Systemarchitektur einer Software zur Analyse von Langzeit-Signalformen

In vielen Anwendungen ist es wichtig, das Verhalten von Signalformen über lange Zeiträume zu verstehen. Mit einer neuen, von Keysight entwickelten Technik des maschinellen Lernens lassen sich große Signalform-Datenbanken effizient analysieren und Anomalien in diesen Datenbanken schnell lokalisieren.

Von Alan Wadsworth, Business Development Manager, und Masaharu Goto, leitender Forschungsingenieur, beide bei Keysight Technologies

Wesentliche Funktionen vieler elektronischer Geräte und Systeme müssen über lange Zeiträume fehlerfrei ausgeführt werden. Beispielsweise können sich elektronische Stromnetze, Telekommunikationssysteme und implantierte medizinische Geräte keinen Fehler leisten, der auch nur einmal bei Millionen von Ereignissen auftritt. Aber offensichtlich stellt die Fähigkeit, extrem seltene Anomalien zu erfassen und zu isolieren, die größte Herausforderung dar, um dieses Maß an Zuverlässigkeit zu gewährleisten. Die Überwachung der Spannung ist bei der Erkennung feinster Geräte- oder Systemprobleme nicht effektiv, weil sie in der Regel so gut kontrolliert wird, dass kleinste Abweichungen nur schwer zu erkennen sind.

Im Gegensatz dazu enthalten Stromkurven viel aussagekräftigere Informationen über den Geräte- oder Systembetrieb. Weil Strom-Signalformen jedoch schnell über weite Dynamikbereiche schwanken können, ist es wichtig, sie mit einer hohen Abtastrate abzutasten, um ihre volle Bandbreite zu erfassen. Dadurch können riesige Datendateien entstehen. So entstehen bei der Erfassung von Daten mit 10 MSamples/s über einen Zeitraum von 24 Stunden Datendateien von mehr als 1 Terabyte. Das Durchsuchen einer so riesigen Datenbank nach anomalen Ereignissen ist offensichtlich eine gewaltige Aufgabe.

Bislang nur mit Einschränkungen möglich

Bis vor Kurzem gab es keine Lösungen, die die beschriebenen Hardware-Anforderungen erfüllen konnten. Datenlogger können große Datenmengen erfassen, aber sie haben eine relativ geringe Bandbreite und können leicht hochfrequente Signalanteile übersehen. Herkömmliche Oszilloskope sind gut in der Erfassung von Signalen mit hoher Bandbreite, aber sie haben nur begrenzte Möglichkeiten zur Datenspeicherung. Selbst Hochleistungsoszilloskope mit großer Speichertiefe können keine Daten mit einer hohen Abtastrate über Zeiträume von Stunden oder Tagen erfassen. Die Stromtastköpfe von Oszilloskopen haben auch nicht ausreichend Dynamikbereich, um sowohl niedrige als auch hohe Ströme zu erfassen. Schließlich unterstützt keine der beiden Hardware-Lösungen ein effizientes Verfahren zur Analyse der von ihnen erfassten Daten und zur schnellen Identifizierung von Anomalien. Das wird zu einem Problem der Big-Data-Analyse.

Machine Learning, die Big-Data-Lösung

Eine Lösung zur Bewältigung dieser Art von Big-Data-Herausforderungen ist maschinelles Lernen. Eine erste untersuchte Technik waren Deep Learning Neural Networks (DLNNs), die sich bei der Bild- und Spracherkennung als sehr erfolgreich erwiesen haben. Leider erwies sich die DLNN-Technologie bei der Anwendung auf die Analyse von Signalform-Datenbanken als geringfügig leistungsfähig und erforderte darüber hinaus erhebliche Rechenleistung. Zur Analyse großer Signalform-Datenbanken mussten die Forscher von Keysight neue, für diesen Zweck optimierte Techniken des maschinellen Lernens entwickeln. Diese neue Lösung wurde über einen Zeitraum von fünf Jahren entwickelt und umfasst Clustering, unbeaufsichtigtes maschinelles Lernen und proprietäre Techniken zur Datenbankkomprimierung. Sie kann Signalform-Datenbanken im Terabyte-Bereich um Größenordnungen schneller als herkömmliche Techniken analysieren, während sie auf einem PC-basierten Laborgerät läuft.

Bild 1 zeigt die Systemarchitektur der Software zur Analyse von Langzeit-Signalformen. Sie besteht aus drei Komponenten.

Das Erfassungs-Subsystem sortiert eingehende Daten während der Erfassung in Echtzeit vor. Das Echtzeit-Tagging ist das wichtigste Modul im Erfassungs-Subsystem, da es die eingehenden Signalform-Segmente vorsortiert. Ähnliche Signalform-Segmente werden gruppiert und als Bestandteile eines Tags registriert. Hierbei ist zu beachten, dass die Vorsortierung nicht perfekt sein muss; sie muss nur genügend Informationen enthalten, um eine Analyse nach der Verarbeitung zu ermöglichen.

Das Datenbank-Subsystem besteht aus der Tag-Datenbank und der verlustfreien Datenbank. Die Tag-Datenbank ist eine prägnante Zusammenfassung vorsortierter Signalform-Segmente. Sie bietet einen schnellen Überblick über die Langzeitaufzeichnung. Die verlustfreie Datenbank ist ein vollständiges Archiv der gesamten Langzeit-Signalformaufzeichnung. Sie ermöglicht eine schnelle Abfrage der Wellenform an jedem beliebigen Ort einer riesigen Datenbank nach Zeit oder Signalformähnlichkeit. Die Größe der Tag-Datenbank liegt zwischen einem Hundertstel und einem Fünfhundertstel der Größe der verlustfreien Datenbank. Diese Konfiguration ermöglicht eine große Flexibilität in Bezug auf Datenverwaltung und -analyse.