Schwerpunkte

FPGAs erobern industrielle Anwendungen

EDGE-Computing für KI braucht Leistung und Flexibilität

23. Januar 2020, 06:00 Uhr   |  Von Patrick Dorsey

EDGE-Computing für KI braucht Leistung und Flexibilität
© Peshkova | Shutterstock

Mit Industrie 4.0 steigen die Datenmengen und die Anforderungen hinsichtlich Datenübertragung und -verarbeitung. Für Patrick Dorsey von Intel ist klar, dass die benötigte Rechenleistung näher zur Datenquelle rücken muss. Doch Edge-Computing muss energieeffizient und skalierbar zugleich sein.

Die Industrie insgesamt steht im Jahr 2020 vor interessanten Zeiten, da das Wachstum industrieller Anwendungen und der KI (Künstliche Intelligenz) die weltweite Nachfrage fördert. Die Einführung des Begriffs »Industrie 4.0« ist ein zweischneidiges Schwert. Einerseits ist das Potenzial der vernetzten Fabrik auf allen Ebenen sehr sinnvoll – von fortschrittlicheren Steuerungen bis hin zu Anwendungen wie der vorbeugenden Wartung.

Andererseits gibt es viele Unwägbarkeiten, was Industrie 4.0 bei der eigentlichen Umsetzung wirklich bedeutet. Diskussionen über den Austausch vertraulicher bzw. sensibler Daten mit Cloud-Anwendungen sowie die Herausforderungen bei Echtzeitsteuerungen führen zu zahlreichen Sicherheitsbedenken.

Industrie 4.0 braucht Daten und Datenleitungen

Mit zunehmender Reife des Industrie 4.0 wird immer deutlicher, dass dieser Übergang auf zwei Kernkonzepten beruht: Daten und Datenübertragung. Die Daten werden von »Dingen« am Netzwerkrand (Edge) gesammelt, die von Sensoren bis hin zu Steuerungen reichen, die Datenübertragung sorgt für den Austausch dieser Daten.

Einige dieser Daten werden mit Cloud-Diensten geteilt, die eine Fernauswertung und gemeinsame Analyse ermöglichen. Dies erfolgt allerdings nur mit einem begrenzten Datensatz, bei dem ein eindeutiger Mehrwert besteht. Zunehmend werden jedoch private Clouds entwickelt, um die Vorteile von Industrie 4.0 zu nutzen und gleichzeitig das Risiko zu minimieren, dass schlechte Akteure Zugang zu sensiblen Daten erhalten.

FPGAs ermög­lichen es, die nicht vernetzten, älteren Feldbusprotokolle mit modernen Techniken wie z.B. zeitkritischer Vernetzung (TSN, Time-Sensitive Networking) über Ethernet und OPC-UA (Unified Architecture) zu verknüpfen, um diese Daten nach Bedarf für die Analyse freizugeben.

Gegen hohe Latenz: EDGE-Computing

Patrick Dorsey von Intel sagt
© Intel

Patrick Dorsey von Intel sagt

Angesichts problematischer Latenzzeiten gewinnt Edge-Computing zunehmend an Bedeutung und erfordert daher leistungsstarke Algorithmen, die zusammen mit anderen Aspekten in Betracht gezogen werden müssen. Dazu zählen auch die Sicherheitsbedenken bei der Entwicklung der für die Datenerfassung erforderlichen Infrastruktur.

In einer Vorhersageanalyse liefern die gesammelten Daten beispielsweise ein dringend benötigtes Basisprofil ideal funktionierender Geräte, das eine gemeinsame Analyse zwischen Lieferant und Anwender ermöglicht. Auf diese Weise wird das Konzept der Industrie 4.0 wahrlich genutzt – auch wenn es nicht in der durch den Hype definierten Weise umgesetzt wird.

Dennoch gibt es viele Hürden, mit denen Betreiber industrieller Systeme zu kämpfen haben. Es ist oft einfacher, mit dem jetzigen Wissensstand fortzufahren, als ein System zu implementieren, das auf Techniken basiert, für die noch keine Erfahrungen vorliegen.

Entscheidend dabei ist, kontinuierlich in die Forschung zu investieren und neue Techniken im Kontext der Vorhaben zu bewerten, um so festzustellen, wo die tatsächlichen Effizienz- und Verbesserungspotenziale liegen. Wenn diese dann die Ergebnisse liefern, die für Lieferanten und Kunden von Wert sind, sollten sie weiterverfolgt werden

Skalierbare Datenverarbeitung mit programmierbarer Logik

Ein Schwerpunkt ist die schnelle Skalierbarkeit eines industriellen Systems, um vorübergehend unerwartete Anforderungen zu erfüllen oder auf eine Phase schnellen Wachstums zu reagieren. ICs mit festen Funktionen machen in solchen Fällen den programmierbaren Funktionen Platz – aber es muss nicht unbedingt ein harter Wechsel stattfinden. Hybride Ansätze erlauben es, das Beste aus Alt und Neu zu nutzen.

Der alte Ansatz bietet durch spezielle ICs oft eine geringere Latenz und damit schnellere Reaktionszeiten. Neue Schaltungen ermöglichen virtualisierte Steuerungssysteme; bieten die Flexibilität, ein Backup für kritische Anwendungen bereitzustellen und ermöglichen Skalierbarkeit, um Verarbeitungsressourcen entsprechend den aktuellen Anforderungen besser zu verteilen. Diese Flexibilität bleibt durch die einfache Rekonfiguration FPGA-basierter Plattformen erhalten.

Patrick Dorsey von Intel meint
© Intel

Patrick Dorsey von Intel meint

Die mit Abstand größte Herausforderung für die Industrie ist die künstliche Intelligenz (KI) oder, realistischer ausgedrückt, der Einsatz neuronaler Netze und maschinelles Lernen. Dies erfordert ein durchdachtes Konzept, bei der Prozessoren in jeder Phase eine Rolle spielen.

Viele der heutigen FPGA-basierten Anwendungen konzentrieren sich auf Bildverarbeitungssysteme, bei denen Toolkits wie OpenVINO zum Einsatz kommen. Es gibt aber noch viele ungenutzte Bereiche, die noch zu bewerten sind. Hier muss der Fokus wirklich auf Anwendungen liegen, bei denen kausale

Zusammenhänge aus den aggregierten Daten mehrerer Prozesse ermittelt werden können. Hardware wie die Programmable Acceleration Card (PAC) in Verbindung mit dem oneAPI-Toolkit ist ein Element beim Einsatz von FPGAs, um eine schnelle Verarbeitung dieser Daten zu ermöglichen – in Systemen, die hinsichtlich Stromaufnahme, Kosten und Formfaktor beschränkt sind und sich sehr wahrscheinlich am Netzwerkrand befinden.

Anbieter, die dieses Leistungsspektrum über mehrere skalare, Vektor-, Matrix- und räumliche (SVMS) Architekturen in CPUs, GPUs, KI und anderen Beschleunigern bereitstellen können, sind entscheidend für den Erfolg der Entwickler, die sie einsetzen wollen.

Wer diese leistungsstarke Datenverarbeitung nutzen möchte, sollte einen abgestuften Ansatz wählen, um nicht überfordert zu sein. In einer ersten Phase wird die komplexe Ereignisverarbeitung (CEP, Complex Event Processing) untersucht, in der zweiten Phase werden dann neuronale Netze zur Synthese und Schulung maschinell lernender Modelle und zum Erstellen maschinell erlernter Datenbanken zum Einsatz kommen. Die finale Phase dann darin, diese Datenbanken durch eine auf einer FPGA-fähigen Plattform implementierte KI zu nutzen, mit dem Ziel, optimale Aktionen zu ermitteln oder sogar automatisch umzusetzen.

Der Autor

Patrick Dorsey von Intel
© Intel

Patrick Dorsey von Intel

Patrick Dorsey

Vice President in der Network and Custom Logic Group (NCLG) und General Manager für FPGA und Power Product Marketing, Intel Corporation, leitet die Marketingaktivitäten der Network and Custom Logic Group für Intels programmierbare Logik-ICs (FPGAs), Software und Entwicklungswerkzeuge, geistiges Eigentum und Hardwarebeschleuniger-Plattformen.

Er kam 2016 als Senior Director im ­FPGA Product Marketing zu Intel, einer Position, die er bei Altera innehatte, als Altera von Intel übernommen wurde. Dorsey verfügt über mehr als drei Jahrzehnte Erfahrung in den Bereichen General Management, Vertrieb, Consulting, Marketing, strategische Planung und operatives Management in der Hard- und Softwaretechnik sowie Professional Services. Bevor er zu Intel kam, hatte Dorsey Führungspositionen bei Texas Instruments, Deloitte Consulting, Sun Microsystems, Xilinx und Altera inne.

Dorsey hat einen Bachelor-Abschluss in Computertechnik von der Universität von Michigan, Ann Arbor, USA, und einen MBA-Abschluss von der Universität von Michigan, Ross School of Business, Ann Arbor.

tanya.van.langenberg@intel.com

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

INTEL GmbH