Industrie-PC Rechenpower für Big Data

Mit zunehmender Automatisierung steigt die Datenmenge im industriellen Umfeld enorm an. Solche Datenmengen oder »Big Data« zu verarbeiten, ist eine besondere Herausforderung, da dies oft innerhalb der Maschine oder auf der Leitebene erfolgen muss. Hierfür ist die Leistung von Servern nötig – allerdings mit Industriemerkmalen.

Beim klassischen Aufbau von Produktionsanlagen erfassen Sensoren und Bilderfassungssysteme stetig Daten, die kleine, kompakte Box-PCs sammeln und zur Verarbeitung an leistungsstarke Rechnersysteme weiterleiten. Mit steigender »Intelligenz« der Anlage wächst die hier anfallende Datenmenge, die schnellstmöglich, idealerweise in Echtzeit, erfasst, gespeichert, weitergeleitet, bewertet und verarbeitet werden muss. Denn auf der Grundlage der Ergebnisse erfolgt die Steuerung der Maschine. Das bedeutet, dass auch die Anlagenebene hohe Rechenleistung erfordert, wie sie bislang nur auf Serverebene zu finden war.

Serversysteme lassen sich jedoch nicht ohne weiteres in Maschinen oder Produktionsumgebungen integrieren. Denn sie sind nicht für die hier herrschenden Umgebungsbedingungen mit Temperaturschwankungen, Schmutz und Staub, manchmal sogar giftigen Gasen, Chemikalien oder elektromagnetischen Strahlungen konzipiert, sondern für ideale Bedingungen in sauberen, vollklimatisierten Räumen. Auch mit ihren kurzen Lebenszyklen eignen sich die Servermodelle nicht für den Industrieeinsatz, wo Maschinen und Anlagen über viele Jahre ihren Dienst tun; Langzeitverfügbarkeit mit strenger Revisionskontrolle ist essenziell. Gefragt ist also Serverpower mit Industriemerkmerkmalen – oder »High Performance Computing« (HPC).

Hierfür kommen in den HPC-Modellen von InoNet Computer ausschließlich industrieharte Komponenten zum Einsatz, die gezielt für den industriellen Dauereinsatz entwickelt und für hohe Umgebungstemperaturen ausgelegt sind. Dazu zählen Mainboards, die dank Feststoffkondensatoren auch bei Umgebungstemperaturen von 0 °C bis +60 °C eine spezifizierte Lebensdauer von mehr als 80 000 Stunden haben. Hinzu kommen Kühlkonzepte mit einem deutlich höheren Luftdurchsatz als dies bei Servern der Fall ist. Im Rechner wird der Luftstrom so geleitet, dass er die warme Luft effizient abführt und alle kritischen Komponenten ausreichend kühlt.

Ist der Rechner Vibrationen ausgesetzt oder soll er in stehender Luft seinen Dienst tun, empfehlen sich passiv gekühlte Systeme. Dank Heatpipes und großflächigen Kühlkörpern können die Rechner auch bei Umgebungstemperaturen bis +60 °C ausreichend gekühlt werden. Mit ihren widerstandsfähigen Komponenten sind die HPC-Systeme zudem robust gegenüber Erschütterungen und Vibrationen bis 1 g, Staub und Schmutz.

In 19-Zoll-Ausführung stehen die HPC-Systeme als Single- und Dual-Xeon-Varianten mit bis zu 18 Kernen pro Prozessor zur Auswahl. Mit bis zu 256 GByte DDR4-Multi¬channel-Arbeitsspeicher erzielen die HPCs eine Transferrate von 2,133 MBit/s und eignen sich so für rechen- und speicherintensive Applikationen wie 3-D-Visualisierungen und Digitalisierungen oder die Datenauswertung in Automatisierungsanwendungen.

Anleihen aus der Grafikverarbeitung

Die aktiv oder passiv gekühlten kompakten Embedded-Modelle lassen sich mit bis zu vier PCIe-Steckplätzen zu hochspezialisierten Industrierechnern aufrüsten, beispielsweise mit Frame-Grabbern für jeweils 16 Kameras für die Oberflächeninspektion. Das aktuelle Modell »Mayflower-HPC-EM3« (Bild 1) lässt sich mit Abmessungen von 150 mm x 222 mm x 270 mm und 9 l Gehäusevolumen auch in platzkritische Umgebungen integrieren. Dabei liefert das System hohe Rechenleistung in zwei Varianten mit »Intel Core i7-4790S«-Prozessor der vierten Generation (Haswell Refresh) beziehungsweise einem Prozessor vom Typ »Xeon E3-1275v3«. Der Embedded-PC verfügt über 16 GByte DDR3-RAM und eine schock¬resistente 3,5-Zoll-SATA-3.0-Festplatte. Frontseitig besteht die Möglichkeit, das System um eine 2,5-Zoll-HDD/SSD zu erweitern.

Bei extrem großen Datenmengen reichen aber auch schnelle CPUs nicht mehr aus. Um trotzdem die Echtzeitverarbeitung zu gewährleisten, gibt es zwei Möglichkeiten: Entweder wird die IT-Infrastruktur um zusätzliche Systeme erweitert oder es werden noch leistungsfähigere Systeme eingesetzt. Letzteres hat den Vorteil, dass der Administrationsaufwand nicht weiter ansteigt.

Hier bietet sich das GPU-Computing an: Im Gegensatz zu CPUs, die Aufgaben schnell sequenziell abarbeiten, sind GPUs (Graphics Processing Unit) mit tausenden von Cores und entsprechender Software auf die parallele Verarbeitung spezialisiert. Entsprechend parallelisierbare Prozesse lassen sich also auf die GPU verschieben, während der Rest der Berechnung bei der CPU verbleibt.

Neben der Bildverarbeitung kommt GPU-Computing bereits in einigen Unternehmen zum Einsatz, zum Beispiel bei In-Line-Inspektion, also der Prüfung innerhalb der Fertigungslinie. Hier werden jedoch meist Grafikkarten aus dem Bereich der Computerspiele verwendet. Sie haben eine deutlich geringere Performance als die sogenannten GPGPU-Karten (General Purpose Graphics Processing Units), wie sie in den GPU-Servern von InoNet zum Einsatz kommen. So kann ein entsprechender 2-HE-GPU-Server bis zu vier Coprozessorkarten aufnehmen, etwa die »nVidia Tesla« mit je 5000 Kernen.

Weil im Maschinen- und Anlagenbau zur Rechnertechnologie das Prozessdesign kommt, ist das Ökosystem rund um das einzelne Gerät entscheidend. InoNet möchte seinen Kunden hier umfassende Unterstützung auf allen Ebenen bieten. Durch die Kombination unterschiedlicher Technologien mehrerer Hersteller und bei Bedarf selbstentwickelten Komponenten entstehen maßgeschneiderte Systeme für die verschiedensten Anwendungen.

Über den Autor:

Benedikt Merl ist Public Relations Manager bei InoNet Computer.