Mustang-F100-A10 nutzt hingegen ein FPGA für die Beschleunigung und bei Mustang-V100-MX8 kommt Intels KI-Prozessor Movidius zum Einsatz. Bei Auslieferung ist der Tank-870AI bereits mit einer 1-TB-2,5-Zoll-Festplatte ausgestattet und unterstützt einen weiteren Massenspeicher mit RAID-0/1-Funktionalität. Als Ready-to-Use-Software wird auf das Open Visual Inference & Neural Network Optimization Toolkit (OpenVINO) von Intel gesetzt. Es vereint verschiedene Tools wie das Intel Deep Learning Deployment Toolkit, optimierte Computer-Vision-Bibliotheken, Intel-Media-SDK-OpenCL-Grafiktreiber und -Laufzeitsystem sowie aktuelle Topologien wie AlexNet, GoogleNet und viele mehr. Mit OpenVINO können so Deep-Learning-Trainingsmodelle wie die von Caffe, MXNET und Tensorflow, Hardware übergreifend mit CPU, GPU oder den Mustang-Beschleunigungskarten optimiert werden.
VIA Technologies nutzt den Snapdragon 820E von Qualcomm als Ausgangsbasis für sein „Alta DS 3Edge AI System“. Um die Entwicklung von Software und KI-basierten Anwendungen zu erleichtern, wird das System mit einem BSP (Board-Support-Package) für Android 8.0 ausgeliefert. Darin enthalten ist das Qualcomm Neural Processing SDK für künstliche Intelligenz, um Entwicklern zu helfen, ein oder mehrere neuronale Netzwerkmodelle zu betreiben, die in Caffe/Caffe2, ONNX oder TensorFlow ausgebildet sind, egal ob es auf der CPU, GPU oder DSP läuft.
Zusätzlich zur Unterstützung dualer Wiedergaben in 4K einschließlich Dual-Display-Spiegelung und unabhängigen Video-Wiedergabemodi bietet das System dank seines Gigabit-Ethernet-Ports sowie verschiedener Optionen zur Integration via WLAN- und Bluetooth 4.1- oder LTE-Technologie auch eine umfangreiche Netzwerkkonnektivität. Das robuste Gehäuse mit kleinem Formfaktor bietet zudem flexible Erweiterungsmöglichkeiten für Kamera- und I/O-Peripherie mittels dreier USB-3.0-Anschlüsse, einem Mini-USB-2.0-Anschluss und einen MiniPCIe-Steckplatz. Darüber hinaus verfügt das System über 4 GB LPDDR4-RAM, 16 GB eMMC-Flash-Speicher, einen M.2-Slot, ein SD-Karten-Slot sowie Audiobuchsen für Line-out und Mic-in.
Alle beschriebenen Rechnersysteme beweisen recht eindrucksvoll, dass KI-Anwendungen nicht zwangsweise in einer Cloud laufen müssen, sondern durchaus auch vor Ort ausführbar sind.