Multi-ToF-Lösung von Becom Systems Vier 3D-ToF-Sensoren an einem CPU-Board

Das ToF-Frontend beherbergt die Beleuchtung und den ToF-Sensor.
Das ToF-Frontend beherbergt die Beleuchtung und den ToF-Sensor.

Becom Systems hat auf der embedded world eine Multi-ToF-Plattform (Time of Flight) als Embedded-Computing-Basis für mehrere parallel arbeitende ToF-Sensoren vorgestellt. Ihre zentrale Recheneinheit beruht auf dem Deep-Learning-fähigen Processing-Modul Nvidia-Jetson-TX2.

Die Multi-ToF-Plattform ermöglicht es, bis zu vier verschiedene Sensoren zu integrieren und in unterschiedlichen Konstellationen – etwa 2D- und 3D-ToF-Sensoren – zu kombinieren. Prinzipiell lässt sich jedoch bildgebende Sensorik aller Art integrieren, so dass die Plattform Systemintegratoren, Software-Anbietern und Produktentwicklern eine kompakte und flexibel einsetzbare Lösung bietet, die sich typischerweise für die Mensch-Maschine-Interaktion an Terminals, die kollaborative Robotik, die Hinderniserkennung autonomer Systeme sowie für Sensorfusion, Personenerfassung, Fahrerüberwachung und Gestensteuerung eignet. Der Einsatz von vier unabhängigen Sensoren zahlt sich vor allem dann aus, wenn eine Person oder ein Gegenstand eine Kamera verdeckt.

»In der mobilen Robotik ergeben sich Anforderungen an ein ToF-System, die sich mit einzelnen Industriekameras nur bedingt abdecken lassen: erstens der Wunsch, alles im Blick zu behalten, was einen Öffnungswinkel von idealerweise 360 Grad bedeutet, und zweitens die Kombination mit weiteren Informationen, etwa eine Sensorfusion der 3D-Daten mit Farbinformationen oder Infrarotbildern«, erläutert Thomas Maier, Head of Sales & Marketing bei Becom Systems. »Mit der neuen Multi-ToF-Plattform lassen sich diese Wünsche jetzt alle abdecken.«

Die Multi-ToF-Plattform besteht aus zwei Teilen: dem ToF-Hub und dem ToF-Sensor-Frontend. Der ToF-Hub bietet Anschlüsse für vier ToF-Frontends und enthält das Nvidia-Jetson-TX2-Modul, das mit einer Pascal-GPU und einer Denver-2-Dualcore-CPU von Nvidia sowie einer Quadcore-ARM-Cortex-A5-CPU ausgestattet ist. Das ToF-Frontend beherbergt die Beleuchtung und den ToF-Sensor. ToF-Hub und ToF-Frontend sind über eine zweiadrige serielle Verbindung verbunden – entweder ein Koax- oder ein STP-Kabel (Shielded Twisted Pair) –, die auch die Stromversorgung des ToF-Frontends bereitstellt. Hierbei sind, je nach Anwendungsgebiet, auch Kabellängen von mehreren Metern realisierbar.

Das erste verfügbare ToF-Sensor-Frontend für die Multi-ToF-Plattform ist ein 55 mm x 55 mm großes Modul zur Erfassung des Nahbereichs. Es bietet eine 110-Grad-Weitwinkel-Optik und einen ToF-Sensor mit 320 x 240 Bildpunkten Auflösung. Das ToF-Frontend lässt sich etwa in Leichtbauroboter oder Greifer integrieren, und bei entsprechender Anordnung ist eine 360-Grad-Sicht mit einem vertikalen Öffnungswinkel von 70 Grad möglich.

Die ToF-Sensor-Frontends liefern Rohdaten einer 3D-Szene, die mit dem integrierten ToF-Sensor und der Beleuchtung aufgenommen wurde. Sie sind dafür ausgelegt, die Pixel-Daten im 12-Bit-Raw-Modus über einen FPD-III-Serializer zum ToF-Hub zu streamen. Als Programmier-Schnittstelle können Entwickler und Programmierer auf das Nvidia-Ecosystem zurückgreifen, das diverse Deep-Learning-Tools wie TensorRT oder cuDNN bietet.