GPU Technology Conference 2019 Nvidia verschmilzt KI mit Robotik

Nvidia-CEO Jensen Huang stellt auf der GTC 2019 »Jetson Nano« vor.
Nvidia-CEO Jensen Huang stellt auf der GTC 2019 »Jetson Nano« vor.

Die »Jetson«-Familie für Embedded-Anwendungen hat Zuwachs bekommen. »Jetson Nano« heißt der jüngste Spross. Damit man mit ihm auch etwas anfangen kann, kooperiert Nvidia mit AWS bei der KI-Cloud-Umgebung »IoT Greengrass« und dem »RoboMaker«, mit dem sich Robotik-Anwendungen entwickeln lassen.

Nvidia baut seine Jetson-Familie für Embedded Anwendungen aus. Während im August 2018 mit dem »Jetson Xavier« ein neues Flaggschiffprodukt aufgelegt wurde, hat Nvidia auf der GTC 2019 in San Jose nun die Familie nach unten mit dem »Jetson Nano« erweitert. Zum neuen Jetson Einstiegsprodukt für Maker, Entwickler und Studenten gehört auch »IoT Greengrass« von Amazon Web Services (AWS), das es Nvidia Jetson nun ermöglicht, Künstliche Intelligenz (KI) nahtlos in Edge-Geräten einzusetzen. Darüber hinaus beschleunigt Nvidia nun die Robotik-Entwicklung von der Cloud zum Edge mit AWS »RoboMaker« und schließlich bringt das neue »Nvidia Isaac SDK« KI auf autonome Maschinen.

Jetson Nano zum kleinen Preis

Mit einem Preis von 99 Dollar ist das neue kleinste Jetson-Familienmitglied »Jetson Nano« ziemlich preisgünstig. So wenig kostet das zugehörige Entwicklungskit auf der GTC 2019 für die Teilnehmer. Jetson Nano ist künftig in zwei Versionen erhältlich, dem 109 Dollar teuren Devkit für Entwickler, Maker und Enthusiasten und dem serienreifen Modul für Unternehmen für 129 Dollar, die Edge-Systeme für den Massenmarkt entwickeln wollen. Nvidia-CEO Jensen Huang verspricht sich davon, dass damit deutlich mehr Anwendungen am so genannten Edge mit KI-Funktionen ausgestattet werden können, für die das bisher zu teuer gewesen wäre. Was man damit machen kann, demonstrierte Huang anhand des autonomen Mini-Roboters Kaya, der vom Nano gesteuert wurde.
Der Jetson Nano liefert mit einer 64-bit-Quad-Kern-CPU ARM A57 und der eigenen 128-Kern-Maxwell-GPU eine Rechenleistung von 472 GFlops und das bei nur 5 W Leistungsaufnahme. Das Kit umfasst 4 GByte an LPDDR4-Speicher sowie folgende Schnittstellen 4x USB 3.0, 1x MIPI, 1x HDMI/DisplayPort, 1x Gbit/s-Ethernet, 1x PCIe und einen MicroSD-Slot. Der eingebaute Video-Encoder schafft 4K Pixel mit 30 fps bei 1080p, der Decoder 4K Pixel mit 60 fps bei 1080p. Das Jetson Nano Developer Kit misst nur 80 x 100 mm2. Die Ports und der GPIO-Header funktionieren sofort nach dem Auspacken mit einer Vielzahl gängiger Peripheriegeräte, Sensoren und einsatzbereiter Projekte, wie z.B. dem 3D-druckbaren Deep Learning »JetBot«, den NVIDIA auf GitHub Open-Source zur Verfügung stellt.
Das Devkit besteht aus einem 260-poligen SODIMM-ähnlichen System-on-Module (SoM), das SoM Prozessor-, Speicher- und Power-Management umfasst. Das Jetson Nano-Compute-Modul hat eine Größe von 45 x 70 mm2 und wird ab Juni 2019 für 129 US-Dollar (in einem Volumen von 1000 Stück) für Embedded-Designer zur Integration in Produktionssysteme ausgeliefert. Das produktionsreife Rechner-Modul beinhaltet 16 GB eMMC-Onboard-Speicher und erweiterte I/Os mit PCIe Gen2 x4/x2/x1, MIPI DSI, zusätzlichem GPIO und 12 Lanes MIPI CSI-2 zum Anschluss von bis zu drei x4-Kameras oder bis zu vier Kameras in x4/x2-Konfigurationen. Das Unified Memory-Subsystem von Jetson, das von CPU-, GPU- und Multimedia-Engines gemeinsam genutzt wird, bietet eine optimierte ZeroCopy-Sensor-Ingest-Funktion und effiziente Verarbeitungspipelines.

Bilder: 8

Nvidia verschmilzt KI mit Robotik

Die »Jetson«-Familie für Embedded-Anwendungen hat Zuwachs bekommen. »Jetson Nano« heißt der jüngste Spross. Damit man mit ihm auch etwas anfangen kann, kooperiert Nvidia mit AWS bei der KI-Cloud-Umgebung »IoT Greengrass« und dem »RoboMaker«, mi

Das ebenfalls neue JetPack 4.2 SDK für den Nano bringt ein komplettes Desktop Linux (Ubuntu 18.04) sowie Unterstützung für CUDA –X AI mit. Das SDK erlaubt es, beliebte Open Source Machine Learning (ML)-Frameworks wie TensorFlow, PyTorch, Caffe, Keras und MXNet sowie Frameworks für Computer Vision und Robotik-Entwicklung wie OpenCV und ROS nativ zu installieren. Die vollständige Kompatibilität mit diesen Frameworks und NVIDIAs führender KI-Plattform macht es einfacher denn je, KI-basierte Inferenz-Workloads für Jetson bereitzustellen. Jetson Nano bietet Echtzeit-Bildverarbeitung und -Inferenzierung für eine Vielzahl komplexer Deep Neural Network (DNN)-Modelle. Diese Fähigkeiten ermöglichen multisensorische autonome Roboter, IoT-Geräte mit intelligenter Kantenanalyse und fortschrittliche KI-Systeme. Auch Transferlernen ist möglich, um Netzwerke lokal an Bord von Jetson Nano mit Hilfe der ML-Frameworks nachtrainieren zu können.