Adlink integriert Nvidias KI-Portfolio Schneller auf den Markt

EPM-DLAP-201-JT2-FL45 ist ein kompaktes Embedded-KI-System mit integriertem Jetson TX2.

Chip-Hersteller Nvidia bringt mit der neusten Produktgeneration KI in die Edge. Adlink hat als Preferred Partner von Nvidia die Konzepte für Embedded-Anwendungen aufbereitet und in eine wachsende Produktpalette integriert.

Künstliche Intelligenz (KI) ist einer der Treiber am heutigen Markt der Computersysteme. Bekannteste Alltagsbeispiele sind die Sprachassistenten Alexa, Siri und Cortana. Während jedoch traditionelle KI-Systeme auf eine starke Rechenleistung im Cloud-Hintergrund angewiesen sind, nutzen moderne Systeme heute schon die überragende Rechenleistung stromsparender Spezialprozessoren vor Ort. So können viele Aufgaben schneller (geringere Latenz durch im wörtlichen Sinne kürzere Leitungen) und zuverlässiger (lokale Verfügbarkeit unabhängig von fremder Infrastruktur) an der Edge genutzt werden. Anwender können dabei auf bewährte Erfolgsfaktoren setzen: erfahrene Partner, modernste Technologie und bewährte, gut skalierbare Implementierungskonzepte.

Typische KI-Anwendungen an der Edge sind neben der Spracherkennung (NLP=Natural-Language-Processing) auch die Videoüberwachung (NVR=Network-Video-Recording), Bilderfassung und -erkennung (Machine-Vision) sowie weitere Anwendungen des Machine-Learning wie autonome Roboter oder autonomes Fahren. Bei Machine-Learning handelt es sich um ein Untergebiet der KI, und Lösungen basieren hier zumeist jeweils auf neuronalen Netzen bzw. Deep Neural Networks (DNN). Deep Learning selbst, aber auch die Berechnung und Ausgabe von nicht unbedingt auf dem gleichen Rechner gelernten Entscheidungsalgorithmen können aufgrund ihrer hochparallelen Verarbeitungsstruktur besonders schnell und gut auf GPUs (Graphics-Processing-Units) ausgeführt werden. So ist es auch kein Wunder, dass sich Nvidia als einer der Marktführer in diesem Bereich bereits frühzeitig im Bereich KI engagiert hat.

Dementsprechend groß sind das Ökosystem und auch das Angebot an bestehenden Open-Source-Bibliotheken und Lösungen etablierter Anbieter wie Tensor Flow oder Caffe. Die aktuelle Jetson-Familie bietet drei leistungsfähige und ausgereifte Komplettsystem-Plattformen mit einer einheitlichen Entwicklungsumgebung (JetPack) und der Unterstützung vieler KI-Bibliotheken. Trotz der hohen Leistungsfähigkeit kommen die Systeme dank ihrer hohen Effizienz mit einem geringen Energieverbrauch von nur etwa 5 W (Nano) bis maximal 30 W (AGX Xavier) aus. Die Xavier-Module haben zusätzlich zu GPU und CPU noch 32 bzw. 48 Tensor-Cores und einen Deep-Learning-Prozessor (DLP) sowie einen speziellen Bildverarbeitungsprozessor auf dem Chip integriert. So lässt sich die Rechenleistung je nach Anwendung gut skalieren – und dies bei voller Software-Kompatibilität.